martes, 31 de enero de 2012

Lynn Margulis: intimidad entre desconocidos y selección natural


Entrevista con Suzan Mazur
Por Suzan Mazur , 16 de marzo de 2009

 “Lynn Margulis es un ejemplo de persona que no sigue las reglas establecidas, lo cual ha molestado a muchos. Su forma de ver la simbiosis no encajaba con las teorías más populares. Se enfrentó a los poderes fácticos y presentó directamente sus teorías al público, lo que terminó de enfadar a muchos más. Pero sobre todo molestaba porque lo que decía era correcto”. - W. Daniel Hillis, La Tercera Cultura"]

Es evidente que la profesora Lynn Margulis no tiene mucho tiempo para acudir al Bailliol College de la Universidad de Oxford, ya que ocupa el puesto de profesora Distinguida de Geociencias de la Universidad de Massachusetts-Amherst. Ha estado dispuesto a hablar con nosotros sobre la simbiosis (“las nuevas especies evolucionan principalmente a través de una intimidad de larga duración entre desconocidos”), un concepto evolutivo que le supuso la concesión de la Medalla Presidencial de las Ciencias en 1999. Margulis dice que el concepto de “supervivencia del más apto” es un concepto ya desfasado, ya que es una visión “capitalista, competitiva, interpretando la idea darwiniana en términos de coste-beneficio”, y que incluso los bancos y los equipos deportivos tienen que cooperar para competir. Ve la selección natural como “ no una fuente de variabilidad hereditaria en la evolución”, y ha dicho que el neo-darwinismo está muerto, ya que no hay pruebas suficientes en la literatura científica para señalar que las mutaciones al azar producen nuevas especies.

Lynn Margulis tiene una visión holística de la ciencia evolutiva y en la Universidad de Massachussetts realiza un trabajo relacionado con la microbiología, la biología celular, la genética, la ecología, geología, astronomía, astrobiología, ciencias de la atmósfera, bioquímica orgánica y metabólica.

Este año (2009), que se celebra el 200 aniversario del nacimiento de Darwin (12 de febrero), Lynn Margulis ha sido galardonada con la medalla de Darwin-Wallace por la sociedad Linneana de Londres. Fue elegida miembro de la Academia Nacional de las Ciencias en 1983, desempeñando el cargo de Presidente de la Junta de Biología Planetaria y de Química evolutiva; elegida miembro de la Academia Rusa de las Ciencias Naturales; miembro de la Academia Mundial de Arte y Ciencias y de la Academia, entre otros honores.

Lynn Margulis me dijo que cuando escribió su libro Simbiosis en la evolución celular: las comunidades microbianas en el Arcaico y el Eón Proterozoico desconocía la obra del ruso Boris Mijailovich Kozo-Polyansky (1924) y los conceptos de este predecesor de la simbiogénesis. También me dijo que sabía muy poco de otros estudios anteriores realizados en América ( por ejemplo, Simbionticismo de Ivan E. Wallin y el Origen de las Especies, 1927). Margulis dijo que simplemente había leído con gran interés el libro del profesor E.B. Wilson, titulado “Herencia y desarrollo de la célula”, (1925). Sin embargo, sus conclusiones se parecen mucho a las de Kozo-Polyansky y otros predecesores que apoyan la simbiogénesis, aunque actualizando la información gracias a las aportaciones de la genética, la bioquímica y los estudios paleontológicos.

Ha sido coautora de varios libros junto a Dorion Sagan, el hijo de su primer matrimonio con el fallecido astrónomo Carl Sagan. Estos libros son: Planeta simbiótico: una nueva mirada sobre la evolución; La adquisición de genomas: una teoría del origen de las especies; Qué es el sexo; ¿Qué es la vida; Danza Misteriosa; Evolución de la sexualidad humana; Microcosmos: cuatro mil millones de años de evolución de nuestros ancestros microbianos; Origen del Sexo: tres mil millones de recombinación genética. Junto con M.J. Chapman, un colaborador cercano y antiguo alumno, ha escrito Reinos y dominios: una guía ilustrada de los phyla de la vida en la Tierra, que ya ha alcanzado su cuarta edición.

Aprecia a muchos de sus colegas a los que describe como “maravillosos, excelentes...” Ya me avisó que no tendría mucho tiempo ya que estaban a punto de venir su hija, yerno y los tres nietos.

Lynn Margulis pasó 22 años enseñando en la Universidad de Boston, antes de ocupar sus actuales cargos docentes. Tiene el título de Bachelor por la Universidad de Chicago, una maestría en Zoología y Genética por la Universidad de Wisconsin y un doctorado en genética por la Universidad de California, Berkeley.

Pero su carrera no comenzó así. Nació al sur de Chicago en una familia que no tenía relación con la ciencia, pero tenía una vena salvaje y admite que le encantaba perseguir y ser perseguida por los chicos. Se casó por dos veces.

De una reciente conversación telefónica hice un un resumen ligeramente mejorado del documento que se presentó en Roma la semana pasada, "El proceso de evolución biológica y teorías", conferencia, organizada conjuntamente por la Universidad Pontificia de Roma, de los jesuitas, y la Universidad de Notre Dame, de Indiana.

Origen del proceso evolutivo por Simbiogénesis




Mientras que la aparición de nuevas especies por acumulación de mutaciones al azar en el ADN nunca ha sido lo suficientemente documentado, sin embargo sí existe una multitud de estudios científicos que ha demostrado de forma inequívoca la simbiogénesis como la base del origen de nuevas especies y taxones.

Los miembros de al menos dos dominios procarióticos ( la arqueobacteria dependiente del sulfuro, y una eubacteria oxidante del sulfuro) se fusionaron para formar los primeros organismos nucleados y evolucionaron en el Eón Proterozoico Medio ( 1200 millones de años).

Los organismos heterótrofos, los protoctistas móviles ancestrales y todos los organismos eucarióticos posteriores proceden de aquellas bacterias (protoctistas, animales, hongos y plantas).
[…]

No faltan eslabones en el escenario actual de los animales fotosintéticos (por ejemplo, Elysa viridis, Convoluta roscoffensis, los hongos de fijación del nitrógeno como Geosiphon Pyriforme, la digestión de la celulosa (caso de las vacas o las termitas, Mastotermes darwiniensis) y las plantas (Gunnera manicata), lo que nos asegura que lo que decía Boris Mikhailovich Kozo-Polyansky (1890-1957) en su análisis (Symbiogenesis: A New Principle of Evolution, 1924) sigue siendo correcto.
La simbiogénesis está en el origen de la variación hereditaria, que se mantiene y perpetúa por las limitaciones de la selección natural de Charles Darwin, para alcanzar las características del potencial biótico de cada especie.

Suzan Mazur (SM): ¿Cuál es la importancia de la conferencia sobre la evolución que se celebra en Roma, donde sólo aparecen representantes de Estados Unidos y Europa?

Lynn Margulis (LM): Yo no sabía esto. ¿Quiere decir que no hay ni chinos ni japoneses?

SM: No hay representantes rusos, ni chinos, ni africanos, ni indios, ni japoneses en la lista.

LM: No es una política de limitación, debe ser el resultado de diversas circunstancias históricas. Debe saberse que el término evolución no es utilizado por Charles Darwin (se refería al proceso de “descendencia con modificación), y es un término anglosajón, muy británico-estadounidense, por lo tanto tradicionalmente limitado a los anglófonos. La mayoría de los científicos de habla inglesa piensan en términos hagiográficos, se callan cuando se menciona a Charles Darwin, ya que se compara con la física de antes de Einstein, o de cuando Newton era el único nombre reconocido. Es un fenómeno nacionalista inglés, sobre todo en las interpretaciones que de Darwin se han hecho con posterioridad.

SM: ¿Cree usted que los organizadores de la conferencia de Roma tenían esto en mente cuando se pensó en los asistentes?

LM: No, no lo creo. Es probable que ni siquiera se les haya pasado por las mientes que la lista de invitados a una reunión internacional es algo racista. Los chinos y los navajos no tienen una tradición en las teorías de la evolución, a pesar de que tienen una excelente práctica en la medicina tradicional. El profesor Tom Glick, antiguo colega de la Universidad de Boston, escribió un libro, Estudio comparativo de la aceptación de Darwin, con capítulos dedicados a cada país.

Un estudiante nos sugirió que era necesario un capítulo dedicado a la aceptación del darwinismo en China. El libro tiene un capítulo sobre Japón, América Latina, España, y otros muchos países, sobre todo sobre la consideración del darwinismo entre 1859 y 1970, aproximadamente. Pues bien, este estudiante de doctorado en Historia de la Ciencia, viajó a China durante un año y descubrió que no había ninguna tradición de la evolución darwiniana. Así que se dedicó a estudiar diferentes aspectos de la medicina china.

Mi colega Tacheeni Scott, biólogo celular, navajo, me dijo que su cultura no tiene en absoluto ningún concepto sobre la evolución. Simplemente no tienen esta tradición.

SM: Pero sí hay una importante investigación sobre evolución en la India y Japón. No he consultado los estudios realizados en África, pero hice una entrevista a unos científicos africanos en la década de 1980 para la revista Omni, que habían sido formados por los soviéticos, por lo que se puede pensar que sí existen en África estudios sobre la evolución.

LM: La mayor parte de África estuvo colonizada por Europa. Digámoslo de esta manera. En el equivalente ruso de la Enciclopedia Británica, hay cerca de 250 páginas para describir la simbiogénesis, en un contexto evolutivo, por supuesto. En los libros publicados hasta 1982 sobre la evolución darwiniana, y como parte de las actividades del centenario de la muerte de Darwin en 1882, casi el número de páginas es igual a cero en lo referente a la simbiogénesis. Teniendo esto en cuenta, quizás algunos países hayan sido excluidos por su falta de estudios sobre la evolución.

SM: El tema de la conferencia de Roma es “Hechos y teorías de la evolución biológica: valoración crítica 150 años después del Origen de las especies” ¿Podría comentar en qué punto se encuentra actualmente la teoría de la evolución?

LM: Te daré un ejemplo concreto. Hacia 1980, el profesor de Harvard Richard Lewontin, ¿lo conoces?...

SM: Sí, le he entrevistado.

LM: ¿Y a Margaret Dayhoff? Era un bioquímico de las proteínas que inició la obtención de información con las secuencias de proteínas para reconstruir la historia evolutiva. Es coautora de una maravillosa serie de libros sobre la secuencia de proteínas y su estructura en la década de 1970, junto a Richard Eck. Este manual recoge toda la información evolutiva disponible, que por entonces no era mucha. Dayhoff et al se dieron cuenta de que los datos que estaban obteniendo sólo podían comprenderse a la luz de la evolución.

El paleontólogo y profesor de Harvard Elso Barghoorn también estuvo involucrado en este estudio. Cuatro o cinco de nosotros recibíamos información por correspondencia, dándonos cuenta del problema más importante de nuestra investigación – si se trataba de la electroforesis o del registro de microfósiles- sobre la historia de la evolución. Así que hablamos de las maneras en que podíamos presionar a la Fundación Nacional de la Ciencias para crear una sección de evolución. Esto fue claramente una competencia de la NSF. A Dayhoff se le financió una sección de química en el Instituto Nacional de la Salud. Barghoorn fue apoyado por la sección de Geología de la NSF y la NASA.

Una carta, cuidadosamente redactada, decía que un sólido grupo de investigadores consideraban como su actividad principal la evolución, y sin embargo, sus métodos son muy diferentes. Nos propusimos aunar nuestros esfuerzos. Esto llevaría a no realizar estudios redundantes y a ahorrar dinero de los organismos de financiación. Probablemente sería más una Ciencia de la Evolución, para construir una programa de la evolución. No tenemos que mentir acerca de nuestros intereses. Lo digo cortésmente.
Le envié una carta, pero tardé en recibir la respuesta como un año, quizás dos. Ya hasta me había olvidado, pero recibí finalmente respuesta de la NSF

¿Recuerda al senador de Wisconsin Gaylord Nelson que ridiculizó el trabajo financiado por la NSF diciendo que se trataba de algo así como descubrir el pie izquierdo de las arañas? Creo que sólo trataba de ser sensible, según lo que puedo entender.
De todos modos, deduje que los científicos y burócratas de la NSF entraron en conflicto a raíz de recibir nuestra carta. La persona que nos contestó nos venía a decir que son muchos los ciudadanos estadounidenses que están en contra de la evolución y que si la NSF venía a introducir la Química, la Geología, etc, en los estudios sobre la evolución, que sería como poner la cabeza en la guillotina. Sin dudar de la validez de la aportación intelectual, no podía tenerla en cuenta. Decía que la NSF consideraba importante fortalecer la ciencia de la evolución, pero había que evitar utilizar la palabra evolución, y que la misma no centralizase las actividades de investigación

SM: He sido muy crítica con la publicación de la NAS (Academia Nacional de Prensa) “Ciencia, evolución y creacionismo” ¿Cree que aporta algo de luz sobre el tema?

LM: Probablemente no hable con claridad

SM: ¿Diría usted que se está produciendo un cambio radical en cuanto a la visión de la evolución?

LM: Sí, deme algunos datos más por favor

SM: Por ejemplo, en la Conferencia de Roma se dedica un día entero a hablar sobre los “mecanismos evolutivos”. Así, Stuart Kauffman, uno de los científicos presenta una ponencia sobre los mecanismos de la evolución, y hace un año en una entrevista me dijo que “algunos físicos me hacen preguntas tales como: ¿Es la selección natural expresión de un proceso más general? Todo eso está en el aire. Richard Lewontin me dije que sí se produce la selección natural. Antonio Lima-de-Faria dice que la selección natural es un término político más que científico. El filósofo Massimo Pigliucci me dijo públicamente que es tanto política como ciencia.

LM: ¿Quién fue el primero en decir que es un término político?

SM: Antonio Lima-de-Faria, un citogenetista de la Universidad de Lund.

LM: De Lund. Es portugués.

SM: Así es.

LM: Bien, bien. ¿Va a acudir a la Conferencia de Roma?

SM: No. He hablado a menudo con él. Stuart Newman dice que la selección natural debería ser relegada a un papel menos importante dentro de la ciencia evolutiva. Stan Salthe dice: “Por supuesto que la selección natural ha sido demostrada... sin embargo.... rara vez, o nunca, se ha demostrado que tenga algo que ver con la evolución, en el sentido de cambios a largo plazo en las poblaciones...”.

LM: ¿Eso es lo dijo realmente Salthe?

SM: Sí. Y también dijo que “la importación de la teoría darwiniana a la evolución es un inexplicable capricho realizado desde arriba hacia abajo. […] El filósofo Jerry Fodor, coautor del libro “En lo que Darwin se equivocó” , junto con el lingüista Massimo Piatelli_Palmarini, me dijo que “va a resultar que la historia no es una historia de selección” ¿Puede aclararnos lo que está pasando en lo referente a esta situación y el significado de la selección natural?

LM: Creo ver el problema con claridad. No hay ninguna duda de que la selección natural se puede constatar a cada momento en todas las poblaciones de organismos. Darwin fue brillante al definir el término “selección natural”, una especie de término divino, una expresión que podría reemplazar a Dios, el que creó todas las formas de vida. Sin embargo, ¿qué es la selección natural en realidad? El fracaso de alcanzar todo el potencial biótico, que es algo cuantitativo. El potencial biótico es la capacidad intrínseca de una población a crecer de forma desmesurada produciendo una crisis en el medio. Todos los organismos tienden a reproducirse lo más posible y así sobrevivir. La selección natural es intrínsecamente un proceso de eliminación. Voy a dar algunos ejemplos concretos.

Mi ejemplo favorito es éste: Una bacteria común, Proteus vulgaris, que se divide cada 15 minutos. En dos horas de crecimiento, 1,2,4,8,16,32, 64... así hasta ir ocupando cada vez más espacio. Si Proteus vulgaris siguiese creciendo a ese ritmo, es decir, si su crecimiento no estuviese limitado, esa bacteria podría llegar a alcanzar la masa de la Tierra en un fin de semana. Es fácil demostrar que el potencial biótico, definido como número de hijos por unidad de tiempo, no se alcanza nunca.

Darwin dijo que la Tierra entera podría estar cubierta por la progenie de una sola pareja de elefantes. O todo el mundo conoce la historia antigua sobre las casillas de ajedrez: un grano de arroz, dos, cuatro.... 264 al llenar todas las casillas.

Al parecer, un máximo de 11 cachorros de perro salchicha pueden nacer por camada. Tienen 3 camadas al año y por lo tanto su potencial biótico es de 33 cachorros al año.

Tomemos el ejemplo de ser humano. La mujer de más edad que ha dado a luz, que se sepa, tenía 59 años de edad. El mayor potencial biótico descrito es de 22 hijos para una sola pareja. Esta es la medida del potencial biótico humano: 22 hijos por pareja en cada generación, lo que equivale aproximadamente a 22 niños por cada 25 años.

Recientemente, un periódico brasileño informaba de una madre que había tenido 32 hijos, pero podemos asegurar que esos 32 hijos no tuvieron otros 32 en la siguiente generación. Eso nunca ha ocurrido en la historia de la humanidad. Si volviese a ese pueblo de Brasil 25 años después, los dos padres originales no han sido sustituidos por 32 sino por otros dos descendientes. Los otros o murieron o no se reprodujeron. Esto es precisamente la eliminación por selección natural, el máximo potencial biótico que puede ser alcanzado. Eso es todo. No hay ninguna población que puede desarrollar todo su potencial biótico durante mucho tiempo,
¿Qué es entonces la selección natural? La selección natural es el fracaso para alcanzar el potencial biótico, el máximo número de hijos que pueden ser producidos por miembros de una especie cualquiera. Esto se ha demostrado una infinidad de veces en infinidad de organismos.

Suzan Mazur: ¿Entonces usted está de acuerdo en que la selección natural no se ha demostrado que tenga que ver con la evolución, en el sentido de cambios a largo plazo en las poblaciones?

LM: Por supuesto que no. Tenemos que reconocer que hay errores. El crecimiento no es una simple ingesta de alimentos. No es sólo un proceso. En los metazoos el crecimiento implica motilidad intracelular, síntesis de proteínas en la mitosis, generación de energía ATP, respiración de oxígeno, consumo de agua y su almacenamiento, el balance salino, desarrollo y diferenciación celular, y otros procesos relacionados. El término crecimiento tiende a ser despreciado y malinterpretado, pero todavía es mucho peor en lo relativo a la evolución. El proceso evolutivo tiende a ser mal entendido por la mayoría de la gente, y a menudo inadecuadamente presentado por aquellos a los que se pretende enseñar. La selección natural ocurre de forma continua. Pero la selección natural como un proceso de eliminación, como un fracaso para alcanzar el potencial biótico, esa no es la cuestión.

SM: Es decir, la selección natural en los términos en los que habla Salthe, cambios a largo plazo en las poblaciones.

LM: Yo sostengo que a largo plazo el cambio también ha sido demostrado. Tal cambio en el tiempo es lo que muestra el registro fósil.

SM: Él dijo que había sido demostrado, pero rara vez... ¿Y qué pasa con Stuart Kauffman? Dijo que la selección natural puede la “expresión de un proceso más general”.

LM: Están discutiendo sobre el proceso evolutivo. Se confunden acerca de los componentes separables y cuantificables. La afirmación de Darwin de “descendencia con modificación” como la causada por la selección natural es una falacia lingüística. Se habla como si sólo hubiera una sola causa, como si la selección natural fuera la causa. Es algo que queda sin definir. No responde a una evidencia evolutiva, a los procesos evolutivos tal como se muestran en el registro fósil. Tienden a ignorar la sedimentación, la estatigrafía, la tafonomía [La Tafonomía (del griego « τάφος» taphos, enterramiento, y «νόμος» nomos, ley) es la parte de la Paleontología que estudia los procesos de fosilización y la formación de los yacimientos de fósiles (Fernández López, 2000)], la diagénesis y otros procesos naturales relevantes para la interpretación de la evidencia directa de los fósiles en la evolución de la vida.

Darwin escribió sobre la lucha por la vida y atribuyó los cambios a la selección natural. Esto hizo que sus contemporáneos verbalizasen a un Dios celestial Omnipotente que escogía el camino a seguir. Era el Selector Natural, dejando a todos los demás fuera.

SM: Su investigación de la ciencia holística ha revolucionado el pensamiento sobre la evolución. Ha afirmado que nuestra investigación tiene que abarcar la “Geología, la Astronomía, las Ciencias de la Atmósfera, la Química Orgánica y Metabólica, la Genética, la Ecología, la Biología Celular, la Microbiología”.

Ha sido muy crítica con la ciencia evolutiva que se centra demasiado en la investigación animal y no lo suficiente en el período que durante dos millones de años precedió a las especies animales. ¿Qué es lo que piensa sobre ese período que precedió a la evolución biológica? ¿Le parece que la idea de Antonio Lima-da-Faria es interesante acerca de los niveles atómicos y químicos, los minerales, en lo referente a la evolución?

LM: Evolución no es un término apropiado. Evolución significa simplemente un cambio en el tiempo. Y realmente sí se ha producido un cambio en el tiempo a muchos niveles.

SM: ¿Está diciendo que está de acuerdo en que hay cuatro niveles?

LM: Yo no conozco los cuatro niveles que señala Lima-da-Faria. Sólo estoy familiarizada con su excelente trabajo sobre las células de años atrás.

SM: ¿Qué nos puede decir sobre la periodicidad biológica, donde por ejemplo se describe el gusano, que puede tener los genitales masculinos tan desarrollados como los de los machos humanos, con una placenta que aparece en una gran variedad de especies, junto con características tales como la luminiscencia, la capacidad de volar, etc?

LM: Supongo que está hablando de la evolución convergente.

SM: No, no tiene por qué ser la evolución convergente. Lo que quiero decir es que la célula no es capaz de formar protones, neutrones y electrones para crear una aleación de zinc, cobalto, magnesio o un átomo de hierro. Dice que estos átomos provienen del entorno y que “no es de extrañar que las funciones y estructuras de la célula estaban obligadas a seguir y perpetuar la periodicidad inherente a los elementos químicos y minerales”. Por lo que la periodicidad de la Biología, patrones similares que se presentan en diversos animales y plantas, esta súbita aparición de las funciones en los mamíferos que ocurrió por primera vez en los primeros invertebrados, por ejemplo, puede estar “directamente relacionado con la periodicidad de los elementos químicos”.

LM: No he seguido sus trabajos en los últimos años, pero estoy encantada de saber que sigue trabajando y publicando a los 87 años de edad. Acerca de los minerales no hay duda de que están íntimamente involucrados en la evolución. Eso no hay duda. Al menos 20 elementos de la tabla periódica son absolutamente necesarios para la vida, de acuerdo con Bob Williams, profesor de Química de la Universidad de Oxford. Demostró que además de “CHNOPS”, es decir carbono, hidrógeno, nitrógeno, oxígeno, fósforo y azufre), hasta 20 elementos son esenciales para los organismos vivos. Quizás con anterioridad el número de elementos químicos fuese menor. Estos elementos no pueden ser sustituidos por otros.

Si el manganeso es necesario, no puede ser sustituido por el magnesio. Y si el magnesio es necesario para una cierta encima, no puede ser sustituido por el selenio. Y lo que pasa con las características mineralógicas de los elementos es que, a diferencia de los componentes biológicos, cuando una sustancia pura esta hecha a partir de los elementos químicos se produce una identidad. Los elementos químicos son idénticos, lo que no ocurre con las células.

SM: ¿ Encuentra interesante el concepto de campos morfogenéticos, concepto que han desarrollado Scott Gilbert y Rudolf Raff, así como Stuart Pivar con su enfoque del “estructuralismo biológico”, basándose en los cambios evolutivos del torus? ¿ O la reciente descripción de Mark McMenamin en Paleotorus de los fósiles de Seilacher con forma de lengua, en Namibia, que es un torus metazoo aplanado (con las líneas longitudinales que convergen cerca de los polos), un toroide de Edicara? Marcos McMenamin dice que estos son ejemplos de los campos morfogenéticos.

LM: La persona que más ha contribuido a promover los campos morfogenéticos es Rupert Sheldrake. No he tenido la oportunidad de leer el manuscrito de Paleotorus. No estoy familiarizada con el pensamiento de torus, aunque sí conozco la obra de McMenamin. He estado con él, y su análisis de la biota metacelular de Edicara es excelente. Es una especie de multicelularidad pero no es la multicelularidad de los metazoos. Creo que es probable que esté en lo cierto de que la metacelularidad de Edicara se diferencia de las plantas y de los animales pluricelulares. Las células de los tejidos animales se diferencian por las estructuras específicas que incluyen desmosomas, uniones septadas, sinapsis, y otras estrechas uniones. Las células vegetales están conectadas por plasmodermos. Sospecho que la biota de Edicara está compuesta en su mayoría por protoctistas sincitiales, que como mostraron McMenamin y Dolf Seilacher, no eran animales.

SM: Creo que usted ha afirmado que los neodarwinistas del siglo XX son ahora en el siglo XXI una secta religiosa que está dentro de la expansión de la biología anglosajona.

LM: Sí, es cierto, eso dije.

SM: Richard Dawkins pronunció un discurso el año pasado en la Escuela de Cultura Ética de Manhattan, donde el público le preguntó si con el darwinismo abrazaba una religión. Contestó: “soy culpable, voy a esforzarme en hacer una reforma”.

LM: ¡Bien! Voy a mencionar un maravilloso libro de Ronald W. Clark titulado “La supervivencia de Charles Darwin”. La primera parte del libro retrata a Darwin y el darwinismo en su tiempo. La segunda parte trata sobre el neo-darwinismo, lo que sucedió después de la muerte de Darwin. Se describen las presiones políticas y sociales que dieron origen al neo-darwinismo.
La historia está relacionada con la genética mendeliana. Gregor Mendel no era un monje que trabajaba en un tranquilo jardín de Brno, en lo que hoy es la República Checa. Tuvo una buena educación, fue un buen naturalista, que estuvo en estrecho contacto con el Papa. Darwin era consciente de los puntos de vista sobre los cambios. Los conceptos de Mendel eran maravillosos, científicamente impecables.

Te voy a dar un resumen de los trabajos de Mendel sobre la reproducción de los guisantes. Flores rojas y blancas obtenía generación tras generación. Los guisantes de flores rojas tenían descendencia de flores rojas. Los de flor blanca cruzados con otros de flores blancas tenían descendencia de flores blancas. Sin embargo, un cruce de guisantes de flores rojas con otro de flores blancas producía flores de color rosa. Al cruzar los guisantes de flores rosas, en la descendencia aparecían flores tanto rojas como blancas, al igual que los padres o los abuelos.

Lo que demostró Mendel es que a partir de las mezclas se pueden obtener individuos puros. De padres con flores de color rosa se pueden obtener flores rojas, blancas y rosas, como los padres y los abuelos. No hay novedad en la evolución, porque exactamente los mismos factores hereditarios del comienzo son los que se transmiten y permanecen puros a través de las generaciones posteriores. Mendel previó que estos factores (los genes) no cambian con el tiempo.

Mendel rechazó la evolución, introdujo las leyes de la herencia, pero la herencia no conducía a un cambio o a nuevas características de las especies.

A continuación, Darwin dijo que si no se producían cambios graduales en el tiempo, entonces su teoría estaba equivocada. Así, a parte de otras cosas que dijese Darwin, dejó muy claro que se producían cambios en los seres vivos a lo largo del tiempo y que esos cambios podían heredarse. Se observa una aparente contradicción entre la afirmación de Mendel sobre la estabilidad hereditaria y los cambios descritos por Darwin. Sólo los cambios heredados, escribió, son de interés para nosotros.

Lo que creo es que tanto las teorías de Mendel como de Darwin, a excepción de la insistencia de Darwin sobre la graduación de cambios en el registro fósil, son correctas. Los cambios en el tiempo es algo ya de lo que nadie duda. La Paleontología y la Paleobiología han estado intentando encontrar un ancestro común. Pero observamos que los cambios tienden a ser discontinuos, lo que se llama un equilibrio puntuado.

Algunos matemáticos sabelotodo de Cambridge, tales como JBS Haldane y RA Fisher, trataron de reconciliar la estabilidad de los factores de la herencia de Mendel (que Johannsen llamaría más tarde genes) con los cambios de Darwin.

Darwin era un geólogo. Trato de rastrear los linajes a través del tiempo. Observó especies que se habían extinguido y la aparición de nuevas formas de vida a partir del registro fósil. Los fósiles conocidos no eran tantos como los que se conoce hoy en día, pero era suficiente para saber que los organismos ya extinguidos estaban directamente relacionados con los descendientes de hoy en día, por ejemplo, que los dinosaurios estaban relacionados con los reptiles actuales, etc.

¿Y qué fue lo que propusieron Haldane, Fisher, Sewell Wright, Hardy, Weinberg y al? Tomaron la genética y compusieron una “genética de poblaciones”, basada en la extrapolación de las reglas de Mendel. La superestructura es una teoría que se aleja de lo que se denomina “campo”. El neodarwinismo, que surgió después de la muerte de Darwin, afirmó que todavía no había resuelto la contradicción Mendel/Darwin.

Hermann J. Muller comprobó que los rayos X son capaces de causar mutaciones. Los genes no cambian. De cualquier organismo podemos obtener su alfabeto genético: A, B, C, D, E, F, G, H, I, J, K. . ., así hasta la Z (De la A a la Z es el genoma del organismo). A se puede transformar un poco, y los sucesivos cambios hacen que la tasa de cambio sea medible. La idea es que si se acumulan suficientes cambios genéticos, se producen las suficientes mutaciones genéticas, se puede explicar el paso de una especie a otra. Esto se representa como dos ramas de un árbol genealógico que surgen de un ancestro común. La tradición anglófona ha cuantificado e informatizado la descripción de la evolución, lo que creo que es un error topológico conceptual.

SM: ¿Cómo le va en Oxford?

LM: Voy prosperando. He encontrado excelentes colegas y amigos, en este lugar de las tres B: Biofilia, Bibliofilia y Biciclofilia. Sin embargo, confieso que me siento arrastrada por la tradición neodarwinista, que todavía prevalece y poco tiene que ver conmigo, y me siento obligado a no olvidar en mis propias investigaciones.

La tradición anglófona predomina. Es lo que yo y mis contemporáneos hemos aprendido. Así como los científicos más jóvenes. La evolución fue definida como “cambios en la frecuencia de genes en las poblaciones naturales”. La acumulación de mutaciones genéticas se consideró como suficiente como para pasar de una especie a otra.

Además se admitió, a partir del mismo principio porque era medible, que el 99% de todas las mutaciones detectables, que los cambios hereditarios eran negativos, que las mutaciones eran principalmente perjudiciales. Así que racionalizaron: el 1% de las mutaciones genéticas, con cambios hereditarios medibles, no eran perjudiciales. Eran favorables. Si se producen suficientes mutaciones favorables, en una extrapolación errónea, se puede producir el cambio de una especie a otra.

SM: ¿Entonces, todo comenzó a partir de una falsedad?

LM: No, no era falso, sino más bien el deseo y el ímpetu social. Se asumió como un hecho, aunque no se hubiese verificado, pero se enseñó así.

SM: Pero surgió de aquí toda una industria entera.

LM: Sí, pero las personas son leales con el grupo al que pertenecen antes que serlo ante una noción abstracta de “verdad”, los científicos sobre todo. En caso contrario se les consideraría inútiles. Uno se suicida profesionalmente si contradice de forma continua a los profesores o a los líderes sociales.

SM: Frank Turner, director de la Biblioteca de Manuscritos y Libros Raros de Beinecke en la Universidad de Yale, me dijo que los científicos son “los intelectuales más afortunados al recibir fondos públicos” ya que a cambio de subvenciones del Gobierno trabajan para “asegurar la mejora de la salud, la estabilidad económica y la seguridad nacional”. ¿Está usted de acuerdo con esta descripción y cómo siente usted esa necesidad de acometer la seguridad nacional a fin de conseguir la financiación para sus investigaciones?

LM: Realmente nuestras investigaciones están relacionadas directamente con las bacterias del ántrax. En primer lugar, usted me habla de ciencia norteamericana. Y en segundo lugar, usted se refiere posiblemente a la NSF, a la financiación de DARPA, o algo aún peor.

Los científicos tenemos necesidad de fondos... deben obtener dinero para aumentar las actividades de investigación. Necesitan equipo, materiales, mano de obra, en resumen, dinero. Todos, excepto los científicos teóricos necesitan dinero, y para ello los resultados de sus investigaciones deben ser exactos y significativos...

Así que el sistema económico es tal que la gente universitaria, como todos los demás, deben obtener el máximo de fondos de los espacios institucionales. Es la principal presión. Los científicos siguen el flujo del dinero. Muchos se comportan de forma honesta. Otros harán bombas con él. La mayoría no irá muy lejos. Los Humanidades y los eruditos de la Filosofía no reciben mucho dinero público y corporativo porque, en general, lo que hacen no se percibe como algo práctico. Todo lo que hacen es escribir libros e impartir enseñanzas esotéricas a los estudiantes.

SM: ¿Pero afecta a la Ciencia este acuerdo de asegurar la salud, la estabilidad económica y la seguridad nacional? ¿No interfiere en la Ciencia? ¿No es éste un viejo problema que tenemos, apegados como estamos a las viejas creencias sobre la evolución? ¿No hay un cierto ciclo de sumisión?

LM: Sí, algo de esto está ocurriendo. Pero además, la evolución tiene problemas peculiares. Sí, la ciencia se apega a sus viejas creencias. Pero existe un cierto grado de autocorrección – la gente se va muriendo. Se necesitan varias generaciones para esta autocorrección.

SM: ¿No es demasiado pronto para celebrar una reunión internacional de ciencia holística evolutiva donde los mineralogistas se reúnen con biólogos celulares, etc, y la conferencia es publicitada en Internet? ¿No existe aún un lenguaje común?

LM: Sí hay una lengua científica común, pero sólo entre un número limitado de científicos. Algunos se han reunido ya. ¿Conoce usted a William Irwin Thompson de Lisdisfarne?

SM: No, no tengo el gusto de conocerlo.

LM: Es una persona honesta, muy instruida, un erudito que fundó Lindisfarne Fellowship hace 25 años, siendo financiado principalmente por Laurance A. Rockefeller, que tenía una gran confianza en Thompson. Admira la ciencia y tiene miras más amplias, como los científicos, al mismo tiempo que disfruta de otras muchas preocupaciones intelectuales. Tiende a aprender de la ciencia aunque él mismo no sea un científico. Es un gran intelectual. Básicamente, es un crítico cultural.

SM: Pero no se ha celebrado una conferencia donde toda esta gente se reúna e irrumpa en Internet. Hemos dado conferencias, escrito libros, publicados CD y vídeos, pero no ha llegado a la mayor parte del público. Y los medios dominantes sufren de una enorme inercia en la publicación de nuevos resultados de la ciencia evolutiva.

LM: Se ha tratado de informar exhaustivamente en los medios dominantes, pero se detienen ante lo que no entienden o no les gusta. También, a menudo, excelentes científicos no pueden explicarse de un modo que lo entienda la gente.

SM: ¿ Debería simplificarse este lenguaje como se ha hecho con la jerga legal?

LM: Voy a terminar nuestra conversación sobre los componentes de la evolución y con aquellos aspectos en los que discrepo. No puede haber discrepancia en cuanto a la evolución por alguien que se llama científico. Un componente es la selección natural. Ésta se produce.

SM: La definición de Lima-da-Faria de la evolución incluye lo no biológico y tampoco la selección natural. El mineralogista Bob Hazen ha dicho que tenemos que definir estos términos. La gente no está de acuerdo en lo que son tanto la evolución como la selección. ¿Debería Bob Hazen dejar de lado estas cuestiones porque él es un mineralogista?

LM: No,no se le debería de excluir.

SM: Niles Eldredge me dijo una vez: “Bob Haxen es un mineralogista. No es un biólogo evolutivo. Entonces, que tenga cuidado”.

LM: Bien, Niles Eldredge, es amigo y colega, y hablaba de aquellos científicos que vienen del campo de la Zoología. Probablemente se refería a la actividad intelectual deliberada que concilia la estabilidad mendeliana con la darwiniana, los cambios graduales y los intentos de forzar un neo-darwinismo de una genética demográfica...

Francisco Ayala presenta “mecanismos evolutivos” en Roma. Vino del campo del catolicismo, al estilo español, como un dominico. Estábamos en California en una reunión con el filósofo whiteheadiano John Cobb, y Ayala se mostró de acuerdo conmigo cuando dije que este neodarwinismo doctrinario ya ha muerto. Practicaba el neodarwinismo, pero los avances en genética molecular, evolución, ecología, bioquímica, y otras cuestiones le habían llevada a decir también que el neodarwinismo había muerto.

Los componentes de la evolución ( en lo que creo que ningún científico discrepa) existen porque hay datos sobre ellos: (1) La tendencia a un crecimiento exponencial de todas las poblaciones – que es el crecimiento más allá de un mundo finito; y (2) ya que el ambiente no puede sostenerlos, se produce un proceso de eliminación por medio de la selección natural.

Lo que dice la Ciencia es esto: (3) ¿Dónde se encuentra la novedad de que se transmite por herencia? ¿Cuál es al fuente de innovación evolutiva? ¿De dónde viene las innovaciones heredadas, sobre todo en sentido positivo?

Aquí es donde el neodarwinismo recibe un puntapiés, cuando dice que las mutaciones arbitrarias que se acumulan en la descendencia”. Esto es erróneo en mi opinión, y es la base de todo nuestro desacuerdo.

Estamos de acuerdo, la variación hereditaria existe, puede ser medida. Como dijo Darwin, la variación hereditaria es lo importante para nosotros, porque es la variación que se hereda. Estamos de acuerdo y esas modificaciones pueden ser demostradas. Y además, gracias a la Biología molecular, estamos de acuerdo en que toda la vida de la Tierra tiene un ascendiente común, cosa que ya dijo Darwin.

Estamos de acuerdo en esa ascendencia última de la vida en la Tierra porque el ADN, el ARN mensajero, el ARN de transferencia, son componentes que han traspasado la membrana de la célula (lípidos, fosfolípidos) y que compartimos -son prácticamente idénticos en toda la vida existente hoy en día, del mismo linaje. De modo que lo que dice el darwinismo, que todos tenemos una ascendencia común, no es motivo de discrepancia entre los científicos.

El verdadero desacuerdo es lo que dicen los neodarwinistas, con muy pocas pruebas, que consiste en que las mutaciones arbitrarias se acumulan y de esta acumulación surgen las nuevas especies. La novedad en la evolución, de cómo aparecen las nuevas especies, no se produce por mutación arbitraria, sino por simbiogénesis, por la adquisición de genomas extraños.

Cuando Salthe dice que no lo hemos visto, está hablando de las nuevas especies. Dice que no hemos visto la selección natural, y que ésta no produce nuevas especies, siendo este un aspecto particular del neodarwinismo.

SM: ¿Fue invitada usted a la reunión de Alterberg? ¿La Síntesis Ampliada, que se celebrará en julio en Altenberg, Austria?

LM. No, y no conozco a nadie que fuera.

SM: Stuart Newman.

LM: No conozco a Stuart Newmann.

SM: Su teoría está basada en un modelo de lengua, lo que él denomina módulos dinámicos de modelado, siendo el tema central de Altenberg.
Propone que los más de 35 filums de animales físicamente autoorganizados de organismos unicelulares, sin una receta genética en la explosión del Cámbrico hace 500 millones de años, usando este modelo de lengua de los módulos dinámicos de modelado (DPMS). Y que supuestamente la selección natural siguió este modelo.

LM: Pero todos usan la palabra multicelular cuando se refieren a un animal, ya que no hay animales unicelulares, los multicelulares son los genuinos. Detalles de multicelularidad se encuentran en protoctistas, bacterias y en los grupos principales de seres vivos. No se puede considerar correcto que existiese una carencia de una “receta genética” en la vida antes de los animales. Cada linaje de células tiene genes de ADN y ha generado descendientes multicelulares. Algunas bacterias como Gomphosphaeria siempre son multicelulares en todas las fases de su desarrollo.

Muchos desconocen esto. Los zoólogos a menudo muestran una peligrosa ignorancia; sólo entra en juego 1/5 de toda la Biología. Es un tipo de pensamiento que no comparto.

El problema se encuentra en que muchos científicos reconocen que existen dificultades genuinas con el “modelo estándar” de la evolución, por decirlo de algún modo. Sin embargo, existen muchas carencias de instrumentos conceptuales para solucionar las dificultades que legítimamente reconocen. Creen que entienden los procesos, como el de la especiación ( …) Todo esto es anastomosis (se refiere a la unión de unos elementos anatómicos con otros de la misma planta, animal o estructura mineral). Son fusiones de linajes ancestrales. No llegan a entender que “el desarrollo” se debe a la ecología microbiana y los sucesivos cambios en la comunidad. Éstas son tradiciones rechazadas por ser sólo de interés histórico, y sobre lo cual los campos científicos modernos tienen a acercarse poco o nada.

SM: ¿Tiene conocimiento de cuantos genes dispone el hombre?

LM: ¿El número establecido? ¿No son unos 25.000?

SM: Se habla de unos 20.000 a 25.000, incluso de 30.000. Entrevisté al industrial y filántropo David Koch, que forma parte del consejo del MIT, y me dijo que en una reunión con algunos ganadores del Premio Nobel, se discutía que el número de genes debía estar entre 15.000 y 30.000.

LM: Entre ambas cantidades hay un factor de 2, casi nada. Cuando se habla de cantidades en torno al millón (105 o 106), por ejemplo frente a 1020 , entonces la cosa es grave, siendo el momento de examinar los supuestos no declarados o las extrapolaciones injustificadas.

SM: Pero no saben lo que es un gen, o cuál es su origen.

LM: Yo no diría eso. Muchos saben que los genes son secuencias de nucleótidos que se encuentran en el ADN. Pero tienen nociones preconcebidas sobre “organismos programados y determinados por su ADN” y “acumulación de mutaciones arbitrarias”, etc., que interfieren en el aprendizaje. Son creencias científicas que en sus preconcepciones se parecen al resto de religiones, a las cuales la gente es bastante propensa.

No le he dicho explícitamente qué pienso de la fuente principal de las novedades en la evolución, es decir, qué variación genética hereditaria realmente lleva a la especiación. La variación hereditaria generalmente no viene de la acumulación gradual de las mutaciones arbitrarias, ¿qué es lo que realmente genera las variaciones de Darwin con la Selección Natural? Literatura científica sobre este tema sí que hay y crece día a día, pero lamentablemente está dispersa, mal entendida y prácticamente descuidada por el poderoso dinero, por los traficantes de publicidad de la ciencia y por los medios de comunicación. Peor, la mayor parte de esta literatura no está escrita en inglés, ni bien indexada. Esta literatura recoge que la simbiogénesis, las fusiones interespecíficas (hibridogénesis, la transferencia de genes de diversos tipos, la fisión cariotípica,y las adquisición de otros genomas extraños o epigénesis) son más importantes que la acumulación gradual y lenta de mutaciones o fusiones sexuales. Si está interesada en este asunto puede consultar el libro Escritos científicos sobre la adquisición de genomas: una teoría del Origen de las Especies (Margulis y Sagan, Basic Books, Nueva York, en rústica).

SM: Sé que … su concepto de simbiogénesis está arraigado en sus predecesores, algo en lo que acertó (como el análisis de 1924 de Boris Mikhailovich Kozo-Polyansky, del que pronto aparecerá una traducción en inglés), pero ¿diría usted que la idea de evolución por la cooperación es todavía algo difícil de aceptar por los científicos y la idea de la “supervivencia del más apto” quedará definitivamente enterrada?

LM: El problema no es “competencia frente a cooperación”. Son palabras totalmente inadecuadas para la vida. El lenguaje de la vida es la química metabólica. Incluso los banqueros y los equipos de deportivos tienen que cooperar si quieren competir. ¡Es crucial saber que no importa a qué equipo pertenece uno cuando se compite, porque hasta en los deportes es término es válido, aún usted está cooperando.
***
Suzan Mazur es la autora de Altenberg 16: Una exposición de la Industria de la Evolución. Su interés por la evolución la llevó hasta el Desfiladero de Olduvai para entrevistar a la paleontóloga ya fallecida Mary Leaky. A causa de las luchas ideológicas, la frontera entre Kenia y Tanzania estaba cerrada, y ésta fue la única razón por la que las autoridades de Dar-es-Salaam permitieron el aterrizaje de Leaky. Se produjo el descubrimiento de Leaky y su equipo de las huellas de homínido con un antigüedad de 3,6 millones de años en Laetoli. Artículos de Suzan Mazur han aparecido desde entonces en el “Financial Times”, The Economist, Forbes, Newsday, Philadelphia Inquirer, Archaeology, Connoisseur, Omni and others, así como en PBS, CBC y MBC. Ha sido invitada por McLaughlin, Carlie Rose y en varios programas de Fox Televisión News. Su correo electrónico es: sznmzr@aol.com

Fuente: http://www.suzanmazur.com/?p=195

Traducción: noticias de abajo
Procedente de scoop.co.nz

Url original

sábado, 28 de enero de 2012

¿Resuelto el misterio de la heredabilidad faltante?


La exploración del genoma en busca de aquellos genes que son susceptibles de enfermedades comunes ha dado como resultado encontrar que la mayoría de ellos no existen, siendo la enfermedad genética una fantasía de la ciencia que ha hecho perder tiempo y dinero, al mismo tiempo que la salud de todos nosotros se deteriora.

Por la doctora Mae-Wan Ho, 25 de enero de 2012

¿Dónde están los genes prometidos?

La secuencia del genoma humano se anunció en el año 2000, y el Presidente Clinton dijo que “revolucionaría el diagnóstico, la prevención y el tratamiento de la mayoría, si no todas, de las enfermedades humanas”. Diez años después, la revista Fortune habla de “La gran caída del ADN”. Una encuesta realizada por la revista científica Nature incide en el mismo veredicto: “La esperanza en una revolución contra las enfermedades humanas aún no ha llegado”. 

Es decir, como algunos de nosotros ya habíamos predicho en el año 2000 en los artículos ([1] Human Genome -The Biggest Sellout in Human History, Informe ISIS TWN ) y posteriormente [2] Genetic Engineering Dream or Nightmare, publicación de ISIS).

El Proyecto Genoma Humano ha generado cantidades ingentes de datos desde su creación, pero se ha avanzado muy poco, incluso en áreas aparentemente simples de encontrar los genes responsables de susceptibilidad a enfermedades comunes ((véase [3] Ten years of the Human Genome, SiS 48).

Los genetistas admiten ahora que la genética humana ha estado persiguiendo hasta ahora el misterio de la “heredabilidad faltante” de rasgos comunes. Los estudios de asociación por todo el genoma (véase recuadro 1) es el estándar oro actual en la búsqueda más exhaustiva que se ha podido realizar de genes – se han identificado aproximadamente 2000 variantes genéticas asociadas con 165 enfermedades comunes y rasgos, pero estas variantes sólo parecen explicar una pequeña fracción de la heredabilidad en la mayoría de los casos (4,5).

Estudios de asociación en todo el genoma

Los estudios de asociación del genoma completo (GWAS) consisten en escanear de forma rápida los marcadores del genoma completo de muchas personas para encontrar asociaciones de variantes genéticas de determinadas enfermedades o rasgos. Se ha analizado el genoma de miles o decenas de miles de personas de forma simultánea para un máximo de 550.000 polimorfismos de nucleótidos simples (SNPs) – diferencias comunes en los nucleótidos individuales en lugares específicos del genoma humano con una frecuencia >5% – usando microarrays de ADN (chips de ADN)).

La heredabilidad es técnicamente la proporción de variabilidad de un rasgo en una población debido a los genes. La variabilidad se mide estadísticamente por la varianza, la suma de las desviaciones de la media de la población. La heredabilidad se refiere comúnmente como un componente genético de la variación en comparación con la proporción debida al medio ambiente, lo que es el “componente ambiental”. Hay que tener en cuenta que la heredabilidad se refiere a la variación, y no a la propia característica. La heredabilidad cambia con el medio ambiente. No es raro que la heredabilidad de los caracteres, tales como la producción de leche o la altura de una planta, de una misma cepa genética cambien sustancialmente de un año para otro. Sin embargo, hay una tendencia por parte de algunos científicos, así como de algunos medios de comunicación populares, a asumir erróneamente que cualquier rasgo notable de heredabilidad está predeterminado genéticamente, lo cual definitivamente no es el caso.

¿No hay genes de las enfermedades más comunes?

Sin embargo, la búsqueda de los genes que determinan la susceptibilidad a las enfermedades más comunes se viene realizando desde hace décadas, impulsada en los últimos 5 años por la disponibilidad de los chips de ADN, que permiten la exploración del genoma en más de 50.000 nucleótidos simples de forma simultánea.

Eric Lander ha trabajado en el Board Institute MIT & Harvard, Harvard, Massachusetts, en los Estados Unidos, ha encontrado que la mayor parte de la heredabilidad faltante nunca existió (5). Basan su argumento en la genética biométrica, una disciplina matemática que se ocupa de los rasgos que varían continuamente, tales como la altura, la masa corporal, los índice de CI, o las enfermedades relacionadas con la glucosa en sangre, la presión arterial, u otro aspecto que mida la incidencia de una enfermedad.

Debo señalar que se ha llegado precisamente a la misma conclusión, dada la influencia siempre presente de la epigenética, la influencia del ambiente en el desarrollo (1,3), que ha sido ampliamente confirmado y ampliado desde que se secuenció el genoma humano (ver [6] Death of the Central Dogma y otros artículos de la misma temática, SiS 24; [7] Epigenetic Inheritance – What Genes Remember y otros artículos , SiS 41; [8] Nurturing Nature, publicación científica de ISIS)).

Esta convergencia de los analisis realizados desde la genética molecular y la biométrica es la más contundente refutación del paradigma reduccionistas del determinismo genético de la causalidad lineal de los genes a los rasgos, algo que había hecho del Proyecto Genoma Humano pareciera una empresa convincente, quedando un tanto desacreditado (ver [9] Living with the Fluid Genome, ISIS publication) (Véase también : http://iniciativaciudadanaii.blogspot.com/2010/04/nueva-vision-del-cuerpo-humano-el.html)

Ahora sabemos que gran parte de la variación puede estar relacionada de las relaciones de cada uno con el medio ambiente, y además esas experiencias pueden cambiar y marcar los genes, que influyen en el desarrollo de la persona y, en muchos casos, en la descendencia del individuo. Los genes y el medio operan en una compleja red de interacciones que se extiende a otras generaciones. Esta causalidad fundamental entre los genes y el medio ambiente significa que las contribuciones genéticas y ambientales son inseparables y cualquier intento de asignar efectos lineales a un solo gen está condenado al fracaso.

Vamos a ver como el determinismo genético es finalmente desentrañado en el seno de la genética, a partir de los hallazgos de Lander respecto a los rasgos de las enfermedades comunes y el continuo debate entre inteligencia y coeficiente intelectual ([10] No Genes for Intelligence in the Human Genome, SiS 53).

El componente genético ha sido sobreestimado

En concreto, Lander y sus colegas muestran que la heredabilidad faltante se debe a una sobreestimación de la heredabilidad total ( el componente genético de la variación del rasgo), que asume implícitamente que no hay interacciones de genes ( o genes interactuando con el medio ambiente), algo que se asume pero que parece injustificado. Si incluimos las interacciones de los genes, se obtiene una heredabilidad total mucho menor. En pocas palabras (5), “la heredabilidad faltante no necesariamente se corresponde directamente con las variantes que faltan, ya que las actuales estimaciones de heredabilidad total pueden estar significativamente infladas por las interacciones genéticas”. 

En realidad, las interacciones de los genes no pertenecen al “componente genético” de la heredabilidad. En la genética biométrica, “la heredabilidad en sentido amplio “ H2 incluye los efectos genéticos aditivos, así como los efectos debidos a las interacciones de los genes y cualquier efecto no aditivo, los efectos no lineales debido a los genes. La heredabilidad en sentido amplio es muy difícil de determinar. En la práctica, sólo la “heredabilidad en sentido estricto” h2 (efectos aditivos, efectos lineales debido a los genes) puede ser medida. La heredabilidad en sentido estricto se aplica a los rasgos poligénicos de muchos genes, cada uno con un efecto aditivo pequeño, y se asume implícitamente que se aplican a todos los caracteres poligénicos, desde los inicios de la genétrica biométrica (ver más adelante).

Por lo tanto, los genetistas definen el porcentaje de heredabilidad de un rasgo, rexplained, como una proporción de la variación fenotípica explicada por los efectos aditivos de las variantes genéticas conocidas, h2known, a la variación fenotípica que puede atribuirse a los efectos aditivos de todas las variantes, incluidas las aún no descubiertas, h2all (Ecuación 1).
rexplained = h2known/ h2all       

El denominador h2known puede calcularse directamente a partir de los efectos medidos de las variantes, pero el denominador h2all debe inferirse directamente de los datos de población.

La opinión predominante entre los genetistas es que la heredabilidad faltante se debe a variantes adicionales aún por descubrir, ya sea con alelos comunes de moderado o muy pequeño efecto o alelos ratos (frecuencia de <1%) con un gran efecto (4,5).
La otra posibilidad, tenida en cuenta por el equipo de Lander, es que la heredabilidad falante en realidad no existe, siendo algo que surge de la heredabilidad total, h2all, que se ha sobrestimado, ignorando las interacciones entre los genes.

Por ejemplo, en la enfermedad de Crohn (enfermedad inflamatoria del intestino) hasta el momento se han identificado 71 locus asociaciados a los riesgos identificados. Bajo el supuesto habitual de los efectos aditivos, estos locus explican un 21,5% del total estimado de heredabilidad. Las interacciones genéticas podríain explicar casi el 80% restante que falta. ¿Por qué nunca la interacción genética se ha detectado en los análisis de población? Lander y sus colegas señalan que para detectar las interacciones del gen de la enfermedad de Crohn de requieren muestran del orden de 500.000 personas, que rara vez se alcanzan.

Pero la interacción de genes, o epitasis, es algo bien conocido. Se resume en los resultados del Proyecto ENCODE (Enciclopedia de los Elementos del ADN), organizado por el National Human Genome Research Institute de los Estados Unidos, que es un consorcio de 35 grupos de investigación, que ha realizado un examen minucioso del 1% del genoma humano para descubrir cómo funcionan los genes (11). Descubrieron que (12) “Los genes parecen operar dentro de una red compleja e interactúan y se superponen entre sí y con otros componentes, de modo que resulta de difícil comprensión”. Esencialmente el gen como una unidad bien definida, como una unidad separada de una estructura o función ya no se aplica. En cambio, los genes existen como fragmentos esparcidos a lo largo del genoma, y están estructuralmente y funcionalmente interrelacionados con otros genes.

¿Cómo surge la heredabilidad fantasma? 

Lander y sus colegas señalan (5) que en el cálculo de la heredabilidad se explica (Ecuación 1), el numerador h2known se calcula sobre la base de los efectos de las variante sgenéticas individuales. El problema viene de la estimación del denominador h2all. Debido a que no todas las variantes son concodias, su contribución debe ser inferida a partir de las correlaciones fenotípicas en la población. Esto da una heredabilidad aparente h2pop. Y la heredabilidad faltante se estima entonces, suponiendo que h2all = h2pop.

Sin embargo, no hay garantía de que todos los h2all = h2pop, a menos que el carácter sea estrictamente aditivo, y no existe ni la interacción gen-gen, ni interacción entre genes y medio ambiente. Para las características de la interacción de genes, que se aplicaría de una manera realista a prácticamente todos los rasgos comunes y enfermedades h2pop es significativamente superior a h2all. En este caso, aun cuando todas las variantes del rasgo han sido identificadas, la heredabilidad faltante rmissing no adquiere un valor de 0, sino que converge hacia 1 – (h2all/ h2pop), lo que Launder y sus colegas denominan heredabilidad fantasma, rphantom.

Para mostrar cómo la interacciones genéticas crean la heredabilidad fantasma, Lander y sus colegas introdujeron un modelo simple en el que un rasgo depende de la entrada de más de un proceso, la heredabilidad fantasma – lo que sigue faltando, incluso cuando todas las variantes genéticas han sido identificadas. En la enfermedad de Crohn, por ejemplo, sólo con 3 entradas sons suficientes para explicar el 80% de la heredabilidad fantasma.

Del mismo modo, las interacciones entre los genes y el ambiente pueden producir la heredabilidad fantasma adicional (como de hecho desconoce el paradero de otras fuentes tales como los efectos epigenéticos).

Estudios muy defectuosos en gemelos

El marco típico para el análisis de los rasgos humanos insiste en negar de forma sistemática la epistasis, suponiendo que los genes actúan de una manera puramente aditiva, de modo que cada gen contribuye a una pequeña cantidad de una determinada característica, que se resume en función del número de genes que estén presentes.
Una medida de la heredabilidad aparente h2pop (ACE) asume la varianza genética aditiva, así como los componentes comunes del medio ambiente y entornos únicos de varianza, siendo la definición corriente de heredabilidad aparente: h2pop (ACE) = 2(rMZrDZ), where rMZ and  rDZ, son las características fenotípicas (los rasgos medidos) la correlación entre los gemelos monocigóticos (compartiendo el 100% de sus genes) y dicigóticos (compratiendo el 50% de sus genes), mientras que el medio ambiente que comparten su supone que es común, incluyendo el ambiente materno.

Para ser realistas,
h2pop (ACE) = h2all + W                                                              (2­)

donde W representa la suma de las variaciones debidas a todas las adiciones posibles y no las interacciones aditivas entre los genes. El punto crucial es que si hay alguna interacción de genes, entonces W>0, por lo que h2pop (ACE) sobreestima h2all.

Por desgracia, no ha habido manera de estimar W a partir de los datos de la población. En la mayoría de los estudios en humamos, la solución consiste en asumir que no hay interacciones entre los genes, en cuyo caso W=0. Por lo tanto, los estudios realizados en gemelos sobreestiman de modo sistemático la contribución genética a las enfermedades y otros rasgos, sobre, la polémica en torno al cociente intelectual (véase 10).

Asunción aditiva fundamental para la genética biométrica

Lander y sus colegas no son los primeros en exponer los supuestos defectos de la genética biométrica clásica. Helen Wallace, de GeneWatch, Reino Unido, ya publicó una crítica similar hace 5 años (13): las interacciones gen-gen y del gen con el medio ambiente podrían reducir la heredabilidad calculada muy por debajo de los métodos de estudio estándar, basándose en los cálculos del genetista británico Ronald Fisher, que en 1918 supuso que los genes actuaban de forma aditiva.

Implicaciones

La implicación principal es que la búsquedas de genes de susceptibilidad es prácticamente inútil. De hecho, Lander y sus colegas (5) y otros (4) dicen que el objetivo principal de la genética médica es la identificación de las vías y los procesos subyacentes análogos a la caza de mutantes en organismos modelo, y no en “explicar la heredabilidad” o en “la paciente predicción personalizada de riesgos”.

Sin embargo, existen implicaciones más amplias en las políticas de salud. Los Gobiernos y las Empresas han tenido mucho interés en establecer bancos biológicos (biobancos) del genoma desde que se secuenció el genoma humano (véase [14] Human DNA ‘BioBank’ Worthless and other articles in the series, SiS 13/14). El Gobierno del Reino Unido está presionando para que las empresas puedan acceder a los registros de salud pública para impulsar el descubrimiento de las enfermedades genómicas (15). Sin embargo, si la contribución genética a la enfermedad es en gran parte un fantasma, ¿cuál es el punto de integración de las secuencias del genoma completo de la historia clínica electrónica, ya que la mayoría de esta información es probable que sea clínicamente inútil para la mayoría de las personas? (14,16)

Hay intereses creados que quieren mantener vivo el mito de la genética. Como señala Wallace, la evidencia que presentó en el año 2006, y que Lander y sus colegas presentaron en 2011, no ha tenido ningún impacto en las empresas que realizan pruebas genéticas, como Illumina y 23andMe, que siguen afirmando que todo el mundo tendrá su genoma secuenciado en el futuro, desde su nacimiento o como una cuestión rutinaria de atención sanitaria. El Director de los Institutos Nacionales de Salud, Francis Collins, se ha hecho eco de estas afirmaciones en su libro “El lenguaje populista de la vida” (17). Wallace está convencido, al igual que yo, que (16) “la secuenciación del genoma completa de todas las personas lo que lleva en cuanto a predicción y prevención de la enfermedad es una fantasía de la ciencia y enorme desperdicio de dinero”. 

Una fracción de los recursos de los que se ha visto privada la atención primaria y que tanto se necesita, es la prevención de enfermedades a través de intervenciones ambientales/sociales, como la nutrición, y esto haría que mejorase mucho la salud (así como la capacidad del cerebro) de todas las personas.


Para acceder a las referencias es necesario estar registrado en el sitio de ISIS



martes, 24 de enero de 2012

El verdadero coste de la energía nuclear en Francia

No sólo la energía nuclear francesa no es tan segura como se ha dicho repetidas veces, también está lejos de ser rentable, dice Susie Greaves

Por Susie Greaves, 23 de enero de 2011


 El programa nuclear francés ha sido considerado por los sucesivos Gobiernos franceses como un logro enorme, proveyendo al país de un suministro abundante de energía, asegurando la independencia con respecto al petróleo y evitando excesivas emisiones de dióxido de carbono. En el anterior artículo, traté de demostrar que la energía nuclear francesa no es tan segura como dicen sus defensores y como tratamos de hacer creer al resto (1) (French Nuclear Power Not Safe, SiS 53). Surge la duda de si es barata, como aseguró el Ministro de Asuntos Exteriores francés Bernard Kouchner en 2008: una fuente limpia y barata de energía (2).

¿Es rentable la energía producida por las centrales nucleares? Para contestar a esta pregunta tenemos que entender primero la ventaja competitiva de esta Industria frente a otras formas de producción de energía, comparándola con la Industria Nuclear de otros países [3] (The Nuclear Black Hole, SiS 40 and  [4] The Real Cost of Nuclear Power, SiS 47).

Los datos

La Industria Nuclear francesa ha obtenido un gran beneficio económico de la instrucción específica del Gobierno para que trabajase conjuntamente con el programa de armas nucleares. El informe de 1973 del CEA (Comisariado de la Energía Atómica) lo explica (5): “El CEA debe, dentro del marco de un presupuesto rígido y estrictamente limitado a sus posibilidades de expansión, adaptarse a la producción de material nuclear militar de acuerdo con las necesidades, aprovechando los progresos técnicos y los programas civiles ( que se han beneficiado de los programas militares) a fin de limitar los gastos”. 

En segundo lugar, Francia ha evitado los procesos democráticos y las consultas públicas en sus decisiones, que han sido tomadas por una elite que se mueve entre la Industria y los órganos reguladores, informando a los Ministros responsables del área de energía de las necesidades de esta Industria, más bien que de las necesidades de desarrollo. Por ejemplo, la decisión de construir el EPR (Reactor Presurizado Europeo) en Flamanville se tomó en el año 2006, sin debate Parlamentario. Greenpeace se refirió a los parlamentarios franceses como “elegidos para nada” (5).

En tercer lugar, los proyectos de energía nuclear en Francia reciben préstamos estatales a muy bajo interés, y sin ellos no se construirían nuevas centrales nucleares. El Banco Mundial ya no financia proyectos nucleares desde hace varias décadas, y el Banco de Desarrollo Asiático ( muchos de los proyectos de nuevas centrales nucleares en Asia) nunca lo ha hecho. En Estados Unidos no ha habido ningún proyecto nuclear desde los años 1970. La Administración Obama ha apoyado de forma incondicional a esta Industria, pero después de un debate infructuoso sobre el tipo de reactor que se debía construir, y sobre quiénes debían recaer los costes, nada se ha decidido. Como Amory Lovins, un experto en energía del Instituto Rocky Montain expuso (6): “Las únicos en el mundo que compran centrales nucleares son los planificadores centrales, ya sean Gobiernos como el de China o Japón, o la TVA (Autoridad de Tennessee Valley ), siendo un servicio público que no rinde “.

Finalmente, la falta de competencia ( EDF fue de propiedad estatal hasta 2005) permitió que Francia desarrollase una gran cantidad de centrales nucleares con un enorme potencial de generación de energía. Aún así se tienen dudas sobre el verdadero coste y la eficacia de la Industria Nuclear francesa.

¿Quién necesita tanta electricidad? 

Después de la crisis del petróleo de 1973, Francia pretendió independizarse de las naciones productoras de petróleo, y se construyeron una gran cantidad de nuevas centrales nucleares. El plan Messmer (7) de los años 1970 propuso la construcción de 60 nuevos reactores en un plazo de 10 años, asumiendo un aumento de la demanda de 170 millones de Kwh en 1974 a 1000 millones de Kwh en el año 2000. Tal y como se comprobó después, solamente se necesitaron 470 millones de de Kwh. Parecía haberse aceptado en el mundo industrializado que el consumo de energía se doblaría cada 10 años, pero la relación entre desarrollo económico y consumo de energía había cambiado. En lugar de adaptarse a la nueva situación, se animó tanto en Francia como en otras partes de Europa al consumo de electricidad, para asumir la sobrecapacidad de producción. Schneider dijo (5): “Fue un golpe de gracia para cualquier iniciativa inteligente de producir energía basada en la eficacia y la conservación”. 

La Industria Nuclear francesa concibió dos maneras de deshacerse del exceso: persuadir a los franceses de que usasen más electricidad en sus casas y exportar energía a otros países. Estas dos políticas eran la respuesta a un sistema fundamentalmente defectuoso y un examen más detallado revela su verdadero coste.

Durante varias décadas, la presión del Gobierno francés hizo que el 70% de las nuevas viviendas usasen electricidad para la calefacción y el agua caliente. Fueron buenas noticias para la industria de la construcción, ya que los sistemas que se usan para este tipo de instalaciones son menos caros que otros, pero esto trajo para el consumidor unos altos consumos de electricidad. Esta política fue descrita en 2008 por el Subsecretario de Estado de Ecología Nathalie Kosciusko-Morizet como un error (8) y una aberración desde el punto de vista termodinámico. Las tres cuartas partes de la electricidad de transforma de nuevo en calor que se pierde, al mismo tiempo que se pierde en el transporte antes de que la electricidad se transforme de nuevo en calor en las viviendas. (La transformación de una fuente de energía primaria en electricidad tiene poco sentido económico, sobre todo si se puede usar aquella fuente de energía (P. ej., gas o petróleo) directamente para calentarse o cocinar. En este sentido es interesante ver la excelente película de Greenpeace titulada “What are we waiting for?”[9], que explica por qué el Reino Unido debiera seguir el ejemplo de Dinamarca y construir pequeñas centrales combinadas de energía para dar servicio a una ciudad o lugar. En el Reino Unido, las centrales térmicas, que son las que proveen de la mayor parte de la energía, apenas han cambiado en 50 años y pierden dos tercios de la energía producida en calor residual que se desperdicia en ríos o en el aire. Las nuevas centrales CHP (Combined Heat and Power/ Centrales térmicas de ciclo combinado) son un 95% más eficientes. Greenpeace sostiene que podríamos solucionar muchos problemas de energía con estas tecnologías). La ironía está en que, habiendo persuadido a un cuarto de los franceses de que calentasen sus casas con electricidad, la parte de cada Kwh consumido sólo corresponde en un 10% a la obtenida por la energía nuclear (5). El resto procede en gran parte de los combustibles fósiles. ¡Tanto hablar de la disminución de las emisiones de carbono a la atmósfera con el uso de la energía nuclear! Schneider resume la situación con una claridad devastadora (5): “La constante invitación al consumo de electricidad en forma de calor (calefacción, agua caliente, para cocinar) ha producido que las viviendas francesas tengan el consumo más alto de Europa desde 1976. Hoy, el consumo per cápita de electricidad en Francia es aproximadamente un 25% más alto que en Italia (que se deshizo progresivamente de la energía nuclear después del accidente de Chernobyl en 1986) y un 15% más alto que el promedio de la Europa de los 27”. 

La exportación de energía ha sido igualmente desastrosa económicamente. Francia exporta cuando la demanda, y por lo tanto los precios, son bajos, mientras que la reduce en las horas punta, cuando los precios son más altos. En los años 1980, Francewas ganaba más de las exportaciones de lo que pagaba por la importaciones, pero esta tendencia ha cambiado. En 2007, la capacidad diaria de exportación era de 14 Gigawatios hora, mientras que las importaciones fueron de 12 Gigawatios hora. Según un informe de 2002, los ingresos oficiales de las exportaciones entre 1995 y 2001 no cubrieron los gastos de generación. Las pérdidas anuales variaron entre 800 millones de euros y un máximo de 6000 millones de euros (10). La situación durante los períodos de máxima demanda se hizo extrema en 2006, viéndose Francia en la situación extrema de tener la necesidad de rehabilitar viejas centrales eléctricas de fuel-oil para generar electricidad durante los períodos de máximo consumo (5).

Los franceses desean tanto el petróleo como el que más

La jactancia francesa sobre su independencia con respecto al petróleo se cae por su propio peso si observamos los siguientes datos. En 2007, después de 3 décadas de empleo de la energía nuclear, el 73% de la energía producida en Francia procede de los combustibles fósiles, de los cuáles el 48% lo representa el petróleo, proporcionando solamente la energía nuclear un 16%. Las razones: el transporte, y en particular el uso del automóvil. Schneider dijo (5): “Es una clara lección histórica. Si la independencia de las importaciones de petróleo hubiese sido la razón que impulsó la política energía de Francia, ésta se habría concentrado en el sector del transporte desde hace tiempo.”

La escasez de combustible afecta a Francia

Miremos más estrechamente lo que supone el enorme consumo eléctrico para el consumidor francés. Si utilizamos los Estándares de Poder adquisitivo (antes que usar una comparación directa de costos) pone a Francia en el tercer lugar de la Unión Europea en cuanto a electricidad más barata (0,1211 por Kwh (céntimos de euro)) (2). Pero un precio más bajo de la electricidad no se traduce necesariamente en unas facturas más baratas. La cuarta parte de los hogares franceses que utilizan la electricidad para calentar sus casas, el agua o para cocinar, no están de acuerdo en que sus facturas sean bajas.

Como siempre, son las familias más modestas los que más sufren las consecuencias, pagando una mayor proporción de sus ingresos para el gasto energético. Según ADEME (Agencia para el Desarrollo y control de la energía) tres millones de viviendas pasan frío en invierno y se considera que es por la falta de combustible (11). La mayor parte de estas viviendas reciben ayuda del Gobierno en forma de facturas más reducidas, pero cada año aumenta el número de peticiones aumenta en un 15%. El gasto público para ayudar a tales proyectos supone de unos 150 a 200 millones de euros al año (12). Otros países de Europa tienen niveles similares par acceder al consumo de combustible, pero dado que los sucesivos Gobiernos de Francia han estimulado el malgasto de combustible, a fin de apoyar a la energía nuclear, esta situación es escandalosa.

Algunos hechos

Conocer las cifras que el Gobierno francés ha gastado para producir energía nuclear durante las últimas décadas es muy difícil. Pero hay algunas pistas. Las tres cuartas partes de los fondos de la investigación pública entre 1985 y 2001 fueron para la Industria Nuclear. La situación ha mejorado recientemente, de modo que si en 1997 la investigación en ahorro y eficacia energética, así como en las energías renovables, sólo suponía un 1% de los fondos de investigación, en 2008 ya se destinaba el 7% en ahorro y eficacia y un 5% en las energías renovables (2).

Para algunas cifras más concretas, podríamos examinar tres proyectos nucleares: a partir de 1980, el malogrado Proyecto Super Phénix, y los dos proyectos insignia de la Industria Nuclear francesa que están actualmente en construcción, uno en Finlandia y otro en la propia Francia.

El reactor rápido Super Phénix se construyó en 1986 en Creys Malville y sólo estuvo funcionando durante 174 días (13). Se cerró en 1998 debido a la fuerte oposición pública ( y la muerte de un manifestante) y con dudas sobre su viabilidad, incluso en el seno de la EDF. En 1986, en el Tribunal de Auditores, Jacques Chauvin, presidente de NERSA, el consorcio que poseía la planta (EDF tenía un 51%) declaró que el total de inversión y costes operativos, teniendo en cuenta todos los futuros gastos, Super Phénix habría costado a los franceses 65 billones de francos (11,7 mil millones de euros) (14).

El Proyecto de Olkilouto-3 en Finlandia supone la construcción de un EPR por una empresa franco-alemana conocida como AREVA NP. La parte alemana está en posesión de la empresa Siemens, que anunció que se salían de todos los futuros proyectos nucleares por motivos económicos (15). La financiación viene en parte del Landesbank bávaro, donde se localiza la oficina central de Siemens. Han prestado 1,95 mil millones de euros, que es el 60% de la inversión, con una tasa preferencial de interés del 2%. La Agencia de crédito de exportación pública de Francia, COFACE, ha prestado 570 millones de euros (16). La construcción comenzó en 2005 y el proyecto ha tenido problemas desde entonces. Las autoridades finlandesas han acusado a AREVA de realizar una inadecuada planificación, de emplear a contratistas que carecen de la necesaria experiencia en el campo nuclear, y de cambios en el personal, lo que lleva a confusión y a una falta de responsabilidad total (17). El inspector de seguridad finlandés ha detenido la construcción entre 10 y 15 veces, localizando 300 errores (18). El proyecto lleva un retraso de 5 años y se han destinado al menos 3 mil millones de euros como presupuesto.

La construcción del EPR en Flamanville se detuvo por primera vez (en 2007) cuando los inspectores del ASN detectaron que las especificaciones técnicas y los procedimientos no habían sido respetados, incluso en la mezcla de hormigón (19). Como en Olkilouto-3, se han producido muchas manifestaciones de preocupación en cuanto a la seguridad y en 2011, el presidente del ASN (Autoridad de Seguridad Nuclear), Andre-Claude Lacoste dijo: “No se excluyen dudas en cuanto a la construcción del reactor nuclear de Flamanville y el ASN también las expresa sobre la construcción de un segundo reactor EPR en Penly. Se espera que Flamanville produzca electricidad en 2016, cuatro años después de lo planeado y con un presupuesto de 2,7 mil millones de euros (20). 

 Desmantelamiento: una sangría de recursos durante siglos

La Industria Nuclear francesa no muestra diferencia con el resto de la Industria Nuclear del mundo en su enfoque de esconder la cabeza como el avestruz en cuanto a los problemas de desmantelamiento de las centrales nucleares. Pero en 2006, se tuvo que dar una explicación ante una comisión formada por representantes del Gobierno y expertos independientes. Los gastos de desmantelamiento se estimaron en unos 65 mil millones de euros para los tres principales operadores franceses. Sin embargo, aún siendo estas cifras colosales, han sido calculadas de una forma que genera incertidumbre, siendo necesaria una estimación más acertada.

Por ejemplo, mientras la Industria cree que todos los residuos de larga y media duración deberían ser reprocesados, mantienen que la es la opción más barata es la del almacenamiento subterráneo, punto de vista que se contradice con otros estudios nacionales e internacionales. La estimaciones para la gestión del combustible gastado (sólo una parte del proceso de desmantelamiento) varían en un factor de 4, entre los 13,5 mil millones y los 58 mil millones de euros. Un segundo problema ilustra claramente lo que ocurre cuando la industria que ha prosperado en base al secretismo y la propaganda finalmente necesita de fondos públicos. La búsqueda de lugares en los que almacenar los residuos nucleares se viene haciendo desde hace 30 años y en la década de 1990 el Gobierno aún tenía esperanzas de encontrar lugares que se ofreciesen de forma voluntaria. Pero se encontraron con una fuerte oposición por todas partes y en la legislación de 2006 se constató que esta búsqueda había sido infructuosa. Se seleccionó un sitio al este de Francia, Bure, pero a pesar de los 9 millones de euros investidos en escuelas y carreteras para endulzar la píldora, hay un fuerte movimiento de oposición que exige una moratoria sobre el almacenamiento subterráneo de los residuos nucleares (21).

Seguridad contra un accidente

Antes de 2004, EDF tenía el límite de responsabilidad más bajo de Europa para gastos en caso de accidente nuclear. Se sospechó que la Industria nuclear francesa subestimaba los verdaderos costes. En 2004, se aprobaron enmiendas en la Convención de Bruselas y París, y la prima por responsabilidad para los operadores se elevó de 5 a 700 millones de euros, con el Estado contribuyendo con 500 millones de euros y las partes contratantes ofrecieron 300 millones adicionales (22). Pero esta cifra, 1,5 mil millones de euros en total, es totalmente inadecuada (23): “El coste económico directo de la catástrofe de Bielorrusia, Ucrania y Rusia, hace más de 20 años, superó los 500 mil millones de dólares, que en términos de coste en la Unión Europea supondrían unos 2000 millones de euros, tanto o más que el coste de la infraestructura nuclear mundial”. 

Una visión más amplia

La Industria Nuclear francesa parece proporcionar la electricidad más barata, pero eso sólo si lo observamos bajo un prima muy estrecho, es decir el precio por Kwh que paga el consumidor. Hemos visto que esto no se traduce en facturas de la luz más baratas para el consumidor. Sin embargo, las verdaderas implicaciones del coste están en otra parte. La Industria nuclear se desarrolló sin un control democrático. Habiendo estado bajo el escrutinio público, muchas cosas habrían salido a la luz a su tiempo y no medio siglo más tarde. La sobrecapacidad de la Industria nuclear francesa (24) llevó a soluciones ad hoc que no tienen ningún sentido económico. Las centrales nucleares tienen que funcionar a plena potencia para ser rentables – Francia es el único país del mundo que cierra reactores los fines de semana. La exportación de electricidad nunca debiera de haber formado parte del plan original. La utilización de electricidad para la calefacción y el agua caliente es un absurdo en términos energéticos y es reconocido ahora por los propios Ministros del Gobierno. La cuestión del desmantelamiento es un importante problema ambiental, cuyos gastos tendrán que ser planeados con un presupuesto a lo largo de siglos, aunque cerrasen todas las centrales nucleares mañana mismo. Y finalmente, de suceder un accidente, los gastos quedarían empequeñecidos con todo lo mencionado hasta ahora, como ha ocurrido con las áreas contaminadas por la central nuclear de Chernobyl.

Los Gobiernos que planean construir nuevos reactores señalan a Francia como un ejemplo tanto de seguridad como de rentabilidad. Cuando lo observamos más estrechamente, el cuadro es totalmente diferente. No hay nada de la experiencia francesa que nos anime a confiar en la energía nuclear.

La autora vive en Francia y es miembro de Independent WHO, Sortir du Nucleaire y CRIIRAD. Ha traducido el libro de Wladimir Tchertkoff “El delito de Chernobyl; el gulag nuclear”, publicado por Actes Sud en 2006. 

http://www.i-sis.org.uk/The_True_Costs_of_French_Nuclear_Power.php

domingo, 22 de enero de 2012

Nuestro veneno cotidiano

Un documental de Marie-Monique Robin.

Este documental fue presentado oficialmente a la prensa el pasado 17 de enero de 2011 en París, y luego exhibido en la Cadena Arte el 15 de marzo de 2011 simultáneamente en Francia, Alemania y Bélgica.

Marie-Monique Robin es autora también de “El mundo según Monsanto”

sábado, 21 de enero de 2012

La Ciencia al servicio del poder: la Industria nuclear después de Chernobyl y Fukushima (I)

Por Gayle Greene, 20 de enero de 2012

Asia Pacific Journal


Una de las maravillas que no deja de sorprendernos es la capacidad de la Industria Nuclear para renacer de sus ruinas a finales del siglo pasado, después de derrumbarse bajo su ineficiencia, sus costes y los grandes accidentes. El de Chernobyl liberó varios cientos de veces la radiactividad de las bombas lanzadas en Hiroshima y Nagasaki juntas, contaminando más del 40% de Europa y de todo el hemisferio norte (1). Pero llegó el lobby nuclear para dar nueva vida a esta Industria, limpiando la cara de esta fuente de energía que ha contaminado medio planeta. La “nueva mirada hacia lo nuclear” – en palabras aparecidas en un artículo de The New Tork Times el 13 de mayo de 2006 (2)-, allanó el camino hacia un renacimiento nuclear, que tampoco el accidente de Fukushima ha acabado con él.

 
Los medios de comunicación son poderosos defensores de la energía nuclear, lo cual no es ninguna sorpresa. “Los medios llevan a cabo una campaña especializada de promoción, intensiva y eficaz por parte de la Industria Nuclear, desinformando…y extendiendo creencias incluso entre gente por otra parte bastante sensata”, así lo afirma el Informe Mundial de la Energía Nuclear del Worldwatch Institute (3). Lo que es menos conocido es la naturaleza de las pruebas que presenta la Industria Nuclear, una Guerra Fría de la Ciencia, sobre el riesgo de recibir radiación a dosis bajas, lo que está siendo utilizado para mantener en silencio lo que está ocurriendo en Fukushima y levantando un muro sobre las pruebas que justifican el poner fin a esta Industria.

A continuación algunas de las joyas aparecidas en algunos medios de comunicación:
  • Las cantidades ínfimas de radiación producida por la nube radiactiva que se extiende por Estados no supone ningún peligro para la salud, según aseguraba el Departamento de Energía ( William Broad, “La radiación en Estados Unidos es inofensiva, según las autoridades”, New York Times, 22 de marzo de 2011).

  • El riesgo de padecer cáncer es muy bajo, inferior a lo que la gente piensa”, explica Evan Douple, director de la Fundación de Investigación de los Efectos de la Radiación (RERF), que ha estudiado a los sobrevivientes de la bomba atómica y consideró que “a dosis muy bajas, el riesgo es muy bajo” (Denise Grady, “La radiación está en todas partes, pero ¿cómo evaluar el daño?” New York Times, 5 de abril de 2011).

  • En un programa de la NPR (National Public Radio) emitido pocos días después del accidente de Fukushima Daiichi, se citaba al mismo Evan Douple, diciendo que los niveles de radiación alrededor de la planta “ eran tranquilizadores. A estos niveles no creo que ningún estudio fuese capaz de encontrar efectos sobre la salud, incluso en el futuro”. (Primeros datos sobre radiación y temores sobre efectos en la salud”, Richard Knox y Andrew Prince, 18 de marzo de 2011). El programa de la NPR, como decía Grady, subrayaba que la Fundación de Investigación de los Efectos de la Radiación (RERF) tiene seis décadas de experiencia, por lo que algo sabrá sobre el tema.

  • El periodista británico George Monbiot, un ecologista que se volvió defensor de la Energía Nuclear, se refiere a los datos de la RERF como de “consenso científico”, citando de nuevo que las bajas dosis de radiación tienen un bajo riesgo de producir cáncer. (4)

    Todo el mundo sabe que la radiación a altas dosis es perjudicial, pero los estudios realizados sobre Hiroshima nos deben tranquilizar, ya que el riesgo disminuye a medida que disminuye la dosis, hasta volverse insignificante. Esta es una creencia que necesita extender la Industria Nuclear, porque los reactores nucleares liberan radiación no sólo cuando se produce un accidente, sino que es la rutina diaria durante las operaciones y el tratamiento de los residuos nucleares. Si las bajas dosis de radiación no son despreciables, los trabajadores de la esta Industria no están exentos de riesgo, al igual que las personas que viven en las cercanías de los reactores nucleares – y la vida misma de este planeta. Los residuos producidos por los reactores no se diluye y dispersa, no desaparece, como los defensores de la Industria Nuclear nos quieren hacer creer, sino que son arrastrados por el viento, por las mareas, se filtra en el subsuelo y contamina las aguas subterráneas, se abre paso en la cadena alimentaria y llega hasta nosotros, sumándose a los múltiples factores que producen cáncer y defectos de nacimiento. Su legado es más duradero en el tiempo que cualquier civilización que haya existido, por ejemplo el plutonio, que con una vida media de 24.000 años nos viene a decir que es para siempre.
¿Qué es lo que investiga esta Fundación sobre los efectos de la radiación y qué es lo que tiene que decir la Ciencia sobre “estas afirmaciones tranquilizadoras”?
***
La Atomic Bomb Casualty Commission (ABCC), como fue denominada en un principio, comenzó sus estudios de los sobrevivientes cinco años después del lanzamiento de las bombas atómicas (Su nombre fue cambiado por el de Fundación de Investigación de los Efectos de la Radiación (RERF) a mediados de los años 70…). Japón ha sido bombardeada dos veces con armas nucleares, primero como enemiga de los Aliados y en 2011 al sufrir un accidente nuclear con los reactores de General Electric enviados desde Estados Unidos, siendo por tanto la población más estudiada sobre los efectos de la radiación, ya que los bombardeos de Hiroshima y Nagasaki irradió a un número elevado de personas. “Pero los norteamericanos son maravillosos”, se dice que exclamó el experto en radiación Tsuzuki Maso, de Japón, que lamentó el tener únicamente conejos para seguir trabajando: “Habría hecho falta realizar los experimentos en humanos“ (5)

La ABCC estudió, pero no trató los efectos de la radiación, y muchos de los sobrevivientes no estuvieron dispuestos a identificarse, ya que estos no deseaban exponer sus problemas de salud a investigadores estadounidenses, expuestos a la estigma social y a numerosos trámites burocráticos. Pero a pesar de eso, muchos vinieron voluntariamente y se realizó un gran estudio, el estudio más amplio realizado sobre los efectos en la salud de la radiación nuclear. Ningún otro estudio médico ha podido disponer de tantos recursos, de equipos científicos y otros equipos de tecnología avanzada, financiados por la Comisión de la Energía Atómica (Consejo de Energía Nuclear). Ya que se trata del estudio epidemiológico más amplio, mayor será su fiabilidadad estadística, lo que propició que se considerasen estos datos como el patrón oro del riesgo de la radiación.

 

Examen de la ABCC de las víctimas de Hiroshima

Los médicos japoneses y los científicos que observaron las escenas contaron historias de horror de personas que pareciendo ilesos de repente comenzaban a sangrar por los oídos, la nariz y la garganta, se les caía el pelo a puñados, les aparecieron puntos azulados en la piel, se les contrajeron los músculos, dejando los miembros deformados. Cuando trataron de publicar sus observaciones, se les ordenó primero pasar estos informes a las autoridades estadounidenses. A los largo de los años de ocupación (1945-1952), las observaciones de los médicos japoneses fueron censuradas sobre los asuntos nucleares. A finales de 1945, los cirujanos del ejército estadounidense publicaron una declaración en la que se decía que todas las personas que se esperaba iban a morir por los efectos de la radiación producida por la bomba ya habían muerto y que ningún efecto adicional debido a la radiación se esperaba con posterioridad (6). Cuando la radio de Tokio anunció que hasta la gente que entró con posterioridad a las ciudades después de los bombardeos, moría por causas misteriosas y se desacreditaron armas tan ilegales e inhumanas, rechazando estas acusaciones los norteamericanos como propaganda japonesa (7).

La cuestión del envenenamiento por radiación era algo particularmente sensible, ya que implicaba la utilización de armas prohibidas, como los gases tóxicos. La Bomba Atómica no es un “arma inhumana”, declaró el general Leslie Groves que había dirigido el programa Manhattan (8). Los primeros científicos occidentales a los que se les permitió la entrada en las dos ciudades devastadas lo hicieron con escolta militar. El periodista australiano Wilfred Burchett, que logró entrar en Hiroshima, publicó un artículo en un periódico británico, describiendo que la gente moría “misteriosamente y de manera horrible por algo desconocido, que sólo podía describir como la plaga atómica… muriendo a razón de 100 personas diariamente”. El general MacArthur le ordenó abandonar Japón y la película que había rodado desapareció misteriosamente (9).

No hay radiactividad en las ruinas de Hiroshima” proclamaba u titular del New York Times el 13 de septiembre de 1945”.


Otro titular decía: “Una nueva revisión excluye peligros en Nagasaki”, o este otro: “La radiactividad después de la bomba atómica es sólo 1000 veces superior a la registrada en la esfera de un reloj luminoso”, el 7 de octubre de 1945 (10). Existen poderosos incentivos políticos para minimizar el riesgo de radiación. El fiscal del Ministerio de Asuntos Exteriores, William H. Taft, afirmó: “Se obtiene una impresión equivocada de que un bajo nivel de radiación es peligroso.. afectando al personal de Ministerio de Defensa que trabaja en armas nucleares y programas de propulsión nucleares… afectando a la industria nuclear civil… y podría levantar dudas en cuanto al uso de sustancias radiactivas en el diagnóstico y tratamiento médico” (11). Un folleto publicado por la Comisión de Energía Atómica en 1953 insistía en que “la exposición a bajos niveles de radiación puede recibirse indefinidamente en el tiempo sin que se detecte ningún cambio corporal detectable” (12). El Consejo de Europa de Energía Nuclear pagaba los sueldos de los científicos de la ABCC y los supervisaba “de forma estrecha y algunos consideraron que demasiado estrechamente”, según escribe Susan Lindee en Suffering Made Real (El sufrimiento se hace verdadero), que documenta las presiones políticas que sufrió la ciencia de la Energía Atómica (13). (Otras fuentes son: Roff’s Hotspots, de Sue Rabbit; The Atomic Bomb Suppressed, de Monica Braw; Hiroshima in America, de Robert Lifton y Greg Mitchell).

El New York Times se unió al Gobierno en la censura de la información sobre los efectos de la radiación en los sobrevivientes y minimizó u omitió este tema en sus artículos, como Beverly Ann Deepe Keever demuestra en The New York Times y la bomba (14). Keever, un veterano periodista, escribió que “desde el nacimiento de la época de la bomba atómica,… Times ayudó a extender las informaciones para que fuese aceptada la fuerza más destructiva jamás creada”, ayudando al “encubrimiento de esta guerra fría”, suavizando las informaciones y negando efectos sobre la salud y las consecuencias ambientales de la bomba atómica.

Los científicos de la Atomic Bomb Casualty Commission calcularon que hacia 1950, cuando la comisión comenzó sus investigaciones, el índice de mortalidad de todas las causas, excepto el cáncer, habían vuelto a la normalidad, y las muertes por cáncer eran demasiado pocas como para causar alarma (15)

http://www.japanfocus.org/-Gayle-Greene/3672