domingo, 28 de marzo de 2010

La Biología del Libre Albedrío (3)


Mae-Wan Ho
Bioelectrodynamics Laboratory,
Open University, Walton Hall,
Milton Keynes, MK7 6AA, U.K.
Journal of Consciousness Studies 3, 231-244, 1996.


III. El organismo está libre del determinismo mecanicista

El genetista y embriólogo C.H. Waddington (1975) fue el que introdujo por primera vez la idea de las dinámicas no lineales en Biología del Desarrollo en forma de “paisaje epigenético”, una metáfora de las dinámica de los procesos del desarrollo. Los caminos seguidos en el desarrollo de tejidos y células se canalizan en ciertos “valles” gracias a la “fuerza” que se ejercen sobre el “paisaje” por varios factores génicos, que definen una topografía fluida del paisaje (Las ideas de Waddington sobre la teoría evolutiva han sido repasadas recientemente por Ho, 1996b) Esta topografía fluida contiene múltiples posibles vías de desarrollo que pueden lograrse gracias a las “fluctuaciones” o a las condiciones ambientales, los genes o por la modificación de factores génicos. Esta metáfora ha sido expuesta de forma más explícita por el matemático Peter Saunders (1992), que muestra que la propiedades del paisaje epigenético “no son comunes solamente en el desarrollo de los organismos, sino válidos también para la mayoría de los sistemas dinámicos no lineales”.

El organismo policromático

Un tipo particular de no linealidad, que ha sido noticia recientemente, es el “caos determinista”: un comportamiento dinámico complejo que a nivel local es impredecible e irregular, que se ha utilizado para describir las funciones de muchos seres vivos, incluyendo el comportamiento colectivo de las colonias de hormigas (Goodwin, 1994). Los patrones irrepetibles de la actividad del cerebro convenció a Freeman (1995), declarando que la ciencia del cerebro en situaciones de crisis exhibe el mismo sistema típico del caos determinista. Otro ejemplo, son los latidos del corazón, que son mucho más irregulares en las personas sanas que en los pacientes cardíacos (Esto fue comprensivamente descrito por Goodwin (1995) en la Open University Third Level Course con un vídeo de acompañamiento). El fisiólogo Golderberg (1991) llegó a la conclusión de que los latidos del corazón sano tienen “ un tipo de variabilidad denominada caos” , y que la pérdida de esta “variabilidad compleja” está asociada con patologías y el envejecimiento. Del mismo modo, la actividad eléctrica del funcionamiento del cerebro, además de ser irrepetible, de un momento a otro, también contiene muchas frecuencias. Sin embargo, durante los ataques epilépticos, el espectro cerebral es mucho más pobre (Kandel, Schwartz y Jessell, 1991). Hay actualmente un debate en cuanto a si estas variabilidades complejas están asociados con el estado de salud, los estados funcionales constituyen un caos en sentido técnico, pero la pregunta no es contestada (Glass y Mackey, 1988).

Una diferente comprensión del espectro de la actividad compleja relacionado con el estado de salud sería en que es policromático (Ho, 1996c), acercándose al “blanco” en una situación ideal, en el que todos los modos de almacenamiento de energía están igualmente representados. Corresponde a la f (l)= regla constante de Popp (1986), que se ha generalizado a partir del espectro luminoso o “biofotones”, que son emitidos por todos los seres vivos. He propuesto que esta distribución policromática ideal de energía almacenada sea el estado ideal en el cual todos los sistemas abiertos son capaces de almacenar energía en un desarrollo natural (Ho, 1994b), Es tanto un estado de máximos y mínimos en su estado de entropía: máximo debido a que la energía se distribuye por igual en todos los modos de espacio-tiempo, por lo tanto, “blanco ideal”); mínimo, porque las distintas formas se acoplan y unen entre sí para dar un todo coherente, en otras palabras, un solo grado de libertad (Popp, 1986; Ho, 1993). En un sistema donde no hay resistencia para la movilización de la energía, todos los modos pueden intercomunicarse entre sí, y, por lo tanto, todas las frecuencias estarán representadas. En cambio, cuando el acoplamiento es imperfecto, o cuando los subsistemas, por ejemplo el corazón y el cerebro, no se comunican correctamente, echa mano de un modo único, llevando a un empobrecimiento de su espectro de actividad. Los sistemas vivos son necesariamente un conjunto polícromo, llenos de complejidad cromática y variada, que sin embargo produce un todo coherente y singular.

Los seres vivos son seres sensibles libres capaces de decidir su propio destino

Una característica distintiva de los seres vivos es su exquisita sensibilidad para detectar señales muy débiles. Por ejemplo, el ojo puede detectar los fotones individuales que alcanzan la retina, y la presencia de varias moléculas de feromonas en el aire es suficiente para que el insecto macho encuentre a su pareja adecuada. La extrema sensibilidad del organismo se aplica a todos los niveles y es la consecuencia directa de su autosuficiencia energética. Ninguna parte del sistema tiene que ser obligado o empujado a realizar acción alguna, ni está sometido a una regulación y control mecánico. La acción coordinada de todas las partes depende de la rápida intercomunicación de todo el sistema. El organismo es un sistema excitable de comunicación (Goodwin, 1994, 1995), o de células y tejidos excitables preparados para responde de forma específica y desproporcionada (no lineal) a la débiles señales, debido a la gran cantidad de energía almacenada, lo que le permite amplificar las débiles señales a nivel macroscópico. En virtud de esta autosuficiencia energética un organismo es un ser sensible, un sistema formado por partes sensibles comunicadas entre sí, para responder adecuadamente en su conjunto a cualquier contingencia.

El organismo está libre del determinismo mecánico, pero no por ella está sujeto a la indeterminación. Lejos de renunciar a su suerte, a la indeterminación de la dinámica no lineal de la teoría cuántica, el organismo maximiza sus oportunidades inherentes en la multiplicidad de recursos de que dispone. La indeterminación es fruto de la ignorancia de un observador externo, que no experimenta el ser mismo, que sí que tiene conocimiento de su estado, y que puede fácilmente adaptarse, responde y actuar de manera adecuada (Ho, 1993). En un sentido real, el organismo es libre de decidir su propia suerte, porque es un ser sensible que tiene en cada momento un conocimiento del estado de su medio, interno, así como del entorno, externo.

sábado, 27 de marzo de 2010

Biología del libre albedrío (2)


Mae-Wan Ho

Bioelectrodynamics Laboratory,

Open University, Walton Hall,

Milton Keynes, MK7 6AA, U.K.

Journal of Consciousness Studies 3, 231-244, 1996.



  1. El organismo se libera de las "leyes" de la física


“Leyes” va entre comillas para enfatizar que no hay que rendirse de una vez para siempre, especialmente en lo que se puede o no pensar. Son herramientas que nos ayudan a pensar y, sobre todo, que pueden ser superadas si fuera necesario.


Muchos físicos se han maravillado en la forma en que muchos organismos parecen ser capaces de desafiar la Segunda ley de la Termodinámica, que establece Lord Kelvin, co-inventor de la Segunda Ley de la Termodinámica, excluyendo a los organismos de su dominio:


El animal no actúa como un motor termodinámico... La conciencia enseña a cada individuo que están, en cierta medida, bajo la dirección de su voluntad. Por consiguiente, parece que los seres vivos tienen el poder de aplicar ciertas partículas que se desplazan dentro de sus cuerpos, fuerzas por las cuales los movimientos de estas partículas producen determinados efectos mecánicos.”.

-. Citado en Ehrenber, 1967, p103

Lo que impresiona a Lord Kelvin es ver cómo los organismos parecen tener disponible energía, a voluntad, siempre y cuando sea necesario, y además de una forma perfectamente coordinada. Otra característica igualmente desconcertante es que, contrariamente a la Segunda Ley de la Termodinámica, que dice que todos los sistemas debieran acabar en equilibrio y desorden, sin embargo los organismos se desarrollan y evolucionan hacia una organización cada vez mayor. Por supuesto, no hay ninguna contradicción, ya que la Segunda Ley de la Termodinámica se aplica a sistema aislados, mientras que los organismos son sistemas abiertos. Pero ¿cómo es posible que los organismos no alcancen el equilibrio termodinámico y conseguir cada vez una organización mayor?


Schrödinger escribe:


Es por evitar un rápido decaimiento en el estado inerte “de equilibrio” que los organismos se nos muestran tan enigmáticos... Los organismos se alimentan de una entropía negativa, o por decirlo de otra manera menos paradójica, el metabolismo esencial de los organismos vivos tiene éxito en la liberación de todas las entropías, lo cual no puede dejar de hacer mientras se mantenga vivo”.

-. Schrödinger, 1944, pp.70-71.


Shrödinger fue severamente criticado por Linus Pauling y otros, por usar el término “entropía negativa”, ya que este término no se corresponde con ninguna entidad termodinámica rigurosa. Sin embargo, la idea que transmite, de que los sistemas abiertos pueden “auto-organizarse” en un flujo de energía, se hizo más concreta con el descubrimiento de las “estructuras disipativas” (Prigogine, 1967) . Un ejemplo, son las “células de convección de Bénard”, que surgen desde abajo cuando se calienta agua en una cazuela. La diferencia entre las temperaturas críticas superior e inferior, se produce una transmisión de fase: el flujo global de agua comienza con suavidad, luego se eleva desde el fondo el agua caliente y el más denso, descendiendo el agua fría. En toda la cazuela surge finalmente un conjunto regular de células de flujo. Antes de alcanzar esta fase, todas las moléculas se mueven al azar unas con respecto a las otras. Sin embargo, cuando se produce un suministro crítico de energía, el sistema se auto-organiza en una dinámica global ordenada, en la que toda la miríada de moléculas se mueven en formación como si se tratase de una coreografía.


Una metáfora física aún más esclarecedora para comprender los sistemas vivos es el láser (Haken, 1977), en el que la energía se bombardea a una cavidad que contiene átomos capaces de emitir luz. A bajos niveles de bombardeo, los átomos emiten luz al azar como si se tratase de una luz ordinaria. Pero cuando el bombardeo alcanza un determinado umbral, todos los átomos oscilan juntos en la misma fase, enviando un haz de luz enorme, que es un millón de veces más grande que el emitido por los átomos de manera individual. Ambos ejemplos ilustran cómo la aportación de energía, o la energía de bombardeo y el orden dinámico que se alcanza, están estrechamente relacionados.

Estas y otras consideraciones son las que llevaron a Shrödinger a hablar de “entropía negativa”, que sería la “energía almacenada capaz de movilizarse en un sistema estructurado de espacio-tiempo”. (Ho, 1994b, 1995a). La clave para comprender la termodinámica de los seres vivos se centra no tanto en el flujo de energía, sino en el almacenamiento de ese flujo de energía. El flujo de energía no tiene mayores consecuencias, a menos que la energía pueda ser atrapada y almacenada en el sistema por donde circula para cumplir su función antes de disiparse. Un ciclo reproductivo de un ser vivo se cumple cuando el ciclo de circulación de la energía se cierra. El ciclo de la vida, en el que la energía está en movimiento, almacena tanta energía como moviliza.


El ciclo de vida es una estructura espacio-temporal altamente diferenciada; los principales modos de actividad son ciclos que atraviesan una amplia gama de espacio-tiempos locales, todos ellos acoplados entre sí. Estos ciclos nos resultan más familiares en la forma de ritmos biológicos, que abarcan más de 20 órdenes de magnitudes de tiempo, de la actividad eléctrica de las neuronas y otras células en ritmos circadianos anuales o más amplios. Este complejo de estructuras espacio-temporales recuerda mucha a la “duración” de Bergson referido a los procesos ecológicos, que requiere una forma distinta de concebir el espacio tiempo, heterogénea y no lineal, multidimensional y no local (Ho, 1193)

Debido a la gama completa de ciclos que se acoplan, la energía se almacena y se moviliza por encima de todos los espacio-tiempos de acuerdo a los tiempos de relajación (y de volumen) de los procesos implicados. Así los organismos pueden aprovechar de dos formas distintas la transferencia de energía con la máxima eficiencia -- en no-equilibrio en el que la energía almacenada es transferida antes de que se produzca la termalización-- (Se denomina Termalización o Moderación de Neutrones al proceso por el cuál los neutrones reducen su velocidad de manera gradual como consecuencia de los choques de estos con los núcleos de los átomos vecinos. Es un fenómeno típico de los procesos que tienen lugar en los reactores de las centrales nucleares. Wikipedia) y la transferencia en un casi-equilibrio, en el que las transferencias de energía libre es cero, de acuerdo con las consideraciones termodinámicas convencionales (McClare, 1971)


La entrada de energía puede ser de cualquier manera fácilmente deslocalizada, y al revés, la energía puede concentrarse de cualquier manera. En otras palabras, el acoplamiento de energía en los seres vivos es simétrica, por lo que podemos disponer de energía a voluntad, siempre y cuando sea necesaria (Ho, 1993, 1194b, 1195a, b). El organismo es, en efecto, un organismo cerrado, autosuficiente energéticamente en procesos cíclicos no-disipativos, junto a otros que sí lo son. En la termodinámica clásica formal, el ciclo de la vida puede considerarse, en una primera aproximación, en que todos los procesos son cíclicos -para que el saldo total de energía sea cero-, junto a otros procesos necesarios para mantener su funcionamiento, por lo que la variación neta de entropía es mayor de cero. Esto se deriva de la Termodinámica de los estados de equilibrio (Denbigh, 1951).


En consecuencia, el organismo de ha liberado de las restricciones inmediatas del principio de conservación de la energía – La primera ley-, así como de la Segunda Ley de la Termodinámica. Hay siempre energía disponible en el sistema, que se moviliza para obtener el máximo de eficiencia y en todos los modos espacio-temporales.

(La presente conceptualización, basada en la termodinámica, converge con la noción de autopoiesis ( La autopoiesis (del griego αυτο-, auto, ‘sí mismo’, y ποιησις, poiesis, ‘creación’ o ‘producción’), es un neologismo propuesto en 1971 por los biólogos chilenos Humberto Maturana y Francisco Varela para designar la organización de los sistemas vivos. Una descripción breve sería decir que la autopoiesis es la condición de existencia de los seres vivos en la continua producción de sí mismos. Wikipedia), que describe los sistemas vivos como un todo unitario, una entidad de autoproducción, que Maturana y Varela (1987) extraen de consideraciones puramente formales) .



jueves, 25 de marzo de 2010

Pseudoalimentos o alimentos envenenados


Salvador López Arnal
Rebelión

Licenciado en Veterinaria, director de Veterinarios sin Fronteras desde 1991 hasta 2009, Gustavo Duch colabora con Vía Campesina y ha sido activista en campañas como “No te comas el mundo” o “Som lo que Sembrem”. Duch escribe normalmente en medios como El Periódico, Público, Galixia Hoxe, El Correo Vasco, La Jornada y www.rebelion.org. Acaba de publicar en la editorial Los libros del lince, Lo que hay que tragar. Minienciclopedia de política y alimentación, con prólogo de Federico Mayor Zaragoza, libro en el que denuncia con nombre, apellidos y argumentación contrastada las prácticas de oligopolios como, entre muchos otros, Pescanova, Calvo, Monsanto y Danone.. Eduardo Galeano ha escrito en la contraportada del volumen: “El libro de Gustavo Duch retrata la maldición y la esperanza de este mundo cuyos amos están jugando a los dados. Sus páginas, siempre decidoras, nunca pesadas, cuentan muchas historias y contienen numerosa información desconocida, en un lenguaje milagrosamente capaz de convertir el plomo en pluma. Aquí hay horror y hay humor y amor. Porque esta denuncia implacable de los crímenes que el poder universal comete contra la naturaleza y la gente es también un entrañable homenaje a la tierra y a las manos que la trabajan”. Vale la pena insistir: Lo que hay que tragar está escrito “en un lenguaje milagrosamente capaz de convertir el plomo en pluma”.

Para leer el artículo completo

Biología del Libre Albedrío (1)








Mae-Wan Ho
Bioelectrodynamics Laboratory,
Open University, Walton Hall,
Milton Keynes, MK7 6AA, U.K.
Journal of Consciousness Studies 3, 231-244, 1996.

El destacado neurofisiólogo Walter Freeman (1995) comienza su libro declarando que la ciencia del estudio del cerebro está en crisis: su búsqueda de unas constantes que definan los estados cerebrales derivados de unos determinados estímulos ha fracasado, después de 33 años dedicados a este empeño. Los patrones de la actividad cerebral son irrepetibles, simplemente, pues cada percepción está influida por todo lo que ha ocurrido anteriormente. Es un callejón sin salida conceptual, no experimental o lógico. Este descalabro del determinismo mecanicista en la ciencia cerebral ya hace tiempo que se conoce, pero esto no supone un triunfo del vitalismo. Como recientemente ha demostrado Freeman, ciertos descubrimientos en matemáticas no lineales pueden contribuir a algún tipo de entendimiento de las actividades no repetibles del cerebro.


La tradicional oposición entre mecanicistas y vitalistas ya empezó a disolverse en el cambio de los siglos XIX a XX, cuando la física newtoniana dio paso a la Física Cuántica en el ámbito de las partículas elementales y de la Relatividad General a escala planetaria. La concepción estática y determinista del universo, con un tiempo y un espacio absolutos, se sustituye por nuevos contingentes, como el marco del espacio-tiempo dependiente del observador. En lugar de objetos mecánicos simples ubicando en el espacio y en el tiempo, se habla ahora de una deslocalización, las entidades cuánticas mutuamente ínter-relacionadas, cargados de su experiencia, como si se tratase de organismos en constante evolución. Estos nuevos puntos de vista dio lugar en la ciencia contemporánea occidental a la Filosofía Organicista (Organicismo).

Una figura clave del Organicismo fue el filósofo francés Henri Bergson (1916), que mostró como los conceptos de Newton, que dominaban las ciencias biológicas por aquel entonces, negaban las implicaciones psicológicas de nuestra experiencia anterior. En particular, destaca la inseparabilidad del espacio y el tiempo, ambos atados a los mismos procesos que tienen duraciones características. La otra figura significativa en el Organicismo fue el matemática y filósofo polaco Alfred Whitehead ( 1925), que vio a la física y toda la naturaleza como ininteligible sin una teoría minuciosa del organismo que participa en el conocimiento.

El Organicismo fue tomado muy en serie por un destacado grupo de personas que formaron una asociación multidisciplinar denominada Club de Biología Teórica. Entre sus miembros estaban Joseph Needham, un embriólogo y bioquímico eminente que más tarde sería reconocido por sus trabajos en torno a la Ciencia china; Dorothy Needham, bioquímico y estudiosa de la fisiología del músculo; el genetista C.H.Waddington; el cristalógrafo J.D.Bernal; el matemático Dorothy Wrinch; el filósofo J.H. Woodger, y el físico Neville Mott. Todos ellos reconocían la complejidad de la organización de los seres vivos, y que no se podía entender como un axioma, sino como algo que debía ser comprendido con ayuda de la filosofía, la física, la química, la biología y las matemáticas, con un espíritu de investigación libre, dejando abierta la posibilidad de nuevos conceptos o leyes que pudieran ser descubiertas.

Mucho ha corrido desde la constitución del Club de Biología Teórica, que acabó de forma prematura por falta de financiación de la Fundación Rockefeller. El Organicismo no ha sobrevivido como tal, pero su influencia se deja sentir todavía, tocando corazones y mentes, sintiéndose atraídos pro el enigma central que planteó Erwin Schrödinger (1944): ¿Qué es la vida?

En los años transcurridos se ha inventado la radio a transistores, la computadora, el láser. Nuevas disciplinas han surgido, como la termodinámico del no-equilibrio, la física del estado sólido, la óptica cuántica, y eso por nombrar sólo algunas de ellas. En Matemáticas, la dinámica no lineal y la teoría del caos, que se fueron abandonando a lo largo de las décadas de 1960 y 70. Quizás en parte debido a que muchos procesos no lineales y fenómenos de la físico-química están siendo estudiados activamente en los últimos diez años, volviéndose más y más orgánica.

En cierto modo, la totalidad de la ciencia está teñida de Organicismo, ya que incluso la conciencia y el libre albedrío están ahora en la agenda científica. Bergson (1916) dijo de forma convincente que el problema tradicional del libre albedrío estaba enfocado erróneamente, planteando un desajuste entre la calidad de la experiencia auténtica, subjetiva y su proyección en el lenguaje, en particular en el lenguaje de esa ciencia mecanicista que es la Psicología. En un libro reciente, se mostraba que los conceptos científicos occidentales contemporáneos referidos al organismo, llevan más allá de la termodinámica convencional hacia la teoría cuántica (Ho, 1993), ofreciendo puntos de vista rigurosos que reafirman y amplían de forma poética, e incluso romántica, las nociones de espontaneidad y libre albedrío.

Desafío a las leyes de Newton


2 de abril de 2007 por Zeeya Merali


Si usted fue capaz de poner un huevo de pie sobre uno de sus extremos durante el último equinoccio, los físicos experimentales quizás necesiten su ayuda. Un experimento muy sensible, que sólo se puede realizar durante los equinoccios, pondría a prueba algunas teorías que ofrecen una alternativa a la materia oscura.

Ciertas estrellas exteriores a las galaxias se mueven más rápidamente de lo que cabría esperar en virtud de las fuerzas gravitacionales entre la materia visible. Para esta gravedad añadida, los astrónomos han propuesto la teoría de la existencia de materia oscura. En la década de 1980, Mordechai Milgrom, de la Universidad de Princeton, sugiere que las observaciones también podrían explicarse por la modificación de la ley de la gravedad de Newton. La teoría de Milgrom de la dinámica newtoniana modificada (MOND) se desarrolla de dos formas: MOND gravitacional, que modifica la inversa del cuadrado de la gravedad; y el MOND inercial, que modifica la segunda ley del movimiento de Newton.

En ambos casos, cuando los objetos se mueven con una aceleración por encima de un umbral determinado, a0, las leyes hasta ahora conocidas se cumplen.
Pero cuando la aceleración cae por debajo de a0, las leyes se han de modificar ligeramente para poder explicar, por ejemplo, la velocidad de las estrellas en los bordes de las galaxias. El valor de a0 es de una mil millonésima parte de la aceleración de la gravedad de la Tierra, de modo que los efectos de la MOND difícilmente pueden ser observados desde al Tierra. Esto significa que los astrónomos han tenido que basarse en las observaciones de las galaxias y cúmulos de galaxias a prueba de MOND. Ahora, Alex Ignatiev, del Instituo de Investigaciones de Física Teórica de Melbourne, Australia, propone una forma de probar la MOND inercial en la Tierra.

La clave es encontrar un momento y un lugar en el que la aceleración que tiene un objeto sea igual a cero. No es nada fácil, ya que además de la gravedad terrestre, la rotación de nuestro planeta y el movimiento alrededor del Sol también producen fuerzas que aceleran los objetos más allá de los límites de la MOND. Sin embargo, los cálculos de Ignatiev muestran que a lo largo de la latitud de 80º norte o sur, pasando por el norte de Groenlandia y la Antártida, en determinados momentos del año, estas fuerzas se anulan entre sí.

La oportunidad para hacer las pruebas se mueve en un margen muy estrecho. Las fuerzas se anulan entre sí durante una milésima de segundo durante dos días de los equinoccios de primavera y otoño. En este momento y lugar preciso, si la segunda ley de Newton es correcta en los valores de las aceleraciones, los cuerpos no debieran de experimentar ninguna fuerza. Pero si la MOND inercial es correcta, los cálculos de Ignatiev muestran que habrá una fuerza residual muy leve, haciendo que resulte un empuje sobre la masa del cuerpo en torno a unos 10-12 metros (Physical Review Letters, vol 98, p 101101).

Registrar un movimiento tan pequeño parece un objetivo desalentador, pero los experimentadores ya han construido detectores de ondas gravitaciones que pueden medir movimientos sumamente pequeños. Se sugieren detectores similares para el experimento. “
No será fácil”, dice Ignatiev, “ pero puede ser posible.”

Un resultado positivo tendría consecuencias enormes para la teoría de la materia oscura”, dice Hong Sheng Zhao, un astrónomo de la Universidad de St. Andrews, en el Reino Unido, que trabaja en la MOND, “ Debemos hacer este experimento en cuanto nos sea posible”.

Un resultado negativo podría descartar la existencia de la MOND inercial, pero dejaría abierta la posibilidad de que la MOND gravitacional sea correcta. Para probarlo, dice Zhao, experimentos similares podrían llevarse a cabo en una nave espacial en un punto del espacio situado entre la Tierra y la Luna, donde la atracción de la gravedad por ambos astros sea la misma.

Mientras los físicos teóricos como Ignatiev y Zhao están entusiasmados con el experimento, Eric Adelberger, de la Universidad de Seatle en Washington, que trabajan en pruebas de gravedad de alta precisión, está menos convencido. “
La idea, en teoría, es excelente, pero ponerla en práctica es muy difícil. Será difícil convencer a alguien para que vaya de excursión en torno a Groenlandia para realizar las mediciones.”

http://www.newscientist.com/article/mg19325974.300-equinox-challenge-to-newtons-law.html


martes, 23 de marzo de 2010

La CE investiga si los pactos entre fabricantes de medicamentos patentados y los de genéricos son legales


El Economista, 12 de enero de 2010

La Comisión Europea anunció hoy que está investigando si son legales una serie de acuerdos entre farmacéuticas en virtud de los cuales un laboratorio de medicamentos patentados paga a un fabricante rival de productos genéricos a cambio de retrasar la comercialización de un genérico.


El Ejecutivo comunitario ha solicitado a las farmacéuticas que le envíen copias de los acuerdos de este tipo que han firmado entre el 1 de julio de 2008 y el 31 de diciembre de 2009. Siguiendo su práctica habitual, la Comisión no identificó a las empresas investigadas ni desveló su nacionalidad o el número.

"Los acuerdos amistosos sobre patentes plantean problemas, sobre todo cuando un laboratorio de medicamentos patentados paga a un fabricante rival de productos genéricos a cambio de retrasar la entrada de un genérico en el mercado", aseguró la Comisaria de Competencia, Neelie Kroes, en un comunicado.

"Debemos examinar este tipo de acuerdos para entender mejor por qué se concluyen, quién lo hace y en qué condiciones. Este trabajo nos permitirá tomar medidas si es necesario", indicó la Comisaria.

Cuando reciba las respuestas a su petición de información, el Ejecutivo comunitario analizará los datos y publicará un estudio con estadísticas. Si detecta problemas, dirigirá una nueva petición de información más concreta, explicó.

Esta investigación se lanza a raíz del examen de la competencia en el sector farmacéutico publicado por la Comisión en julio de 2009. El estudio ponía de relieve que este tipo de acuerdos sobre patentes perjudican a los consumidores al impedirles acceder a una mayor variedad de fármacos a un precio más bajo.

Varias farmacéuticas han anunciado que los reguladores están investigando sus operaciones –Pfizer, GlaxoSmithKline, Sanofi-Aventis, Roche, AstraZeneca, Novartis y Teva Pharmaceutical.

http://www.boletinfarmacos.org/022010/economía_Tratados_de_Libre.asp#La CE investiga si los pactos entre fabricantes de medicamentos patentados y los de genéricos son legales

viernes, 19 de marzo de 2010

Las dificultades de la asistencia sanitaria en Bolivia


Carta del director de un internado de Bolivia

Un breve saludo para hacer un poco de terapia -conmigo mismo- tras una semana difícil, y para que os hagáis una idea de cómo andan las cosas por acá. Es lo que le escribí a mi hermana ayer mismo. Hoy ya estoy por el internado, metido en los quehaceres de acá, que no son pocos, y algunos poco agradables también. Aprovecho que he venido la capital del cantón a pagar la luz para escribiros un poco.


El martes pasado, a las 6 de la tarde, un chiquillo llegó a mi cuarto en el internado porque le dolía la tripa. Que le había sentado mal el almuerzo, según él. A los cinco minutos me quedó bastante claro que lo que tenía era apendicitis, así que empezó una carrera insufrible para llegar lo antes posible a un hospital. Salimos como estábamos, tras ir yo a buscar el jeep mientras dos compañeros lo llevaban hasta el camino.

En el hospital de P. B., a veinte minutos, confirmaron mis sospechas, y partimos en una ambulancia que casualmente pasaba por allá hacia otro hospital, el de Caranavi. A las once de la noche llegamos allá, para enterarnos de que el quirófano estaba inhabilitado porque se estaba cayendo el techo.

Otra ambulancia prepararon para tres pacientes y otros tantos acompañantes, más una enfermera. Me tocó pagar la mitad de lo que cuesta la ambulancia -como antes la otra-. Y salimos a la 1 de la mañana hacia La Paz.

El viaje fue terrible: no podía ni moverme, con los pies atrapados por el cuerpo de una parturienta que iba tumbada, y con la cabeza del niño sobre las rodillas. La hernia se me puso en pie de guerra y fue una tortura el viaje de 4 horas. Además, el chiquillo iba empeorando y sus quejidos me partían el alma, sin nada que poder hacer, y con unos caminos llenos de baches y curvas que contribuían al suplicio.

A las 5 de la mañana llegábamos al Hospital del Niño de La Paz, adonde nos habían transferido. Después de estar dentro, nos remitieron al hospital General porque ya tiene los 15 años cumplidos, así que otra vez a subir a la ambulancia.
Y entonces comenzaron horas de angustia en aquel servicio de emergencia.

Tuve que correr toda la mañana, de un servicio a otro, siempre pasando por caja para pagar cualquier cosa que pidiesen: si rayos X, primero debía ir a la caja, y de ahí al servicio de rayos a concertar la hora, y de ahí, nuevamente a emergencias con la factura y lo que me hubiesen dicho; si análisis, la misma cosa; varios viajes a la farmacia en donde el sistema es el siguiente: con la receta que daban debía ir a que me la codificaran; de ahí, a la caja; y por fin, factura en mano, de nuevo a hacer fila para retirar los medicamentos.

Terminé gritando a unos y otros, hasta que a la 1 de la tarde, ¡ocho horas después de haber entrado!, lo metieron a operar, con una peritonitis generalizada. El chiquillo ya no podía ni responder a lo que se le preguntaba.

La operación de una hora luego fue de más de dos, pero según el cirujano había salido todo bien, y tocaba esperar que no hubiese complicaciones.
Esperé hasta que lo llevaron a al pabellón de Cirugía General, donde hay 21 camas.
En total, 25 horas angustiosas.

He estado tres días sin cambiarme de ropa y sin siquiera ducharme. Pero si todo va bien, mañana le darán el primer alta... y R..., que así se llama el crío, podrá contar que se salvó por los pelos de un sistema hecho para dejar morir a la gente. Ni os cuento los casos que he podido conocer en estos días de esperas, y que te llevan a la triste conclusión de que si no tienes plata, te mueres no más.

A todo esto, R... no quería ir al hospital ni a tiros, y me decía mientras íbamos en el jeep: "Iremos en vano, hermano. Esto ya me ha pasado otras veces y con unas tabletitas se me quitará". La razón principal para no querer ir era lo que costaría la consulta y lo que pudiesen pedir, siendo como es de una familia pobre de cinco hermanos. Desde luego, si su familia -por acá tengo alojado a su padre, que es una carga más...- hubiese tenido que costear todo esto, ya estaba el niño en un cajón desde el miércoles.

He empleado parte de los euros que traje conmigo de España -unos 450-para que R... salvase la vida. Es un muchacho excelente. Y aunque resultó traumático los dos primeros días -haceos a la idea: salir por primera vez fuera de su entorno; verse, tras un viaje tremendo y horas de espera interminables, con sondas, drenajes, gotero, y solo la mayor parte del día porque no puede uno quedarse con él-, ya está bastante recuperado.

Pues nada. Hoy ya le darán el primer alta y quedará en la casa que tenemos en La Paz, para que me lo cuiden una semana.

Espero haberos animado a venir, con una vida tan entretenida como la que os cuento. Seréis muy bienvenidos todos, y pediré a los jóvenes y las señoritas que se reserven las apendicitis y cosas peores para cuando estéis por acá. A ver si me hacen caso...

Os contaría más cosas, pero estoy algo cansado, y creo que con esto ya es suficiente para un solo día. Me sirve para desahogarme algo a mí también, porque me he sentido bastante solo en todo este asunto.

Un abrazo grande y desde luego, mis más grandes deseos de que la salud os acompañe. Hasta otro ratillo.

miércoles, 17 de marzo de 2010

El principio de certidumbre médica


Por Mario Rojas Alba

Este fragmento forma parte de la obra “Tratado de Medicina Tradicional Mexicana”, en concreto la discusión introductoria del capítulo titulado “Lógica cibernética”.


La medicina oficial reclama una práctica de la medicina basada en la certeza, no en la creencia. En un sentido ético preciso, el médico debe atender a su paciente basándose en el principio de certidumbre, en métodos de probada eficiencia; no se puede poner la vida de una persona en las manos de un profesional que actúa en función de concepciones de dudosa efectividad, o basados en creencias que no tienen sustento clínico-terapéutico, explicable y demostrable. Es cierto que la biomedicina está muy lejos de tener respuestas certeras a todos los padecimientos, ni a todos los estados de un mismo proceso morboso, es por eso que el principio de la certidumbre, como determinación o voluntad que orienta al profesional en la acción eficiente y segura, no es una concepción de verdades absolutas, sino muy relativas; si para poder actuar se requiriera siempre de una certidumbre absoluta, el ejercicio de la medicina sería imposible, y el médico no actuaría en todos aquellos casos en donde la ciencia no tuviera una respuesta certera.

La certidumbre es la obligación de cumplir algo, de tener certeza de que algo ocurre y va a ocurrir; tener el conocimiento claro y seguro, o la firme convicción de algo que se conoce sin error, específicamente de aquellos fenómenos relacionados con la salud, la enfermedad y la medicina. Tener certeza no es nada simple, ni fácilmente entendible, sobre todo si se conoce la polémica interminable sobre los conceptos de la verdad y lo falso, lo real y lo irreal.

El estudio de la Medicina requiere del pensamiento, de una forma razonada y elástica de abordar los problemas y fenomenología de la salud y la enfermedad humana. La mayoría de los programas de los estudios universitarios en España y Latinoamérica, han mantenido ordinariamente a la Lógica como una de las asignaturas obligatorias; sin embargo, eso no tiene la misma continuidad en las escuelas y facultades de Medicina, donde existen otras materias relacionadas, como estadística clínica y epidemiológica, metodología de la investigación, etc, pero, ordinariamente no se encontrará el estudio específico de la Lógica Médica. […]

Considerando en la actualidad que existen al menos dos grandes escuelas lógicas, una dominante y formal, otra emergente y complementaria de tipo difuso, es prudente determinar qué es lo que ellas ofrecen para el mejor estudio de la medicinas tradicionales y alternativas.

Hasta ahora ha dominado la Lógica cartesiana y matemática, como herramienta infinitamente ligadas al positivismo científico. […] La escuela positivista ha excluido a las medicinas tradicionales y alternativas. Su visión rígida, lineal, dicotómica, binaria, cuadrada y maniqueísta, es hoy una limitación para el desarrollo de la ciencia moderna. Hace falta la adopción de un nuevo método lógico, uno más suave, que no excluya, tridimensional, multidireccional y difuso. Sin embargo, antes de proponer una nueva lógica médica, vale exponer qué entiendo por Lógica y cuál es la tendencia dominante hoy en día.

Definiciones de Lógica

Definición general. La Academia de la Lengua Española la define como la ciencia que expone las leyes, modos y formas del conocimiento científico.

Etimología: La palabra lógica, proviene del griego lógos, que en su sentido filológico significa razón, idea, pensamiento, palabra, verbo y espíritu.

La terminación -ca, lo relativa a.

Atendiendo a sus raíces griegas, se traduce al castellano como “lo relativo a la razón o pensamiento”.

La Lógica es ante todo una ciencia que dispone de un sistema superior de conocimiento, caracterizado por el rigor, la exactitud, la solidez, la universalidad, la necesidad y la sistematización.

Lógica natural es la aptitud para razonar de los seres humanos en condiciones normales, o también, la disposición natural para discurrir con acierto sin el auxilio de la ciencia. Por lo tanto, el razonamiento lógico es una capacidad intelectual inherente a la especie Homo Sapiens, sin embargo, como otras habilidades humanas, la del pensamiento lógico puede ser desarrollada y metodizada mediante la voluntad del aprendizaje, como La Lógica formal, la matemática simbólica, y la borrosa, confusa o difusa.

Lógica formal es la ciencia que trata de las leyes, formas y modos del conocimiento científico. El objeto material de la Lógica son los pensamientos, es decir, su tema es el pensamiento en general.

La Lógica simbólica o matemática es aquella que opera mediante un lenguaje simbólico y haciendo abstracciones de los contenidos. En esta obra, los términos de lógica escolástica, formal, clásica, cartesiana, mecanicistas, simbólica, matemática, binaria, dicotómica, positiva, puritana y maniqueísta, se consideran como sinónimos.

Otra lógicas: Algunos emplean el término de lógicas alternativas para descubrir a las corrientes modernas que pretenden actualizar o superar las conformadas a partir de las matemática en el siglo XIX. Se incluye la lógica intuicionista que no admite que pueda demostrarse la verdad o falsedad de todo enunciado matemático; la denominada paraconsciente que acepta contradicciones verdaderas; y las multivaluadas. Una corriente muy reciente es la correspondiente a la Lógica Universal, que concibe esta disciplina como una rama autónoma de la matemática.

Lógica difusa. Las necesidades de la Informática y el desarrollo de programas de inteligencia artificial, han obligado al desarrollo de nuevas expresiones de la lógica, específicamente de la Lógica difuso, borrosa, matizada o confusa, que se define como aquella que admite una cierta incertidumbre entre la verdad o falsedad de sus proposiciones, a semejanza del raciocinio humano.



martes, 16 de marzo de 2010

Cómo la propiedad intelectual asfixia el desarrollo de la ciencia


John Sulston, Sarah Chan, John Harris.
The Guardian, 26 de noviembre de 2009
Traducido por Salud y Fármacos

www.guardian.co.uk/commentisfree/2009/nov/26/science-shackles-intellectual-property


Los derechos de propiedad representan un riesgo para que los avances científicos se conviertan en bienes públicos.

La idea de propiedad está por todas partes. Los títulos de propiedad nos sirven para proteger el patrimonio de nuestras viviendas, mientras que la seguridad de la propiedad es tan importante para los propietarios de Tesco y Sainsbury como para sus clientes. Sin embargo la propiedad intelectual genera problemas muy profundos, que requieren un liderazgo muy fuerte por parte del gobierno y para los cuales nunca ha habido una necesitan tan urgente de recibir recomendaciones independientes. La problemática que se ha generado alrededor de David Nutt, un reconocido experto en drogadicciones que tuvo que renunciar por cuestionar las posturas del gobierno frente a las drogas, ilustra la importancia de analizar objetivamente asuntos sociales complejos.

El mito consiste en considerar que los derechos de propiedad intelectual son tan importantes como nuestros derechos a tener propiedad de castillos, coches o aceite de maíz. La propiedad intelectual debe estimular a los inventores a hacer la inversión necesaria para ofrecer sus productos a la clínica o al mercado. En realidad, con frecuencia las patentes en lugar de promover impiden la innovación: en el caso de los medicamentos se prolongan las patentes cuando están a punto de caducar, y las compañías compran las patentes de sus rivales para impedir que las trasformen en productos comerciales. Es más, los precios que se cobran, especialmente en el caso de los medicamentos, son con frecuencia muy superiores al costo de producción más un margen de ganancia razonable.

Los derechos de propiedad están empezando a calar en cada una de las áreas de desarrollo científico. Incluso en las universidades la ciencia y la innovación financiadas con fondos públicos se privatiza y se le vuelve a vender al público a través de las patentes que adquieren las compañías con intereses comerciales. La tendencia a comercializar la ciencia se ha apoderado no solo de la investigación aplicada sino también de las investigaciones que están lejos de tener implicaciones prácticas, de forma que incluso la investigación más pura se ve afectada por la necesidad de obtener beneficios.

Por ejemplo, se estima que el 20% de los genes humanos han sido patentados o se ha solicitado su patente. El resultado es que la investigación sobre ciertos genes se limita a las compañías que son dueñas de las patentes, y las pruebas que los involucran se comercializan a precios exorbitantes. Pensamos que esto representa una amenaza importante para el desarrollo de la ciencia a favor del bien público.

Los frutos de la ciencia y de la innovación han alimentado durante años nuestra sociedad y economía, pero se excluye a las naciones y los más vulnerables que no saben como moverse dentro de nuestro marco regulador. Tenemos que encontrar formas de balancear las necesidades de la ciencia como industria con la demanda de quienes desesperadamente necesitan los productos de la ciencia.

Claramente es de vital importancia que continuemos protegiendo la ciencia y facilitemos que tenga éxito y alcance sus metas. La ciencia y los muchos beneficios que la ciencia nos ha proporcionado forman una parte muy importante de nuestra historia y produjeron grandes mejoras en el bienestar humano. Seríamos negligentes si no reconociéramos la importancia de la ciencia como industria y la inversión en la investigación como motor de desarrollo regional y nacional; pero contra estas preocupaciones económicas (individuales, nacionales o corporativas) se deben tener muy presentes los intereses públicos y de la humanidad, en el momento presente y también en el futuro. La ciencia como industria está en un periodo de bonanza, pero los beneficios de la ciencia tienen que ponerse a servicio del público de forma más eficaz y más barata.

Esto es especialmente importante en el mundo en desarrollo, donde no pueden pagar o no tienen acceso a los medicamentos que están disponibles en los países industrializados; y la ausencia de un mercado viable hace que no se desarrollen tratamientos para las enfermedades que afectan a los pobres. La desigualdad en el conocimiento convierte a los países en desarrollo en rehenes de los países tecnológicamente más avanzados para todas sus necesidades de salud y desarrollo, y limita su participación en la investigación que les permitiría corregir el desequilibrio.

Para que la ciencia siga avanzando, es necesario que el conocimiento que se genera sea distribuido amplia y generosamente. Los derechos de propiedad intelectual tienden a impedir el acceso al conocimiento y el intercambio de ideas que es esencial para la ciencia. Hasta ahora la propiedad intelectual lejos de estimular la innovación y la diseminación de los beneficios de la ciencia, con demasiada frecuencia impide el avance científico y limita el acceso a sus productos.

Un grupo de expertos internacionales que representan a diferentes disciplinas de conocimiento han publicado el Manifiesto de Manchester. Este documento explora estos problemas y señala posibles soluciones que podrían proteger más eficazmente a la ciencia, la innovación y el bien público. Solicita que todos los involucrados busquen nuevas formas de diseminar los resultados de la ciencia donde más se necesiten.

El manifiesto se encuentra disponible en:

www.isei.manchester.ac.uk/TheManchesterManifesto.pdf

sábado, 13 de marzo de 2010

EE.UU. analizará a fondo los efectos de las radiofrecuencias sobre la salud


Abc

El peso de la opinión pública, la rápida penetración de las nuevas tecnologías de transmisión inalámbrica y, sobre todo, las dudas razonables que alberga parte de la comunidad científica han logrado que la Administración estadounidense ponga en marcha un análisis multidisciplinar en torno a los efectos de las ondas de radiofrecuencia sobre la salud.
Teléfonos móviles, ordenadores portátiles, aparatos sin cables, tecnologías inalámbricas bluetooth y Wi-Fi, emisiones de radio, de televisión... el mundo en que vivimos tiende a ser cada vez más un mundo sin hilos, en el que estamos expuestos cada día a centenares de fuentes emisoras de radiofrecuencias.

Todo ello, sin hablar de su cada vez mayor penetración en el campo de la diagnosis médica o en la industria. Resultados contradictorios Desde hace quince años, centenares de informes parciales sobre sus efectos han arrojado en todo el mundo resultados contradictorios, aunque por lo general coinciden en apuntar hacia un nivel de riesgo poco relevante. Pero buena parte de los científicos, con una mentalidad extremadamente cautelosa, han estimado que los resultados cosechados hasta ahora no son concluyentes.

Como primer paso, la Agencia del Medicamento (FDA) estadounidense reunió el pasado agosto un cónclave internacional de expertos para evaluar los estudios realizados y su fiabilidad. La conclusión inmediata fue que quedan muchos aspectos por analizar. La FDA encargó entonces a la Academia Nacional de las Ciencias, a la Academia de Ingeniería y al Instituto de Medicina que elaborasen un informe exhaustivo al respecto.

Dicho informe, de 66 páginas, ha sido publicado por el Consejo Nacional de Investigación (NRC) bajo el título Identificación de las investigaciones necesarias sobre el potencial biológico y los efectos adversos para la salud de los sistemas de comunicación inalámbricos. Entre sus conclusiones, destacan varios aspectos en los que se debe profundizar: análisis de las exposiciones de larga duración a las radiofrecuencias; estudio de los efectos de las radiaciones de baja intensidad; impacto sobre grupos humanos expuestos a campos de intensidades medias y altas; análisis de la exposición simultánea a múltiples fuentes emisoras; consecuencias concretos sobre los niños y los adolescentes por tramos de edades, y sobre las mujeres embarazadas; rango exacto de las emisiones de los diferentes tipos de aparatos y antenas; influencia de la distancia a las fuentes emisoras; efectos sobre las redes neuronales y la actividad eléctrica del cerebro -neurofísicos y cognitivos-; riesgo de desarrollar tumores; repercusiones sobre el corazón y la presión sanguínea; influencia sobre la temperatura corporal, y finalmente, efectos biofísicos y bioquímicos de las radiofrecuencias a nivel microscópico. El NRC enumera en su informe todos aquellos campos en los que considera imprescindible profundizar: dosimetría y niveles de exposición, epidemiología -principalmente respecto a los distintos tipos de tumores-, estudios en laboratorio, mecanismos de actuación de las radiofrecuencias sobre los distintos tejidos, así como estudios en vivo e in vitro con modelos experimentales.

En cuanto a los sistemas a los que prestar más atención, el informe incluye antenas (telefonía, televisión y radio), teléfonos, ordenadores portátiles y de mesa, redes inalámbricas en domicilios, oficinas y laboratorios, así como aparatos de diagnóstico por radiofrecuencia. Los análisis multidisciplinares a realizar serán competencia de médicos e ingenieros de distintas especialidades. Los niños, grupo de riesgo El Consejo Nacional de Investigación, órgano asesor del gobierno estadounidense en los campos científico, tecnológico y de la salud, sugiere una especial atención en el estudio de los efectos sobre los niños, ya que, para empezar, se desconoce si son más susceptibles a este tipo de exposiciones.

Podrían ser un grupo de riesgo, toda vez que se encuentran en plena fase de desarrollo de órganos y tejidos, y además porque parecen presentar un mayor Índice de Absorción Específica (SAR, unidad de medida de la cantidad de energía de radiofrecuencia absorbida por el organismo) que los adultos. Los niños empiezan a usar el teléfono móvil a edades cada vez más tempranas, por lo que su tiempo de exposición será mucho más elevado que el de quienes son adultos en la actualidad. El informe del NRC pone especial énfasis en las antenas emisoras y en los receptores.

Se han realizado múltiples estudios sobre los efectos derivados del uso del móvil sobre el cerebro, pero se recomienda analizar también sus efectos sobre otras partes del cuerpo. Las radiofrecuencias, también denominadas espectro de radiofrecuencia o RF, son el segmento menos energético del espectro de las ondas electromagnéticas, es decir, las radiaciones con longitudes de onda comprendidas entre 3 Hz (herzios) y 300 MHz (megaherzios). Uso generalizado Estas radiaciones existen en la naturaleza, se desplazan a la velocidad de la luz, no necesitan un medio material para su transmisión y recorren el Universo desde su origen, pero durante las últimas décadas su uso se ha generalizado en multitud de instrumentos.

Para generarlas, basta con aplicar corriente alterna a un emisor. Se emplean desde su descubrimiento para la comunicación y la transmisión de datos. En los últimos años, la rápida penetración de la telefonía móvil ha generalizado entre la población la necesidad de conocer con detalle los posibles efectos de las radiofrecuencias sobre la salud.

Entre la multitud de informes realizados, destaca el elaborado en 2007 por la Organización Mundial de la Salud (OMS), cuya casi única conclusión fue que elevan la temperatura corporal de las personas expuestas. Demasiado poco. Y la Administración de los Estados Unidos ha decidido entrar a fondo en su análisis.

http://www.hoytecnologia.com/noticias/Hola-estoy-leyendo-sobre/41531

Gran Bretaña se disculpa del escándalo de la talidomida... 50 años después


18 de enero de 2010
Portal Iberoamericano de Marketing Farmacéutico

El Gobierno británico se disculpó el jueves con los afectados por el llamado escándalo de la talidomida, medio siglo después de que miles de bebés nacieran con malformaciones debido a que sus madres consumieron el medicamento para tratar las nauseas en el embarazo.

"El Gobierno desea expresar su sincero pesar y profunda solidaridad por los daños y sufrimientos que perduran en todos aquellos que fueron afectados cuando sus madres embarazadas tomaron la droga talidomida entre 1958 y 1961", dijo el ministro de Salud Mike O'Brien a un silencioso Parlamento.

"Reconocemos las penurias físicas y las dificultades emocionales que han enfrentado ambos, los niños afectados y sus familias, como resultado de esta droga y el desafío que muchos continúan enfrentando, a veces diariamente", añadió.

El ministro reconoció que los afectados han estado esperando por mucho tiempo por este reconocimiento.

El escándalo de la talidomida generó una revisión mundial de los procesos de testeo de las drogas e impulsó la reputación de la Administración de Alimentos y Medicamentos de Estados Unidos (FDA, por su sigla en inglés), una voz solitaria que rechazó aprobar el uso la droga.

La talidomida fue comercializada para las mujeres embarazadas a fines de los '50 y comienzos de los '60 como un tratamiento para las nauseas matutinas comunes en los primeros meses de gestación.

Cerca de 10.000 bebés nacieron en el mundo con defectos causados por la droga, que van desde malformaciones en las extremidades hasta la ausencia de brazos o piernas.

En Gran Bretaña, el Fondo de la Talidomida ayuda a 466 personas, la mayoría de las cuales tiene dos o cuatro extremidades menos como resultado del consumo del medicamento por parte de sus madres en el embarazo cuando éste contaba con licencia para su uso en ese país.

La licencia se extendió en 1958 y fue retirada tres años después.

Los afectados británicos reciben un promedio de menos de 20.000 libras (32.580 dólares) por año en compensación de parte de los fabricantes de la droga, de acuerdo a reportes de medios.

O'Brien anunció que el Gobierno financiaría adicionalmente 20 millones de libras en un programa piloto para satisfacer las necesidades de salud de los afectados por la droga.

El fondo distribuirá el dinero entre los sobrevivientes, cuyas necesidades de atención médica se incrementan a medida que van envejeciendo.

"Esto es lo que necesitábamos. La compensación ayudara a los afectados, pero la disculpa es muy importante", dijo Guy Tweedy, del Fondo de la Talidomida, a la BBC.

"Obtener una disculpa después de 50 años es una noticia maravillosa", añadió

http://mexico.pmfarma.com/noticias/noti.asp?ref=4261

miércoles, 10 de marzo de 2010

Un descubrimiento sorprendente: emisión de biofotones por el cuerpo humano


S. Cohen y F.A. Popp

Revista de Fotoquímica y Fotobiología, 1997, 187-189

  1. Introducción:

Hace alrededor de unos veinte años se desarrolló un sistema para la detección de los fotones emitidos por las células, y de este modo comprobar la emisión de biofotones por los organismos vivos. La confirmación de estos resultados por varios laboratorios han demostrado, sin lugar a dudas, que las plantas, animales y células humanas, emiten fotones de forma continua, en unos valores que van desde unos pocos fotones s-1 cm-2 a unos cientos de fotones s-1 cm-2, cubriendo continuamente la gama espectral comprendida entre los 200 y los 800 nm (nanómetros).

Ahora, por primera vez, las mediciones sistemáticas de emisiones de biofotones (BP) y el retraso de redispersión de la luz después de la iluminación ( lo que se denomina “luminiscencia retardada” (DL)), se ha realizado en observaciones en el cuerpo humano durante un periodo que abarca más de 9 meses.

  1. Emisión de biofotones por el cuerpo humano

Se construyó un gran cuarto oscuro con menos de 10 fotones s-1 cm-2 , lo suficientemente cómodo para 5 personas. El método de medición de la emisión de biofotones y de la luminiscencia retardada del cuerpo humano se basa en el recuento de fotones con la técnica del foto-multiplicador (control de calidad EMI 9558).

Se midió la emisión de una mujer sana todos los días entre las 8 y las 10 de la mañana por un periodo de más de 9 meses. Debido a que existía un periodo de tiempo muy limitado cada día, las mediciones se hicieron en las manos (del 8 de junio de 1995 al 5 de marzo de 1996) y la frente ( del 29 de agosto de 1995 al 5 de marzo de 1996).

Se hizo la medición en una superficie circular de unos 30 cm2. Los valores de medición para la emisión de biofotones, su valor medio para las 256 mediciones realizadas (mediciones s-1) y para la luminiscencia retardada, el primer valor registrado fue de 100 ms después de 5 segundos de iluminación blanca por una lámpara de tungsteno de 150 W ( en mediciones de 100 ms).

Vale la pena señalar que estos valores fueron significativamente más estables dentro del intervalo de las 2 horas de tiempo permitido para la investigación por día, ya que las variaciones no eran superiores al 5% durante este periodo.

  1. Resultados y discusión

Entre las manos izquierda y derecha hay una correlación significativa, tanto en la emisión de biofotones como en la luminiscencia retardada. Sin embargo, no hay una correlación entre la emisión de biofotones y la luminiscencia retardada, sino todo lo contrario, una anticorrelación en un grado significativo. Los valores de emisión de biofotones y luminiscencia retardada entre las manos y la frente tampoco están correlacionadas.

El análisis de Fourier de estos valores revela los mismos ritmos biológicos en ambos, emisión de biofotones y luminiscencia retardada, para las manos, así como para la frente. Se pudieron identificar claramente la periodicidad 7, 14, 21, 27, 80 y 270 días, para todas las emisiones de las manos y de la frente. Esto significa que las emisiones de fotones de todas las áreas de la piel siguen los mismos ritmos biológicos, pero mientras que la intensidad en la emisión de fotones en las manos están en la misma fase, las emisiones de la frente están en otra fase distinta con respecto a la de las manos.


El caso de un paciente con esclerosis múltiple, muestra que estas regularidades pueden estar interferidas por la enfermedad.


Este trabajo ha sido apoyado por el Ministerio de Investigación (BMBF Project 01 BM 403 / 3, Comunicación biofotónica).


http://www.biolabor.hu/biolabor-kft.../111-biophoton-humanbody-cohen-popp.pdf


martes, 9 de marzo de 2010

Noruega gana la batalla a las infecciones reduciendo el uso de antibióticos



OSLO, Noruega - El mejor método para disminuir el número de infecciones es reducir el uso de antibióticos.

El Hospital Universitario de Aker no se ve como un lugar limpio a donde ir a curarse. Los suelos están rayados y arañados. Una ligera capa de polvo cubre los monitores que miden la presión sanguínea.

Un tenue hedor a orina y lejía flota sobre un montón de sábanas sucias tiradas en una esquina. Sin embargo, si nos fijamos más detenidamente hasta un nivel microscópico, observamos que no hay contaminación. No hay ninguna señal de infección de estafilococos, peligrosa, contagiosa y fuera de control, como la que mató el año pasado a decenas de miles de pacientes en los hospitales más sofisticados de Europa, Norte América y Asia.

La razón: que los noruegos dejaron de tomar tantas medicinas.

Hace veinticinco años los noruegos también perdían la vida debido a esta bacteria, pero el sistema de salud público noruego contraatacó con un programa radical que hizo de Noruega el país con menos infecciones del mundo. Y la parte más importante del programa consistió en un recorte riguroso en el uso de antibióticos.

Ahora una serie de nuevos estudios de todo el mundo prueban que el modelo noruego se puede replicar con un éxito extraordinario, y los expertos en salud pública dicen que estas muertes - 19.000 al año, solamente en los EEUU -, son innecesarias.

Jan Hendrik-Binder, consejero médico de Oslo sobre el Staphylococcus aureus resistente a la Meticilina [SARM], dice: ¨es una situación muy triste y lamentable que en algunos sitios esté muriendo tanta gente, después de haber demostrado en Noruega que no se requiere un gran esfuerzo para controlar al SARM, pero hay que tomárselo en serio, prestarle atención y no rendirse¨.

Según la Organización Mundial de la Salud, la resistencia a los antibióticos es una de las principales amenazas a la salud pública en el planeta. Un estudio de seis meses de The Associated Press, descubrió que el consumo excesivo y el mal uso de los medicamentos ha causado mutaciones en enfermedades como la tuberculosis y la malaria, que antes se consideraban curables, haciéndolas mas difíciles e incluso, en algunos casos, imposibles de tratar.


LOS ANTIBIÓTICOS HAN DESAPARECIDO

El Dr. John Birger, especialista en enfermedades infecciosas, camina por los desgastados pasillos de Aker, acariciando en sus amplios bolsillos blancos “Su Biblia”, una pequeña Guía del Antibiótico, que detalla la impresionante solución, y sencilla, que se llevó a cabo en este país.

Lo que hace tan notable este libro no es lo que tiene, sino lo que falta, una gran variedad de antibióticos.

“ A vece hay que reeducar a nuestros médicos en las reglas de oro, no recetar tanto, pues nuestros pacientes no sufren más por ello, y nuestra nación, en consecuencia, tiene un menor número de infecciones”, dice.

El modelo de Noruega es sorprendentemente sencillo
Los médicos prescriben menos antibióticos que en cualquier otro país del mundo, de este modo la gente no crea resistencia a ellos.
Los pacientes con MRSA ( Staphylococcus aureus resistente a la Meticilina) que han dado positivo en las pruebas se quedan en casa.
Los médicos hacen un seguimiento de caso de MRSA, entrevistando a los pacientes acerca de dónde han estado y con quién han tenido contacto.
No recetar antibióticos a toda persona con fiebre, dice Haug, “les decimos que hay que aguantar, esperar y ver, y les damos un Tylenol para que se sientan mejor”.


REACCIÓN EN ESTADOS UNIDOS

El Dr. John Jernigan del Centro estadounidense para el Control y Prevención dijo que están pensando algunas de las soluciones aplicadas en Noruega y que “ está requiriendo a los hospitales para que lo ensayen y ver si de este modo se muestran mejoras, y si no se logran es que es preciso hacer más”. “Nadie es responsable de nuestras recomendaciones, pero supongo que los hospitales e instituciones están interesados en actuar correctamente.”

En otras partes también se ha adaptado el método de Noruega con resultados alentadores. En un centro médico de Monte Billings, se ha logrado suprimir las infecciones por MRSA en un 89%, aislando a los pacientes y con mayores medidas higiénicas por parte de todo el personal hospitalario.


En 2001, el CDC hizo un pequeño ensayo en un hospital de Pittsburgh, en una de sus unidades. El resultado fue una reducción del 80% en las infecciones por MRSA.

El programa se ha ampliado a todos los hospitales de la zona, resultando un descenso del 50% en las infecciones en el torrente sanguíneo por MRSA, dijo el Dr. Robert Muder, jefe de enfermedades infecciosas en el Pittsburgh Healthcare System.

“ Es una forma de ayudar a la gente, se ahorra dinero, se salvan vidas, y podemos enseñar lo que aprendemos de nuestra experiencia en el hospital. Aquí no se paga por una infección, simplemente.”

http://www.miamiherald.com/2010/01/11/1420165/norway-conquers-infections-by.html


http://eds.nireblog.com/post/2010/03/09/noruega-gana-la-batalla-a-las-infecciones-reduciendo-el-uso-de-antibioticos

lunes, 8 de marzo de 2010

Sobre un estudio de la efectividad del Zanamivir en el tratamiento de la gripe



Con la reciente gripe H1N1 los antivirales adquirieron por lo menos unos niveles de atención y propaganda inusitados, alentado por la publicidad de los laboratorios, autoridades sanitarias y algunos médicos, que hablaban maravillas de sus propiedades para destruir los virus gripales. Incluso se convirtió en un medicamento de seguridad nacional, ya que fue al ejército al que se le encomendó la misión de custodiarlo y elaborar las dosis para su consumo.

Pero si observamos la siguiente información publicada ya en el año 2000 por el Servicio Navarro de Salud, no acabamos de entender su éxito mediático si no es a base de una campaña no en su efectividad sino en otros parámetros que ya hemos ido viendo como han quedado al descubierto. ¡Ya observaremos lo que da de si la investigación abierta por el Consejo de Europa sobre la gestión de la gripe A H1N1!

Como decíamos, el Servicio Navarro de Salud publicó la primera de sus “Fichas de Evaluación Terapéutica, que dedica a un pequeño estudio de la efectividad de Relenza, un antiviral que tiene como principio activo el Zanamivir, fabricado por GlaxoSmithKline. Por aquellas fechas todavía no se comercializa Tamiflu, que tiene como principio activo el oseltamivir, y que fabrican los laboratorios suizos Roche.

“ Zanamivir (Relenza®) es un nuevo antiviral comercializado para el tratamiento de la infección por el virus de la gripe. Su mecanismo de acción consiste en la inhibición de las neuraminidasas de los virus Influenza A y B, dando lugar a la inhibición de la replicación del virus.

Tratamiento de la Influenza A y B (principales tipos de virus que provocan las epidemias de gripe) en adultos y adolescentes (≥ 12 años) que muestran síntomas típicos de la gripe cuando se ha detectado la presencia del virus en la comunidad.

No está indicado para la prevención de la gripe (1).

Se han publicado 3 ensayos clínicos controlados, doble ciego, randomizados (2-4) sobre el uso de zanamivir en el tratamiento precoz de la gripe. Todos ellos tienen como objetivo primario medir los días que transcurren hasta el alivio completo de los síntomas mayores de la gripe (fiebre, dolor de cabeza, mialgia, tos, dolor de garganta). La utilización de otros fármacos (paracetamol, antitusivos, descongestionantes, etc) fue diferente en cada estudio. No hay ningún ensayo que compare directamente zanamivir con paracetamol (5).

Los tres ensayos se realizaron en adultos sanos.

No se conoce si zanamivir puede reducir la morbilidad y mortalidad en pacientes con riesgo de padecer complicaciones (pacientes con patología respiratoria, asma leve a moderada, mayores de 65 años, alteraciones endocrino-metabólicas, cardiovascular, inmunodeprimidos) estén o no vacunados (5,6).

[...]

El perfil de seguridad es similar al del placebo (1,5,6). Los efectos adversos más frecuentes (≥1% de los pacientes) son síntomas gastrointestinales y del tracto respiratorio alto. Parece probable que sean causadas por la infección vírica (5,6). En algunos pacientes con asma leve a moderada se han descrito sibilancias. En pacientes con asma grave o EPOC la experiencia es muy limitada y su seguridad y eficacia no está establecida (5,6). Recientemente, se han comunicado algunos casos de broncoespasmo en pacientes con asma o EPOC, por lo que se aconseja vigilar cuidadosamente a estos pacientes si se les administra zanamivir.

Hipersensibilidad a algún componente de la preparación (1).

Debido al número limitado de pacientes tratados no ha sido posible demostrar la eficacia de zanamivir en ancianos, en pacientes con asma u otras enfermedades respiratorias crónicas, en pacientes con enfermedades crónicas inestables o pacientes inmunodeprimidos (1,5,6).

No se recomienda en niños menores de 12 años, en embarazadas ni durante la lactancia (1,5,6).


La vacunación frente a la gripe es la única forma de prevenir la gripe en pacientes con alto riesgo de sufrir complicaciones, debido a que padecen enfermedades crónicas, a su edad avanzada o por estar institucionalizados.


Zanamivir posiblemente disminuya la duración de los síntomas mayores de la gripe en 1-2.5 días en adultos sanos y adolescentes cuando se administra en las primeras 48 horas del comienzo de los síntomas y durante 5 días. En estos pacientes el fármaco es bien tolerado.


No hay datos que sugieran que zanamivir prevenga las complicaciones graves o reduzca la mortalidad en pacientes de alto riesgo de desarrollarlas).



TIPO CLASIFICACIÓN DEL POTENCIAL TERAPÉUTICO
B MODESTA MEJORA TERAPÉUTICA
* El fármaco se dispensa con receta médica y no se financia por el
Sistema Nacional de Salud."

Es decir, la conclusión del estudio es la de UNA MODESTA MEJORA TERAPÉUTICA. ¡Esto no le debían de saber las autoridades sanitarias cuando lanzaron a los cuatro vientos las maravillas terapéuticas de su uso!

http://www.cfnavarra.es/SALUD/PUBLICACIONES/Fet/textos/FET_2000_1.pdf

domingo, 7 de marzo de 2010

Riesgos del Reactor Presurizado Europeo (EPR)

Esta vieja planta atómica excavada en la roca se convierte en la pesadilla francesa del desmantelamiento.


Riesgo de accidente nuclear del Reactor Presurizado Europeo, EPR.

La organización francesa “Sortir du necléaire”, ha hecho públicos unos documentos confidenciales conseguidos por una fuente anónima interna de EDF, empresa eléctrica francesa. Estos documentos demuestran que el diseño del Reactor Presurizado Europeo implica un grave riesgo de accidente nuclear, debido a un recorte en los gastos de construcción. Sería posible una fuga de consecuencias incontrolables, extremadamente peligrosa.

Ciertas formas de control del reactor EPR podrían provocar la explosión del mismo, a causa de un accidente por eyección en racimo (elementos que permiten controlar la reacción nuclear). Estas formas de control están sujetas a un aumento en la rentabilidad económica, permitiendo ajustar la potencia del reactor a la demanda eléctrica.

Para encontrar una justificación económica al EPR, sus diseñadores eligieron una forma de control que puede tener un riesgo real de accidente nuclear. Además, los argumentos a favor del EPR, su potencia, su rendimiento, la disminución de residuos, el aumento en la seguridad, etc... son falsas

EFF y Areva han intentado cambiar el sistema de control, pero no han conseguido eliminar los peligros de este tipo de accidentes. La Autoridad de Seguridad Nuclear (ASN) francesa se mantiene al margen de este tipo de cuestiones.

Así que el diseño del EPR aumenta el riesgo de un accidente parecido al de Chernobyl, lo que supondría la destrucción de la tapa de contención y la dispersión de los radionucleidos en la atmósfera.

Es indignante que Francia y otros países europeos promuevan la energía nuclear, y en particular el Reactor Presurizado, porque el peligro de este tipo de reactores está demostrado. Se debe parar de forma inmediata la construcción del EPR en Finlandia, en Francia y en China. La cancelación del proyecto previsto en Penly es un imperativo. La mejor manera de prevenir accidentes nucleares es abandonando la energía nuclear.


Philippe Brousse
07/03/2010
Véanse los documentos confidenciales, que pueden descargarse desde el sitio web:
http://www.sortirdunucleaire.org


Fuente: http://www.votre-sante.com/suite.php?dateedit=1267956865

Nuestro problema con las otras drogas: los medicamentos


Silvio Garattini. Director del Instituto Mario Negri de Investigaciones Farmacológicas de Milán.

El Nuevo Diario, 17 de enero de 2010

Con toda la atención que los medios oficiales y los medios de comunicación prestan al comercio mundial de drogas ilícitas, el público tiene, en el mejor de los casos, un conocimiento vago de los graves problemas que afectan la producción, los ensayos y la venta de las legales: los medicamentos que tomamos para tratar o curar todo, desde el Sida hasta la fiebre amarilla.

La creación de nuevos medicamentos es un proceso complejo y lento. Comienza con una idea y requiere una gran diversidad de aptitudes para llevarla a buen término: síntesis o extracción de moléculas más o menos complicadas, prueba de su efecto terapéutico en cultivos de células y animales, pruebas de toxicidad y estudios clínicos.

A lo largo de ese camino, muchos medicamentos potenciales acaban retirados e incluso medicamentos que han dado buenos resultados en los ensayos afrontan otro obstáculo: el de la aprobación reglamentaria. Por fin, el medicamento llega al mercado, donde se debe seguirlo de cerca, porque muchas reacciones perjudiciales sólo se detectan con un gran número de pacientes y después de años de utilización.

Actualmente, hay varios miles de medicamentos en el mercado, pero las condiciones en el mercado de los medicamentos distan de ser óptimas. En una situación ideal, los medicamentos deben tener un coeficiente riesgo-beneficio favorable. Comparados con otros medicamentos con las mismas indicaciones, se deben seleccionar los nuevos medicamentos en función de su seguridad, eficacia y costo, pero los intereses financieros que entrañan suelen distorsionar el proceso creando incentivos para sobreestimar los beneficios de los nuevos medicamentos, subestimar los riesgos y, por encima de todo, aumentar al máximo sus prescripciones.

¿Qué se puede hacer? En primer lugar, los nuevos medicamentos siempre deben ofrecer un valor añadido: mayor eficacia, menor toxicidad o una mayor facilidad de tratamiento. Lamentablemente, no lo requiere así la legislación actual de la UE, donde sólo se debe demostrar la calidad, la eficacia y la inocuidad, sin necesidad de hacer estudios comparativos. Así, pues, existe el riesgo de que los nuevos medicamentos sean, en realidad, peores que productos que ya están en el mercado.

Con frecuencia se hacen ensayos con los nuevos medicamentos comparándolos con placebos o medicamentos que no son el mejor tratamiento disponible, pues lo que se pretende demostrar es que el nuevo medicamento no es inferior a cualquiera de los que están en el mercado, pero es éticamente objetable hacer ensayos de un medicamento para demostrar que “no es inferior”, porque se expone a los pacientes a posibles riesgos, al tiempo que, en el mejor de los casos, se contribuye a la obtención de un medicamento que no es mejor que los ya disponibles. El consentimiento con conocimiento de causa de los pacientes no suele aportar una descripción clara de un ensayo para demostrar que no es inferior y la falta de valor añadido indica que en muchos casos la creación de un nuevo medicamento está inspirada en fines comerciales y no en las necesidades de los pacientes.

En segundo lugar, la mejora del proceso de creación de medicamentos requiere más transparencia de los órganos reguladores. En la actualidad, el productor de un nuevo medicamento prepara todo el expediente presentado al organismo regulador para su aprobación; en pro del interés del público, al menos uno de los ensayos clínicos debería correr a cargo de una organización sin ánimo de lucro. Además, sólo los reguladores pueden examinar los expedientes, que son sumamente confidenciales. Resulta inaceptable que los pacientes que participen voluntariamente en ensayos clínicos y sus representantes no tengan derecho a ver datos que, de no haber sido por ellos, no existirían.

En tercer lugar, unas mejores condiciones para la aprobación de los nuevos medicamentos deben ir acompañadas de una mejor utilización de ellos, lo que requiere una mejor información para quienes los prescribe. En la actualidad, la información facilitada por los fabricantes de medicamentos predomina en gran medida sobre la información independiente. A consecuencia de ello, se utilizan ciertos medicamentos con mucha mayor frecuencia de lo que sería de esperar por sus indicaciones aprobadas. A esa utilización “sin tener en cuenta el prospecto” contribuye una continua propaganda destinada no sólo a los médicos, sino también directamente al público.

Una información directa, pero imprecisa, suele propiciar el comercio con las enfermedades: la creación de enfermedades para aumentar las prescripciones. Por ejemplo, el concepto de prehipertensión podría ampliar la utilización de los medicamentos contra ella espectacularmente, porque la presión sanguínea de todo el mundo aumenta con la edad. Asimismo, la idea de que el nivel de colesterol en la sangre debe ser lo más bajo posible abre el camino al tratamiento de personas sanas con agentes anticolesterolémicos. Es evidente que las autoridades sanitarias deben controlar más estrechamente la información dando muestras de mayor responsabilidad en materia de formación permanente de los doctores.

Si las condiciones para la aprobación y comercialización de medicamentos resultan más estrictas, las empresas farmacéuticas se verán obligadas a producir menos medicamentos innecesarios y exclusivamente encaminados a emularse unas a otras y más productos de importancia clínica. La exigencia de períodos más largos de ensayos y posiblemente de recursos suplementarios podría compensarse con una mayor longevidad de los medicamentos en el mercado y se podría ampliar el alcance de la patente.

Por último, hay que encontrar incentivos para alentar a las empresas farmacéuticas a que creen medicamentos que atiendan las necesidades de los pacientes que aún no hayan conseguido una terapia. Hay más de 6.000 enfermedades raras y desatendidas –muchas de ellas en países en desarrollo– que carecen de remedios. El problema y el imperativo son los de producir nuevos medicamentos que, como los pacientes son demasiado pocos o demasiado pobres, prometen beneficios muy limitados.

Una asociación entre gobiernos, instituciones de investigación sin ánimo de lucro, organizaciones benéficas y empresas farmacéuticas podría ser una forma de ordenar el proceso de aprobación de nuevos medicamentos. Si la conciencia pública de los problemas actuales estimula a los políticos a buscar una solución que dé resultado, será posible conseguir mejores medicamentos y una mejor utilización de ellas.

impreso.elnuevodiario.com.ni/2010/01/17/opinion/117379