| portada articulo 1 | portada articulo 1 | ||
|
|
|||
|
titulo book antigua 12 negrita
|
|||
|
book antigua 10
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
| artículo georgia 12 | |||
|
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|
|||
|
Ética y genética
|
|||
|
Rubén Lisker
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
|
Los principales objetivos del proyecto genoma humano son: 1) averiguar la ubicación cromosómica de los alrededor de cien mil genes que forman el genoma humano, empezando por aquellos que producen enfermedades, y 2) conocer la secuencia de los tres mil millones de pares de bases que integran nuestro ácido desoxirribonucleico (adn). Ambos objetivos están muy adelantados y se considera que los resultados del proyecto serán sumamente benéficos para la humanidad, quedando sin embargo la inquietud de cuál es el uso que se dará a los nuevos conocimientos y si en realidad se emplearán para bien del hombre.
Una de las organizaciones internacionales preocupadas por el asunto fue la unesco, que por decisión de Federico Mayor, su director general, creó en 1993 el Comité Internacional de Genética, con el fin de convertirlo en un foro libre de intercambio de ideas para analizar las implicaciones sociales, políticas, éticas y legales del uso de los resultados del Proyecto. El objetivo final es producir un documento que terminó llamándose Declaración Universal sobre el Genoma Humano y los Derechos Humanos.
El Comité estuvo dirigido por una distinguida jurista francesa, Noelle Leonoir, y se integró, por invitación de la unesco, con cerca de cincuenta personas, entre científicos, juristas, filósofos y políticos. La mitad de los integrantes provenían de países en vías de desarrollo, cuatro de los cuales eran representantes de América Latina: tres genetistas humanos (Argentina, Chile y México) y un jurista de Uruguay que encabezó la comisión legal del Comité, y se encargó de redactar el documento a que hicimos referencia en líneas previas. De 1993 a 1996 se realizaron cuatro sesiones generales del Comité en las que se discutieron a fondo numerosos temas relacionados con la ética y genética, cuyos detalles se pueden encontrar en publicaciones de la unesco sobre el particular aparecidas de 1994 a 1997. La comisión legal presentó un anteproyecto sobre la protección del genoma humano en 1994, el cual fue modificado cada año, distribuyéndose por todo el mundo con objeto de recibir opiniones y enriquecer el documento final, el cual se aprobó por unanimidad el 11 de noviembre de 1997, durante los trabajos de la 29 reunión de la Conferencia General de la unesco.
Federico Mayor señala que el texto busca equilibrar la garantía del respeto a los derechos y libertades fundamentales del hombre con la necesidad de garantizar la libertad de la investigación científica. La Conferencia General de la unesco acompañó a la Declaración con una resolución en la que pide a los Estados enunciados en ella favorecer su aplicación. El compromiso moral contraído por los Estados al adoptar la Declaración se considera como un punto de partida: una toma de conciencia mundial de la necesidad de una reflexión ética sobre la ciencia y la tecnología. Es ahora prerrogativa de los países dar vida a la Declaración con las medidas que cada uno decida adoptar.
La Declaración consta de veinticinco artículos distribuidos en los siguientes siete apartados: a) la dignidad humana y el genoma humano, b) derechos de las personas interesadas, c) investigación sobre el genoma humano, d) condiciones de ejercicio de la actividad científica, e) solidaridad y cooperación internacional, f) fomento de los principios de la declaración y g) aplicación de la Declaración. La Declaración está redactada en términos muy generales, como es usual en documentos que requieren el consenso de todos los países involucrados, pero representa lo enunciado por Federico Mayor: una toma de conciencia universal de la necesidad de una reflexión ética sobre la ciencia y la tecnología.
El código ético de Hugo
Hugo es el acrónimo de Human Genome Organization, grupo no gubernamental que trata de hacer más eficiente el proyecto. Una de sus recientes iniciativas es el proyecto diversidad del genoma humano, que tiene como fin averiguar la diversidad del genoma humano analizando el adn de quinientas poblaciones humanas. Esto ha generado una serie de preocupaciones, entre otras: 1) temor a que se estigmatice y discrimine a personas o grupos y se promueva el racismo, 2) perder el acceso universal a los nuevos conocimientos cuando éstos sean patentados y 3) reducir el concepto de ser humano a su adn y que nuestros problemas sociales sean atribuidos a causas genéticas.
Por lo anterior, la directiva de Hugo pidió a su Comité de asuntos éticos, legales y sociales que emitiera una serie de recomendaciones para garantizar que todos los proyectos se ajusten a los más rigurosos conceptos éticos. De carácter internacional y multidisciplinario, el Comité, dirigido por la jurista canadiense Bartha María Knoppers, emitió una serie de recomendaciones más específicas que las del Comité Internacional de Bioética de la unesco, lo que se comprende por tratarse de un grupo de trabajo pequeño que no requiere el consenso de todos los países. Las recomendaciones emitidas son: 1) que es indispensable el cuidado de la calidad científica de las investigaciones en humanos, para que éstas sean éticas; 2) en el proceso de comunicación con comunidades deben tomarse en cuenta las características culturales de la población; 3) la consulta debe hacerse antes de reclutar a los posibles participantes en una investigación; 4) es necesario un consentimiento informado de los participantes que no sea coercitivo y que explique con claridad los detalles de la investigación; 5) debe respetarse la decisión de los participantes y asegurarles el respeto a su vida privada, cuidando la confidencialidad de la información recabada, y 6) debe codificarse la información para impedir el libre acceso a ella, siempre cuidando los intereses de los individuos investigados y de sus familiares.
A un nivel menos general y más concreto pensamos que aun cuando el proyecto genoma humano no vaya a plantear nuevos problemas éticos, en la práctica de la genética médica en nuestro país éstos sí serán mucho más frecuentes, por lo que es necesario ir meditando sobre ellos, pues la ciencia va mucho más rápido que las reflexiones éticas, particularmente en un país como el nuestro, en que el nivel de discusión crítica y abierta de los problemas se estila poco.
El problema del aborto electivo
En la mayor parte del país el aborto es ilegal y todos los intentos que se han hecho para que la ley al respecto sea más liberal han fracasado. En la actualidad sólo se permite cuando el embarazo es producto de una violación o si la vida de la madre está en peligro. Nadie, que yo sepa, está a favor del aborto. Lo que sí se ha intentado es que éste se permita en algunas circunstancias, entre otras, cuando exista la certeza de que el producto tiene un padecimiento genético grave, lo que no sólo impediría una vida sin razonable calidad, sino que además interferiría con el bienestar familiar. Este tipo de aborto recibe el nombre de eugenésico, lo que puede ser visto como un intento de descalificarlo a priori, ya que la palabra eugenesia se ha convertido en un término negativo por las atrocidades cometidas en Alemania durante la Segunda Guerra Mundial y por los programas de esterilización obligatorios realizados en algunos países escandinavos, Estados Unidos y Canadá en la década de los treintas.
Los argumentos a favor y en contra del aborto electivo no convencen a nadie de los que están del lado contrario; así, dada la poca información objetiva que hay en México sobre el particular, se realizó una encuesta en cinco grupos de médicos: genetistas, obstetras, internistas, pediatras y neurólogos, a quienes se les hicieron cuatro preguntas con relación al aborto electivo: a) qué opinaban cuando se hacía sólo a solicitud de los interesados; b) cuando el producto tenía una malformación congénita; c) cuando la malformación era grave, y d) cuando el problema era personal. Respecto a la primera pregunta sólo 15% estuvo de acuerdo con el aborto, pero la cifra subió a 50% y 90% en la segunda y tercer preguntas. Cuando se personalizó la situación (pregunta d) bajó a 70% quienes estaban de acuerdo con el aborto. En las contestaciones no intervino el género del encuestado, su edad y su experiencia en ver enfermos con malformaciones; el único factor que dio diferencias significativas fue el grado de religiosidad, pero aun entre los médicos que manifestaban que la religión era importante o muy importante en su vida diaria, la mayoría estuvo a favor del aborto electivo en las preguntas c y d.
Pienso que la decisión de realizar un aborto es exclusiva de la pareja. El genetista debe informar y asegurarse que la información sea bien comprendida. El procedimiento nunca deberá ser obligatorio y si una pareja decide llevar a término el embarazo de un producto afectado no se debe interferir con esa decisión. Estoy seguro de que no habrá un consenso respecto a este problema y que a lo más a que se podría llegar es a que la sociedad permita que cada quien obre conforme su propia conciencia, lo cual sería ideal desde mi punto de vista, pero también muy difícil de lograr.
Respeto a la autonomía del enfermo
En los países anglosajones se hace mucho énfasis en respetar la autonomía de las personas y en que al proporcionar el llamado consejo genético, el genetista sólo debe explicar cuál es el problema, sin tratar de influir en la decisión del paciente. Encuestas realizadas en México entre diferentes especialistas médicos, incluyendo genetistas, señalan que lo anterior no ocurre y que el consejo genético casi nunca es neutral y priva el deseo del genetista de ayudar a sus pacientes, proporcionándoles el “mejor” consejo posible, basado en los valores del médicos y en su idea de la importancia del problema sobre el que está asesorando. Esta actitud es también la que prevalece en el mundo no anglosajón y ha sido criticada por ser considerada como una política eugenésica. Pensamos que esta crítica no es correcta ya que el médico nunca tiene en mente: 1) mejorar la composición genética de la población, ni 2) toma actitudes coercitivas. Ambos elementos necesarios para hablar de la eugenesia propiamente dicha.
Confidencialidad
La confidencialidad es el acuerdo (no explícito) entre el médico y su paciente, en el que el primero se compromete a no dar información relativa al paciente, a menos que tenga su permiso. En genética médica el primer problema es definir quién es el paciente, si el enfermo que consulta o toda su familia que comparte los mismos genes. Esto es relevante, ya que el médico tiene como obligación, además de guardar la confidencialidad, proteger de daño a terceros cuando esto es posible.
En las encuestas que hemos realizado en México resulta claro que los genetistas están más interesados en proteger de daño al cónyuge, a los parientes directos del enfermo y al público en general, que mantener la confidencialidad del paciente. Esto pasa en todo el mundo, excepto en el norte de Europa y en poblaciones de habla inglesa, que dan mayor importancia a mantener la confidencialidad que a proteger a terceros. Afortunadamente existe una solución parcial a este dilema, pues el médico puede advertir al paciente, antes de darle consulta, que si ocurre una situación en la que por motivos médicos convenga informar a otros de cuál es su situación lo hará aun cuando el o la paciente no lo deseen. Ello permite al paciente decidir si consulta a ese médico o prefiere cambiar de facultativo. Es claro que en México y en otros países el principio ético dominante es evitar el daño a terceros, más que respetar la autonomía del paciente.
Medicina predictiva
Cada vez es más fácil, mediante el uso de pruebas de laboratorio, conocer el riesgo que tiene determinada persona de desarrollar más tarde alguna enfermedad genética. Pondré como ejemplo una enfermedad neurodegenerativa, la Corea de Huntington. Los primeros síntomas suelen aparecer a los cuarenta años, son progresivos y los pacientes mueren diez años después con problemas de manejo en el lapso sumamente difíciles. Por su forma de herencia se sabe que cada hijo, independientemente del sexo, tiene 50% de riesgo de padecerla, y en la actualidad hay manera de tener la certeza, desde la más tierna infancia, si un sujeto de riesgo tiene o no la enfermedad.
El dilema es que podemos estar seguros de que un sujeto tiene la enfermedad a la edad de cinco años, por ejemplo, pero será treinta y cinco años después cuando esa persona mostrará los primeros síntomas. ¿Hay que informarle de ello y a qué edad? ¿Cómo saber si no va a morir de otra circunstancia antes de los cuarenta años? Ante esto vale la pena preguntarse qué se ganó al informarle fuera de preocuparlo y hacerlo infeliz desde que se enteró. En el fondo el problema radica en que podemos diagnosticar la enfermedad pero no tratarla, y es seguro que cada vez habrá más ejemplos similares; de hecho, en la actualidad ya se conocen genes que predisponen a cáncer de mama en la mujer, y quien los tiene, si llega a los ochenta años, cuenta con 90% de posibilidad de desarrollar este tumor maligno. ¿Qué hacer? ¿Recomendar mastectomía bilateral preventiva?, ¿a qué edad hacerla?, son interrogantes que, aparte de no tener respuesta, necesitan investigarse a fondo antes de ofrecer pruebas predictivas a la sociedad, situación que de ocurrir podría tener un gran éxito comercial.
Terapia génica
La terapia génica es la manipulación del adn de células vivas con objeto de modificarlo e introducirlo al organismo con fines terapéuticos. Se puede realizar en células somáticas, en cuyo caso, si llega a suceder cualquier imprevisto negativo, sólo se afecta al individuo en que se está intentando y no presenta ningún problema ético en particular, ya que el procedimiento es igual a cualquier otro procedimiento terapéutico en fase experimental y debe someterse a los mismos reglamentos.
Esta terapia también puede aplicarse en células germinales, pero en la actualidad existe consenso de que no debe realizarse, ya que de haber efectos imprevistos, en particular a largo plazo, podrían manifestarse en los descendiente de los sujetos en que se realizó el procedimiento, lo cual resulta indeseable. En lo que sí se está de acuerdo es en que hay que tener mucho más experiencia con el procedimiento realizado en células somáticas, antes de intentarlo en las germinales.
La terapia génica aún está en la infancia y es posible que se convierta en un arma terapéutica muy útil para el tratamiento de diversas enfermedades, pero debe quedar claro que su uso será precisamente para eso, curar enfermedades, y no para “mejorar” a las personas aumentando su talla o cambiando el color del pelo o de los ojos, ya que ello implica juicios de valor con connotaciones negativas y francamente racistas para algunos individuos o grupos de personas.
|
|||
|
Rubén Lisker
Instituto Nacional de la Nutrición Salvador Zubirán.
_______________________________________________________________
como citar este artículo → Lisker, Rubén. (2000). Ética y genética. Ciencias 58, abril-junio, 26-30. [En línea]
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||||
|
|
|||||
|
El proyecto del genoma humano
|
|||||
| Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
|
|||||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||||
|
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
La participación de otros países
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
El proyecto en América Latina
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
Las aristas del proyecto
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
|
|||||
|
Referencias bibliográficas
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
|
|||||
|
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Noguera Solano, Ricardo y Ruiz Gutiérrez, Rosaura. (2000). El proyecto genoma humano. Ciencias 58, abril-junio, 4-13. [En línea]
|
|||||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|
|||
|
Genes ¿para qué?
|
|
||
|
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
|
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
|
|||
|
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
_______________________________________________________________
como citar este artículo → Gilgenkrantz, Helène y Guidotti Jacques Emmanuel, Kahn Axel. (2000). Genes ¿para qué? Ciencias 58, abril-junio, 15-21. [En línea]
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|
|||
| Medicina y mercado. La genética del cancer de seno |
|
||
| Maurice Cassier y Jean Paul Gaudillière
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
|
En la actualidad, el ámbito en que se desenvuelve lo referente al cáncer de seno es prototípico de la nueva genética humana, así como de las redes de investigación e innovación que la sostienen. La investigación sobre los genes de predisposición a este cáncer comenzaron con los primeros talleres alrededor del genoma humano llevados a cabo a mediados de los años ochentas. Para los investigadores en genética que hasta entonces habían trabajado enfermedades poco extendidas, se trataba de la posibilidad de abordar “una patología de importancia”, en palabras de Marie Claire King. El encuentro de la ciencia y el mercado llegó muy rápidamente con la expansión de inversiones, patentes, comercialización de pruebas de diagnóstico, etc.
Este desarrollo de la investigación biomédica parece ilustrar a la perfección la tesis de Gibbons y sus colaboradores, según la cual un nuevo modo de producción de conocimientos y técnicas está emergiendo en el contexto de las aplicaciones de la ciencia y en el marco de una red de instituciones heterogéneas (centros clínicos, laboratorios universitarios, empresas de biotecnología y laboratorios farmacéuticos). En él, la colaboración de los investigadores con la industria y el mercado está lejos de ser uniforme, y la república de los sabios, caracterizada por un cierto “desdén” hacia la técnica y la economía, sigue coexistiendo con formas de investigación que se inscriben directamente en el marco de la industria y el mercado.
Los medios de producción de conocimientos y técnicas
Los primeros trabajos sobre la genética del cáncer de seno fueron iniciados por investigadores universitarios que movilizaron recursos disponibles en los medios clínicos y académicos. Así, a mediados de la década de los ochentas, Gilbert Lenoir, un investigador francés de Lyon, visitó Islandia y después Estados Unidos en busca de genealogías familiares bien documentadas, muestras de adn y marcadores genéticos. En esa época, las colecciones de datos familiares sobre cáncer eran en general raras (hasta fines de la década de los setentas, la cuestión acerca de la herencia del cáncer era científicamente marginal). Uno de los pocos lugares en donde se había tomado como objeto de investigación el carácter hereditario de numerosos tipos de cáncer era la clínica de Henry Lynch, en Omaha, Nebraska. Lynch se encuentra a la cabeza de un consultorio de genética de cáncer que recibe gente de toda la región, lo que le sirve para abastecerse de material para la construcción de una colección de casos.
El acervo de Lynch contiene fichas individuales de los pacientes, de los árboles genealógicos reconstituidos tras las entrevistas y las muestras de tejido tomadas de algunos pacientes. Además, contiene miles de genealogías y nutre, en primer lugar, las publicaciones de Lynch y sus colaboradores. A partir de la década de los ochentas, la caza de genes que predisponen al cáncer le confiere un nuevo interés. Muchos investigadores se desplazan hasta Omaha para negociar el acceso a esta colección, que no se encuentra a disposición del público pero tampoco es directamente explotada por Lynch, quien no dispone de un laboratorio de genética molecular. Tras una corta colaboración con una genetista estadounidense, Lynch decide proporcionar sus datos de cáncer de seno y de ovarios al genetista que había venido desde Lyon. Lenoir se convierte en su colaborador.
El trato entre Lynch y Lenoir se establece, sin acuerdo escrito de por medio, sobre la base de una relación personal fundada en la confianza (para el primero, el francés es un investigador de gran calidad que sabrá valorar su colección), en la fidelidad (se garantiza a Lenoir el acceso exclusivo a estos datos y se hace de lado a otros universitarios interesados) y en la reciprocidad (Lynch recibe como beneficio la aparición de su nombre en todas las publicaciones que utilicen su colección), por lo que las muestras y las genealogías de Henry Lynch se encuentran exclusivamente en el laboratorio de Lenoir, en el Centre International sur le Cancer de Lyon. Esta colaboración es durable, pues en 1999 Lynch aparece aún como autor en todos los artículos de Lenoir.
A fin de obtener los marcadores necesarios para seguir la transferencia de las regiones cromosómicas entre individuos de una misma familia, Gilbert Lenoir tuvo que acudir a Ray White, de la Universidad de Utah, ya que en Francia no los había, y además, a mediados de los ochentas los marcadores circulaban bastante libremente entre los investigadores, conformando una red de investigación colectiva. Así, por ejemplo, Marie Claire King, quien localizó el primer gen de predisposición al cáncer de seno en 1990, trabajaba en ese entonces en el Centro de Estudios sobre el Polimorfismo Humano, creado por Daniel Cohen y Jean Dausset en 1983. El dispositivo de investigación se basaba en el examen de todos los marcadores potenciales en un mismo pool de familias, cuyos árboles genealógicos eran bien conocidos (se trataba de familias reunidas por Dausset para poner en evidencia los genes que controlan la compatibilidad de tejidos y el rechazo de transplantes). Los resultados de los estudios de localización de los marcadores candidatos se comparaban de un laboratorio a otro, y sobre todo durante los seminarios periódicos que reunían a los “cartógrafos” del genoma.
Esta empresa de investigación colectiva estaba fundada en el establecimiento de un mismo pool de familias para todos, en el empleo de un protocolo mínimo para realizar las pruebas y en la libre circulación de los resultados que se sumaban para construir un mapa genético. Cabe señalar que la coordinación de recursos y conocimientos era particularmente necesaria y benéfica en el momento de establecer la ubicación de los elementos en el mapa. Este dispositivo de investigación coordinada permitía reducir la duplicación de tareas y el desperdicio de recursos, al tiempo que la coherencia de los resultados era mantenida constantemente por el colectivo. La entrada a esta red se encontraba condicionada a un respeto total de las reglas establecidas por los fundadores del Centro de Estudios sobre el Polimorfismo Humano. Su reglamento prevé la disposición gratuita de las muestras de adn de las familias del pool a cambio de los resultados obtenidos, a fin de que el Centro disponga de ellos (esta estructura proviene de los seminarios hla, iniciados por el mismo Dausset a mediados de los sesentas).
En 1989, a iniciativa de un investigador francés del Centro Internacional de Investigación sobre el Cáncer, los investigadores que habían emprendido la búsqueda de los genes de predisposición al cáncer de seno constituyeron su propio consorcio internacional. La localización del primer gen ubicado por Marie Claire King, el brca1, determinó la primera tarea de dicho consorcio: la confirmación del sitio en el que este gen se encuentra localizado. En la segunda reunión del consorcio, que tuvo lugar en Londres, King describió los marcadores utilizados —resultados que aparecieron casi al mismo tiempo en una publicación de diciembre de 1990— y cada uno de los participantes regresó a su laboratorio con esta información para hacer la prueba en sus propias familias. En la tercera reunión, celebrada en mayo de 1991 en Edimburgo, el equipo de Lenoir presentó los resultados de algunas familias con un número elevado de cáncer de seno y de ovarios, que confirmaban los datos de King. El primer beneficio del consorcio internacional fue la libre circulación de las herramientas y los datos de las investigaciones, así como el aceleramiento de la validación de los resultados por la comunidad científica. Inmediatamente después se entabló un estudio de amplia colaboración con un pool de veinticuatro familias, para afinar la localización del gen. Para ello se seleccionaron seis marcadores que serían probados por cada participante. Las muestras de adn de las familias de cada uno de ellos no circularon, pero sí los resultados de los estudios, los cuales fueron transmitidos a un centro de estadística encargado del análisis del conjunto de los datos. Los resultados se dieron a conocer por el total de los participantes.
La dinámica de cooperación coexistía con una fuerte competencia, tanto académica (prioridad de publicación) como industrial (prioridad de registro de patente). Si bien los laboratorios compartían algunos marcadores para afinar la localización del gen, guardaba para ellos los marcadores más prometedores, “los recombinantes críticos”. Cada uno de los participantes siguió su propia estrategia para identificar el gen. Y mientras más delimitada era la región en que éste se encontraba, más se cerraban los intercambios. Así, el consorcio se fragmentó en una serie de grupos, cada uno de los cuales se acercó o se unió a una industria. Los intercambios de datos estratégicos eran grandes al interior de cada grupo y mínimos o nulos entre grupos. Así, las reuniones perdieron su esencia y “el consorcio internacional se disolvió muy rápido en miniconsorcios que nunca se integraron, cuenta una investigadora de Berkeley a la que entrevistamos. Hubo varias reuniones, pero nadie quería presentar sus datos críticos. En aquel entonces éstos trataban de la localización de recombinantes críticos”.
Durante la búsqueda del segundo gen de predisposición, el brca2, la competencia se sobrepuso nuevamente a la cooperación. Si bien los laboratorios colaboraron para construir una primera carta del gen, publicada en Nature en diciembre de 1994, se dividieron para clonarlo. En la primera de estas divisiones los laboratorios académicos europeos se agruparon alrededor de un polo británico bien equipado en herramientas de análisis estadístico y en instrumentos de secuenciación para hacer frente al polo Myriad Genetics-Universidad de Utah y Eli Lilly. Es decir, un grupo académico financiado por la Comunidad Económica Europea y una organización filantrópica, la Cancer Research Campaign, se enfrentaron a un grupo en su mayoría privado, reunido alrededor de Myriad Genetics. En la segunda división los intercambios se cerraron, incluso al interior del polo europeo. Así, cada participante comunicaba sus datos al laboratorio inglés, que hacía el análisis estadístico, al tiempo que los intercambios horizontales entre los participantes se cerraban. Finalmente, fueron los investigadores ingleses quienes en 1996 registraron la patente del brca2. La atribución de esta propiedad a la Cancer Research Campaign es muestra de la asimetría de los medios y el papel que le ha tocado jugar a cada uno de los laboratorios europeos.
Mirando las tensiones y asimetrías existentes entre los participantes se podría pensar, como lo hacen los economistas Dasgupta y David, que el consorcio internacional no fue una realidad ni tuvo efecto alguno. Nosotros pensamos que la cooperación no careció de beneficio para los participantes, quienes utilizaron la información obtenida de dicho consorcio para orientar su investigación y así evitar pistas falsas, ya que los laboratorios no miembros eran excluidos de la fase de validación colectiva. Los laboratorios siempre jugaron simultáneamente a la cooperación y a la competencia. Por ejemplo, Myriad Genetics asistía a las reuniones del consorcio para obtener datos que empleaba en su propia estrategia para la búsqueda del gen. Esta compañía, iniciada por diversos investigadores académicos —en la que irrumpió un investigador-empresario, Mark Skolnick, su fundador—, vive en medio de las tensiones del mercado de la genética médica. Sus integrantes han acordado, por un lado, compartir los datos obtenidos, y por el otro, el establecimiento de contratos bilaterales con laboratorios farmacéuticos privados interesados en los diagnósticos desarrollados, así como en los usos terapéuticos de los genes buscados. Finalmente, muchos de los participantes, académicos e industriales, han solicitado el registro de patentes. Una vez hecho esto se reiniciaron los intercambios de datos de interés médico —catálogo y frecuencia de las mutaciones.
A diferencia de los anteriores, el de Myriad Genetics es un modo de producción de conocimientos típico de la organización de la investigación en este campo en Estados Unidos. La novedad radica en la aparición de una esfera privada de la investigación genómica financiada por capital de riesgo y un jugoso contrato de investigación y desarrollo firmado con Eli Lilly. La movilización de los fondos privados permitió a Myriad cambiar de escala en su investigación, equipándose para llevar a cabo un trabajo de biología molecular y clonación de posicionamiento (equipo de cómputo y de secuenciación automática). Aun así, siguió siendo una pequeña compañía hasta que logró clonar el brca1 (contaba con cerca de treinta personas en 1994), y hoy mantiene una competencia fuerte con centros de investigación gubernamentales de mayor tamaño, como el de F. Collins. Las ventajas de Myriad, además del capital privado y el cambio de escala en la investigación genómica, son, a nuestro parecer, la división del trabajo bien establecida que mantiene con la Universidad de Utah, y en especial con el yacimiento de datos que representa la población que le sirve de materia de investigación, esto es, las familias mormonas.
Detallemos un poco. El creador de Myriad es un genetista de poblaciones y especialista en cuestiones de informática (Skolnick trabajaba en el Departamento de Informática Médica de la Universidad de Utah). Tras su trabajo realizado en poblaciones de los Alpes italianos, regresó a Utah para emplear los datos familiares registrados por la Sociedad Genealógica de ese estado acerca de la descendencia de los pioneros. La Utah Population Database contiene la genealogía de un millón doscientos cincuenta mil individuos. Estos datos familiares fueron cruzados con los del registro de cánceres del estado (cerca de cien mil casos documentados) a fin de localizar aquellos de cánceres familiares. Además del tamaño de la muestra, hay dos factores que facilitan el trabajo de los genetistas: en primer lugar, el tamaño de las familias que se pueden seguir a lo largo de seis o siete generaciones —en lugar de las tres que se registran para los pacientes de oncología— y, en segundo, la cercanía geográfica de las familias, lo que facilita la toma de muestras de sangre para elaborar los genotipos. Esto compensó el tamaño tan pequeño que tenía el equipo de trabajo al inicio y su retraso en la búsqueda del brca1. Así, gracias a dos familias de gran tamaño que tenían un número elevado de personas afectadas, los investigadores de Utah pudieron confirmar y afinar la localización del gen, e iniciar el trabajo de clonación, lo cual se realizó de acuerdo con una división del trabajo bien delimitada: la Universidad, que aloja la Population Database, se encarga del estudio de las familias —la selección de buenas genealogías y la toma de muestras de adn—, mientras que Myriad lleva a cabo el trabajo de clonación posicional. Esta colaboración se formalizó por medio de contratos de investigación para cada nueva búsqueda de un gen (la investigación que se realiza sobre enfermedades cardiovasculares, la obesidad y las enfermedades mentales siguen la misma división del trabajo). Las dos partes se dividen la propiedad de las patentes. Myriad las explota y la Universidad recibe regalías.
Lejos de los modelos mencionados, en Francia la investigación sobre la genética del cáncer involucra a investigadores en biología y a médicos-investigadores establecidos en centros anticancerosos o en hospitales. La primera tarea también fue aquí la colecta de familias que presentaban árboles típicos de enfermedades genéticas. Esta colecta se apoyó en la creación ex profeso de consultas oncogenéticas, cuyo primer objetivo fue la investigación (“vengo a buscar familias para hacer una investigación. No hay prestación alguna de servicio para ellas”, nos dijo un médico-investigador de Marsella). No importaba que esto acarreara una demanda de atención médica (“había gente que venía de muy lejos a esta consulta que sólo era de investigación, y que comenzaba a ser un poco médica”). A principios de los noventas se creó una red de consulta con el apoyo de la Federation de Centres de Lutte contre le Cancer (“en menos de dos años los veinte centros de lucha contra el cáncer crearon un servicio de consulta, ya fuera de tiempo completo o de medio tiempo”).
Esta red debía facilitar la colecta de familias, ya que en Francia son susceptibles de estar dispersas en varias regiones (“nuestra idea era establecer una red de trabajo para tener corresponsales en las principales ciudades”, afirmó un profesor de Clermont-Ferrand). Las muestras se intercambiaban de un centro a otro. La Ligue contre le Cancer financiaba la creación de pequeñas unidades híbridas que asociaban la consulta oncogenética, la investigación sobre los genes de predisposición y un laboratorio de almacenamiento de las muestras, así como otro capaz de elaborar las pruebas de diagnóstico una vez que los genes han sido identificados.
Comparado con los precedentes, el modelo francés se caracteriza por su carácter artesanal (cada equipo tiene uno o dos investigadores asociados y algunos técnicos) y su dispersión en los establecimientos clínico-hospitalarios. No son la universidad ni la industria, como sucede en Estados Unidos, las que impulsan la investigación, sino la clínica en colaboración con una fundación dedicada a la lucha contra el cáncer. El marco de producción lo forma la consulta oncogenética, y no algún centro público o privado de genómica, lo que tiene serias repercusiones en la búsqueda de genes de predisposición, ya que estos pequeños equipos disponen de medios de clonación muy limitados para rivalizar con los centros de genómica de Estados Unidos o Gran Bretaña. De hecho, aunque los médicos-investigadores franceses han contribuido a la investigación colectiva al interior del consorcio internacional, y han aportado familias útiles para la identificación de genes (por ejemplo, las patentes registradas por Myriad mencionan familias estudiadas en el Instituto Curie), no por ello figuran como coinventores de la patente del gen brca2, clonado, como ya lo señalamos, por un laboratorio inglés.
La caza de los genes de predisposición al cáncer de seno sigue la tendencia a la comercialización y la privatización de la investigación señalada por la abogada estadounidense R. Eisenberg. De hecho, ésta termina con la solicitud de numerosos registros de patentes concurrentes. La nih incita a Marie Claire King y a la Universidad de California a patentar las mutaciones que ella ha identificado, con el fin de no dejar el campo libre a Myriad, al tiempo que la Cancer Research Campaign patenta el brca2 para contrarrestar la conformación de un monopolio privado en el mercado de las pruebas de predisposición.
Simultáneamente, las relaciones de los diferentes actores con el mercado es bien distinta. Marie Claire King fue contactada por los laboratorios farmacéuticos después de la primera localización del gen que ella propuso, pero se negó a emprender la creación de una sociedad privada dedicada a la genética del cáncer de seno. Concentrada en la función biológica del gen, ella no creía en la emergencia de un verdadero mercado de pruebas de diagnóstico de susceptibilidad (“hasta que no se tenga el gen y se sepa cómo usarlo, no habrá más que un pequeño mercado [...] Dije a todo mundo que hacía falta esperar a ver cómo es la biología; que no se podía crear un mercado con los puros alelos de predisposición”, cuenta esta investigadora). De hecho, ella sigue trabajando en la universidad sobre la función del gen brca1 y participa en las discusiones acerca de los usos de la genética en la American Society of Human Genetics.
La relación que Mark Skolnick tiene con el mercado es totalmente diferente. Primero que nada, su convocatoria al mercado de capital a riesgo le parecía indispensable para ingresar en la investigación genómica a escala industrial; después, la apropiación privada de la investigación, vía las patentes de los genes identificados, le parecía la manera más eficaz de relacionar la ciencia y el bienestar por medio de la medicina (la idea de que las patentes incitan a los inversionistas a desarrollar innovaciones biomédicas útiles a la sociedad); finalmente, el desarrollo de pruebas de diagnóstico ofrecía perspectivas de recuperación financiera rápidas, al mismo tiempo que sentaba las bases de un mercado de medicina predictiva.
La posición de los médicos-investigadores franceses es todavía muy diferente a ésta y ha cambiado bastante en la década de los noventas: su investigación se lleva a cabo en el marco de la clínica, de manera artesanal. La circulación de sus trabajos, científicos y técnicos, tiene lugar en espacios no mercantiles: en el ámbito académico y por medio de los intercambios entre laboratorios de investigación y laboratorios clínicos. Carecen de una cultura de la propiedad industrial, y las únicas relaciones que tienen con la industria son los intercambios de servicios (proponen a las industrias probar sus nuevas técnicas y conservan los resultados obtenidos de estos estudios). Su ingreso al mercado ha sido tardío y brutal: confrontados a la extensión en Europa de las patentes y al mercado de pruebas de diagnóstico de Myriad Genetics, actualmente consideran la negociación de las condiciones de acceso a sus acervos, la necesidad de negociar licencias (el caso del Instituto Curie), así como la creación de una sociedad (como Clermont-Ferrand).
El mercado y la clínica
A partir de la identificación del gen bcra1 en septiembre de 1994 y la solicitud de registro de patente hecha por Myriad Genetics, se abre una controversia en Estados Unidos en torno al acceso y uso de la prueba de diagnóstico. Las asociaciones de enfermos e investigadores en genética humana temían que la prueba se comercializara libremente al público y que ésta quedara fuera de la tutela de la investigación clínica. A finales de 1996, mucho antes de que se acordaran las patentes de los genes bcra1 y bcra2, ya había dos compañías de biotecnología en Estados Unidos, OncorMed, en el este, y Myriad Genetics, en el oeste, que ofrecían pruebas de predisposición al cáncer de seno. Estas pruebas crearon una clara división entre la investigación clínica, que hasta entonces había sido la responsable de realizar las pruebas genéticas, y el mercado de la medicina predictiva, que se establece de manera conjunta al mercado de productos y tecnologías terapéuticos. En cambio, en Francia, hasta hoy, estas pruebas únicamente se utilizan dentro del marco de la medicina clínica y en los consultorios de oncogenética. Esto nos permite identificar dos modelos de producción y de uso de las pruebas genéticas: el de Estados Unidos, donde se establece un mercado privado en torno a dos actores centrales y asociados, el laboratorio de diagnóstico privado y la organización del managed care, las hmo, y el de Francia, donde la producción de las pruebas de rutina y la regulación del uso médico están en manos de la clínica y de la profesión médica, mientras que el contexto económico y jurídico de las pruebas genéticas no ha sido aún definido de manera formal.
Nos interesa precisar los contornos del mercado de las pruebas de bcra en Estados Unidos y, en particular, la constitución del monopolio industrial y comercial por parte de Myriad Genetics. Esta empresa decidió enfocarse al desarrollo y a la comercialización de las pruebas genéticas. Cuando en 1991 firmó un contrato con Eli Lilly, acordaron que la división de los derechos sería de la manera siguiente: el laboratorio farmacéutico se quedaba con la propiedad de las aplicaciones terapéuticas derivadas de los genes, mientras que Myriad se reservaba la exclusividad de los derechos sobre los usos diagnósticos. Otros acuerdos firmados por Myriad con grandes laboratorios farmacéuticos para varias patologías (cáncer, enfermedades cardiovasculares, obesidad, asma, depresión, etcétera) muestran la misma división de los derechos y de los mercados. En este sentido, las pruebas de bcra, que fueron las primeras en ser desarrolladas y en salir a la venta, forman parte de una serie de productos de “medicina predictiva personal” que promueve esta compañía, la cual incluso fundó una filial, Myriad Genetics Lab’s, que se dedica exclusivamente a este tipo de mercado.
Pero más original aún es el hecho de que las pruebas de bcra no fueran puestas a disposición de los médicos clínicos en forma de kits, sino que se decidió que éstas se realizarían en una plataforma que se implantó junto a los laboratorios de investigación y desarrollo. Esta decisión estuvo en parte dictada por la complejidad de los genes y de las pruebas de bcra (“la decisión de establecer este programa estuvo motivada por la biología propia del gen”, señala B. Ward, director médico de Myriad Lab’s). En efecto, las mutaciones se encuentran repartidas a lo largo del gen que es de gran tamaño (diez veces mayor al promedio), no hay una mutación dominante que se presente en la mayoría de los casos y aún se están identificando y catalogando nuevas mutaciones que predisponen al cáncer. Tomando en cuenta la imposibilidad de fabricar una prueba simple que detectara un pequeño número de mutaciones presentes en un gran número de casos, Myriad se orientó hacia la realización de pruebas y los directivos de la compañía decidieron construir una plataforma técnica automatizada, e incluso secuenciar directamente el gen completo. La automatización del procedimiento (una línea de autómatas que aíslan, reproducen y decriptan distintos segmentos del gen) les permitió reducir el tiempo de realización de las pruebas, que en los laboratorios hospitalarios e universitarios necesitaba de varios meses. Además, esta infraestructura técnica de gran capacidad puede ser utilizada para realizar pruebas de otros genes, conforme a la estrategia de la compañía de ofrecer al público todo tipo de pruebas genéticas.
Una vez que se ha leído, la secuencia se envía a un centro de análisis de datos. Ahí, un equipo de médicos-genetistas compara la secuencia obtenida con la secuencia del gen normal —consensado— y con las mutaciones ya conocidas. Ellos deciden si las alteraciones observadas en los genes de la clienta son mutaciones que predisponen a la enfermedad. También registran las nuevas mutaciones, las cuales no se revelan al portador hasta pasados dos meses, tiempo que les permite realizar validaciones y depositar la petición de una patente. La apropiación de los conocimientos acerca de los genes se encuentra en una fase de rutina, ya que apenas se están identificando nuevas mutaciones (“para nuestra sorpresa, en este preciso momento estamos encontrando que hay mutaciones repartidas a lo largo de estos genes, de las cuales 40% son nuevas”, nos comentó B. Ward, director médico). Finalmente, estos datos se comunican a algunos centros de investigación para que se realicen estudios epidemiológicos acerca de los genes de predisposición (colaboración entre Myriad y el Dana Faber Cancer Institute).
Esta herramienta industrial, única en materia de pruebas genéticas, es un elemento crucial de la estrategia de mercado de Myriad. El poder de Myriad reposa en gran medida en el conocimiento y la habilidad industrial, que se van reforzando con el rápido crecimiento del número de pruebas realizadas. El procedimiento ha sido certificado por el Departamento de Salud (ya que satisface los estándares de calidad de las Clinical Laboratory Improvement Amendments). Myriad Laboratories se ha constituido en el centro de referencia para las pruebas de bcra en Estados Unidos, si no es que en el mundo entero (a pesar de que la técnica empleada, la secuenciación directa, haya sido cuestionada por algunos investigadores clínicos en el caso de la identificación de mutaciones de gran tamaño).
Las patentes constituyen la segunda pieza clave del mercado de las pruebas genéticas establecidas por Myriad, que actualmente posee una cobertura muy amplia sobre los dos genes, bcra1 y bcra2 (es decir, cinco patentes en Estados Unidos sobre bcra1 y una sobre bcra2, además de las demandas de extensión de las patentes para Europa que se encuentran en revisión por la Oficina Europea de Patentes). Sin embargo, la propiedad industrial de Myriad se consolidó hasta 1998. Antes de esta fecha, mantenía dos disputas en torno a las patentes: una contra la Sociedad OncorMed, a quien la Oficina Americana de Patentes había acordado la primera patente del gen bcra1; y la otra contra la Cancer Research Campaign, que había depositado una demanda de patente para el gen bcra2. La resolución del primer conflicto no fue resultado de la aplicación de la justicia, sino de un acuerdo comercial entre OncorMed y Myriad, la que por medio de éste recibía los derechos de OncorMed y su fondo comercial (lista de clientes y relaciones entre los médicos de las clínicas y los centros contra el cáncer). Este acuerdo también ponía fin al litigio con el organismo británico, puesto que OncorMed era la beneficiaria de la patente del gen bcra2 registrada por la Cancer Research Campaign para todo el mundo, menos para Gran Bretaña. ¿Cómo se explica la salida de OncorMed? La razón principal fue la solidez de los activos científicos e industriales de Myriad, dedicada desde hace más de quince años a la genética del cáncer de seno. OncorMed no disponía de una base científica ni técnica suficientemente sólida para poder defender sus patentes frente a Myriad. Y aunque fue la primera en recibir una patente, tuvo que ceder el lugar. El conflicto con los británicos se resolvió de manera afortunada para Myriad, ya que la batalla en torno a la primicia en la identificación del bcra2 parecía difícil (había rumores de que esta compañía había tenido noticia de los resultados de los ingleses por medio de un estudiante de posdoctorado, antes de que éstos hubiesen dado a conocer sus datos).
Myriad no sólo posee una gran cantidad de patentes que le permiten ensanchar su mercado, sino que además sus patentes son también muy “amplias”. Éstas reivindican todos los productos ligados o derivados de las secuencias de los genes (cualquier reproducción de la secuencia cae en sus manos) y todas las aplicaciones potenciales, ya sean de diagnóstico o terapéuticas. En particular, en el ámbito de las pruebas de diagnóstico, las reivindicaciones no se limitan a una técnica particular para la identificación de una mutación. De tal suerte que, en caso de que se aprobaran las demandas de patentes europeas de Myriad, todas las técnicas empleadas por los clínicos europeos se convertirían en fraudes.
La concesión de las patentes de los genes bcra ha sido cuestionada por distintas asociaciones de enfermos federados en una coalición internacional animada por la Foundation on Economic Trends de Jeremy Rifkin. En mayo de 1994, esta coalición de organizaciones ecologistas y feministas dio a conocer su oposición a la demanda de obtención de una patente por parte de Myriad. Esta oposición se basaba en varios argumentos: primero, que el derecho a las patentes no se aplica a entidades ya existentes en la naturaleza (un argumento que encontramos en la historia de la patentatibilidad de productos químicos y biológicos); además, estas organizaciones se oponen a la existencia de un derecho exclusivo de explotación comercial sobre técnicas que tienen un interés médico, y que por lo tanto no serán accesibles a personas de bajos recursos económicos (argumento de la no patentabilidad por tratarse de un interés de salud pública); finalmente, cuestionan los criterios de la patente y las reivindicaciones de la misma que, por ser tan amplias, inhibirán nuevas investigaciones e innovaciones. Sin embargo, algunas asociaciones de mujeres que luchan en contra del cáncer ven de manera favorable el derecho a las patentes como un medio de estimular a los inversionistas en el campo, por lo que no se unieron a la coalición propuesta por Rifkin.
El conflicto entre Myriad y la Cancer Research Campaign se debe a que esta última decidió otorgarle una licencia de su patente a la compañía OncorMed, cuya naturaleza va en contra de los intereses de Myriad, ya que establece, en primer lugar, que OncorMed a su vez debía de conceder licencias a otras compañías para la realización de pruebas de diagnóstico, y en segundo, el acceso a las pruebas debía de ser únicamente a través de un médico y de una consulta antes y después del diagnóstico. Con este acuerdo se buscaba prevenir la emergencia de un monopolio y conciliar la comercialización con el seguimiento médico de las pruebas.
Ahora bien, el uso médico de estas pruebas está lleno de interrogantes que han sido propiciadas tanto por los profesionales como por las asociaciones de pacientes (por ejemplo la nbcc y la National Alliance of Breast Cancer Organization). La incertidumbre de la predicción y la ausencia de una prueba que confirme la eficacia de las intervenciones preventivas (mastectomía, quimioterapia preventiva) hacen que el riesgo sea muy difícil de manejar. En todo caso, los resultados positivos de las pruebas pueden desembocar en programas de rastreo específicos para mujeres de alto riesgo de entre veinticinco y cuarenta años. En este contexto, la perspectiva de comercialización de las pruebas de diagnóstico suscita grandes controversias (la medicina predictiva se convierte en una entidad autónoma que se emancipa de la clínica). Los actores de los programas públicos de genómica se mostraron más bien hostiles a esta iniciativa.
En 1994, la American Society for Human Genetics elaboró una serie de recomendaciones para las pruebas de diagnóstico de predisposición de cáncer de seno y de ovario que establecían su distribución exclusivamente en el marco de la investigación clínica, en el que se pudiera garantizar el consejo genético y el seguimiento a largo plazo indispensables, al menos mientras no se determinen los riesgos a desarrollar un cáncer de acuerdo con el tipo de mutación de los genes bcra (“en el ínter, el uso de los genetistas clínicos para aplicar las pruebas es la mejor táctica para maximizar el beneficio y minimizar los daños potenciales asociados a estas pruebas”). Las recomendaciones hechas por el National Advisory Council for the Human Genome Research van en el mismo sentido (“es aún prematuro ofrecer pruebas de adn de predisposición al cáncer fuera del contexto de la investigación científica, que es la única que ofrece un monitoreo riguroso”).
En 1996, F. Collins, director del programa del genoma humano, reiteró esta opinión en respuesta al ofrecimiento de la Universidad Mac Gill de realizar una serie de pruebas acerca de una mutación frecuente en mujeres judías ashkenazes. Mientras que la Universidad Mac Gill hacía notar que junto a la fiabilidad de su prueba estaba la ausencia de seguros privados en materia de salud en Canadá, y por lo tanto para el acceso a este tipo de pruebas, Collins insistió en la necesidad de contar con un seguimiento médico (“la incertidumbre actual acerca de cuáles son los cuidados adecuados necesarios para los portadores de las mutaciones representa un reto mayor para los médicos y para los pacientes [...] La falta de conocimiento científico acerca del bcra1 y el bcra2 hace que el uso de las pruebas para el diagnóstico clínico fuera de los protocolos experimentales sea aún prematuro”). Aun cuando algunas asociaciones de pacientes concuerdan con los científicos en que se exija un seguimiento clínico estricto de las pruebas genéticas según las recomendaciones de la National Breast Cancer Coalition, otras organizaciones ven en estos lineamientos una actitud paternalista y militan por el libre uso y elección de las pruebas (“la resolución inicial de confinar las pruebas genéticas al ámbito de la investigación fue rechazada, ya que implicaba que las mujeres no eran capaces de decidir por ellas mismas la utilización de las pruebas”).
Los lineamientos de 1996 de la American Society of Clinical Oncology registran el veloz crecimiento de la oferta de pruebas genéticas a través de laboratorios comerciales y universitarios ajenos a la clínica (“el estado de las pruebas científicas de la susceptibilidad al cáncer ha evolucionado rápidamente [...] A pesar de que aún quedan varios temas importantes por investigar y la necesidad de regular la calidad de las pruebas es evidente, algunos laboratorios han empezado a ofrecer pruebas genéticas para ciertos síndromes reconocidos de predisposición hereditaria al cáncer”). La asociación de oncólogos se deslinda de manera explícita de los lineamientos del National Advisory Council for Human Genome Research y de la American Association of Human Genetics, e introduce una disociación entre el contexto de la provisión de las pruebas, que bien puede ser el mercado, y la investigación clínica. Las acciones de Myriad Genetics concuerdan plenamente con esta postura, por lo que hace suyos los lineamientos de la American Society of Clinical Oncology (que recomiendan que los pacientes sean seguidos por un consejo de genética y aceptados según su historia clínica familiar; que haya un consentimiento informado y que tanto pacientes como médicos sean educados al respecto; así como que las pruebas formen parte de ensayos clínicos de larga duración). Los laboratorios privados pueden proponer a sus clientes itinerarios de seguimiento que abracen estos lineamientos.
Un itinerario tipo para los pacientes bajo los conceptos de Myriad está compuesto de cinco etapas: 1) se invita a los pacientes a llenar un cuestionario sobre su historia clínica familiar (¿hay indicios de alto riesgo en mi historia familiar?); 2) se les envía directamente a centros locales de evaluación genética (¿dónde puedo encontrar un centro local de evaluación genética?; su proveedor de atención primaria junto con los expertos de los centros locales de evaluación de genética pueden ayudarle a decidir si una prueba genética podría serle útil); 3) posteriormente se invita a las pacientes-clientes a que escuchen el testimonio de cinco mujeres que se hicieron la prueba (un video que dura veintidós minutos); 4) Myriad asiste a las pacientes en el costo del tratamiento de la prueba genética por medio de un plan de seguro (programa de reembolso), y 5) esta etapa se ocupa de analizar las distintas opciones médicas.
Las pruebas se ofrecen directamente al público y las pacientes toman la iniciativa de someterse a la prueba, lo que concuerda con las reivindicaciones de ciertos grupos feministas. Esta medicina predictiva y personalizada igualmente converge con las propuestas de las Managed Care Organizations para la gestión de riesgos (personalización de los riesgos y diferenciación de los tipos de pacientes). Al mismo tiempo, Myriad busca dar seguridad a los pacientes informándoles acerca de las leyes que los protegen del uso de la información genética con fines de discriminación social. Los beneficios de colaborar con estas organizaciones médicas son múltiples: por un lado, Myriad establece contratos con aseguradoras (entre las cuales figura Aetna, con veintitrés millones de asegurados) para solventar su mercado, y por el otro, puede ofrecer el servicio de una gestión integral del riesgo, mientras que estas organizaciones pueden proponerle a sus pacientes de alto riesgo la opción de un seguimiento médico. El acuerdo firmado entre Myriad y Aetna us Healthcare en agosto de 1998 prevé que Myriad será el proveedor de las pruebas de susceptibilidad de cáncer de seno y de ovario, mientras que Aetna proporcionará la cobertura de los gastos médicos de los pacientes con alto riesgo. No se trata únicamente de reembolsar el costo de las pruebas sino de una cobertura amplia de los gastos médicos (“los análisis de las pruebas de bcra serán utilizados por Aetna para poder ofrecerle a sus clientes un servicio de seguro médico de mayor calidad”). Aetna cuenta con doscientos cincuenta mil médicos y dos mil trescientos hospitales afiliados en Estados Unidos.
El mercado de las pruebas genéticas de cáncer de seno es por lo pronto relativamente pequeño (la población potencialmente interesada representa únicamente 5% del total de los casos). Esta cifra puede aumentar ligeramente si las pruebas se ofrecen directamente sin tener la necesidad de pasar por el filtro de la clínica. A pesar de ello, la demanda de las pruebas está creciendo de manera acelerada y las ganancias obtenidas por las pruebas de laboratorio, en comparación con el total de las ganancias de Myriad, también van en aumento (en 1999 el ingreso por concepto de las pruebas constituyó 20% de las ganancias de la empresa, a la par de los ingresos provenientes de los contratos de investigación con otras empresas farmacéuticas). Los ingresos en 1999 por las pruebas fueron más del doble del monto del año anterior (5.3 millones de dólares).
A mediano y largo plazo, el establecimiento del mercado de las pruebas de bcra, es decir, la creación de una plataforma de secuenciación del genoma, la cobertura de las patentes y los acuerdos con las organizaciones médicas, sirve a Myriad como un ensayo del funcionamiento del mercado de la medicina predictiva de vocación universal (también vende ahora pruebas para enfermedades cardiovasculares). A corto plazo, con el propósito de aumentar sus ingresos, esta compañía lanzó una ofensiva en Europa para captar, con ayuda de laboratorios clínicos y de investigación, las pruebas de bcra que serán hechas en los laboratorios de Myriad en Salt Lake City.
En Francia, estas pruebas se realizan y se proveen por medio de la consulta en oncología. Las personas no pueden acceder a ellas sin la intermediación de los médicos genetistas de las clínicas, que reconstruyen sus historias familiares, estiman el riesgo de predisposición y, en caso necesario, proponen la búsqueda de una fragilidad hereditaria por medio de una prueba genética. El consejo genético define a qué población se le deben hacer las pruebas. De hecho, éste es uno de los argumentos centrales que utilizan los investigadores clínicos franceses para negociar con Myriad la desigualdad que padecen en el plano de la propiedad industrial (arguyen que son ellos los que poseen el acceso a las poblaciones locales y, por lo tanto, la apertura del mercado).
Asimismo, las pruebas de diagnóstico son producidas directamente por los investigadores clínicos en una decena de centros de lucha contra el cáncer. Se trata de una actividad híbrida en la frontera entre la investigación y la clínica. Por ejemplo, el consultorio de oncogenética del Instituto Curie combina actividades de consejo genético con la búsqueda de mutaciones, desarrollo tecnológico y ayuda psicológica a los pacientes. El investigador clínico que dirige el grupo de cuatro personas participa en investigaciones genéticas (colabora con el Breast Cancer Linkage Consortium), en la investigación de epidemiología genética (programa biomed), en consultorías colectivas acerca del uso de las pruebas (un comité ad hoc fue creado bajo los auspicios de la Federación de Centros de Lucha contra el Cáncer) y, por último, también forma parte de un grupo francés de evaluación de las técnicas de prueba propuestas por los distintos laboratorios proveedores.
Hasta ahora las técnicas de las pruebas han sido desarrolladas por los propios investigadores clínicos de manera poco coordinada (hay una serie de conocimientos y habilidades locales que aprovechan los recursos de los laboratorios en que fueron desarrollados, y que no son fácilmente adaptables a otros sitios). Para poder probar los prototipos o nuevas técnicas que salen al mercado, los investigadores clínicos colaboran con la industria o con instituciones científicas (el Instituto Pasteur) y, en caso necesario, incluso inventan algunas adaptaciones, pues para ellos la técnica es un instrumento para adaptar y mejorar, y no un producto. Sus relaciones con las compañías industriales son de intercambio de servicios (“me habría gustado establecer una colaboración con Affymetrix para que probaran en ciego todas las mutaciones que hemos identificado”, cuenta un investigador clínico del Instituto Pasteur). Tampoco emplean la propiedad intelectual para proteger las mejoras (salvo el Instituto Gustave Roussy, cuyo laboratorio de pruebas, disociado de la consulta, tiene un enfoque industrial). Los clínicos tienen sus reservas en cuanto a la viabilidad del mercado de las pruebas de diagnóstico que juzgan muy limitado. Todos estos centros de investigación tienen capacidades de análisis reducidas y trabajan con técnicas de identificación de mutaciones, en lugar de la secuenciación directa, como lo hace Myriad en su programa genómico. El laboratorio del Instituto Curie decidió recientemente dotarse de robots para poder satisfacer la demanda creciente y anticiparse a la racionalización de la oferta de estas pruebas en Francia.
Esta actividad aún se encuentra dispersa y no está estandarizada. En 1996 los once laboratorios proveedores tomaron la iniciativa de reunir un grupo para evaluar y armonizar las técnicas de prueba. Este trabajo colectivo comenzó su tarea escogiendo una serie definida de mutaciones que serían evaluadas. Los participantes recibieron una colección completa conformada por treinta y cinco mutantes seleccionadas para que las probaran en sus instalaciones. Los resultados se centralizaron en un laboratorio coordinador y se discutieron en reuniones conjuntas. Los resultados mostraron que había una gran heterogeneidad de habilidades entre los distintos laboratorios y a partir de una evaluación seleccionaron, por un lado, a los centros que tenían una gran experiencia en investigación de genética médica desde finales de los años ochentas, y por el otro, a aquellos que recientemente se habían equipado con secuenciadores pero que no contaban con experiencia suficiente. Sin embargo, este trabajo colectivo no desembocó en la armonización de las técnicas de prueba y los laboratorios piloto siguieron empleando sus técnicas iniciales (a pesar de que había diferencias en la sensibilidad de las pruebas). Hasta hoy, una decena de centros ofrecen, de manera dispersa, pruebas con niveles de calidad y equipos muy distintos. Desde esta perspectiva, la ofensiva de Myriad demanda una racionalización de la oferta.
Los médicos clínicos no sólo producen las pruebas, sino que también establecen las reglas de su uso médico. Como resultado de la petición de la Federación de los Centros de Lucha contra el Cáncer, el inserm reunió entre 1996 y 1998 un comité ad hoc para establecer los lineamientos de las pruebas. Las recomendaciones circunscriben el empleo de las pruebas bcra al contexto de la consulta oncogenética. También definen cuál es la población de mujeres a las que se les puede aplicar la prueba, la organización de la consulta y del consejo de genética y el seguimiento médico de las pacientes con riesgo (estas opciones son especialmente detalladas). Tales lineamientos, redactados por genetistas moleculares y expertos en salud pública, establecen la “práctica médica correcta” en el contexto de la clínica. En ningún momento se discutió la posibilidad de que hubiese un mercado privado de las pruebas (ni siquiera en las listas de los temas a tratar). Como punto de comparación, recordemos que en 1996 la American Society of Clinical Oncology se pronunció por la distinción entre investigación clínica y mercado.
En el contexto francés las pruebas son producidas fuera del ámbito comercial, y éstas no forman parte de la cobertura del seguro social, pues se financian por medio de créditos a la investigación o por el presupuesto de los hospitales dedicados a ella. Se trata de la autoproducción de pruebas por parte de los hospitales con fondos públicos y sociales. Este tipo de oferta de pruebas, basado en arreglos locales a nivel de centros clínicos, es viable para un volumen reducido de actividad. Aun así, genera tensiones: primero, las pruebas de rutina se llevan a cabo en los laboratorios de investigación y no en estructuras de transferencia hospitalaria (salvo el Instituto Gustave Roussy), lo que puede contrariar sus actividades; asimismo, el aumento en la demanda puede representar a futuro un problema de costos; finalmente, los laboratorios no están certificados y las pruebas son de calidad heterogénea, lo que significa que los pacientes tienen acceso a distintos niveles de prestaciones.
Los genetistas franceses se agruparon en torno a la Association Nationale des Practiciens de Génétique Moléculaire, creada en 1996 para promover la elaboración de un marco de producción y uso de las pruebas genéticas ante el Ministerio de la Salud y la Agencia del Medicamento. El libro blanco acerca de la genética molecular médica en Francia propone la creación de una red nacional de acuerdo con el tipo de patología (el grupo de armonización de las técnicas del bcra representa ese tipo de organización), la designación de centros de referencia (lo que en el caso de esta prueba significaría una selección entre los once centros existentes), un financiamiento de las pruebas complejas (del tipo de bcra) por medio de contratos y el establecimiento de un control de calidad en los laboratorios de genética molecular médica. No quieren que esta actividad se realice de manera autónoma, en instituciones independientes del sistema de salud. Piensan también que parte de la producción de las pruebas, en particular la secuenciación, podría confiarse a un centro de genómica nacional, siempre y cuando la interpretación quedase en manos de los facultativos clínicos, quienes son los encargados del consejo genético de las familias, y si bien están conscientes de la división de papeles entre el hospital y las compañías genómicas financiadas por capital de riesgo, no se dieron a la tarea de reflexionar más en torno a la problemática que esto representa (“esa reflexión va más allá de los objetivos de nuestro libro blanco”). De forma sintomática, El libro blanco no menciona ninguno de los problemas en torno a la propiedad industrial en el campo de la genética médica (a pesar de que la controversia sobre las patentes de Myriad está abierta desde hace varios años).
Conclusión
La genética médica del cáncer de seno nos permite abordar varios aspectos de las relaciones entre investigación biomédica, medicina y mercados. Mientras que generalmente la actividad de la investigación en el campo de la genómica se representa a partir de un modelo único, el del investigador-empresario, nosotros hemos podido identificar distintas posturas entre los investigadores y los investigadores clínicos que se mueven en el espacio de la ciencia-técnica-mercado, cada una con sus propias definiciones de lo que constituye el bien privado y el bien público, así como de sus relaciones con la salud y el papel de la medicina.
Para calificar estas posturas podemos retomar un término empleado por el historiador inglés E. P. Thompson, y hablar de “economía moral”. La economía moral resume a la vez las prácticas y las normas de acción y de juicio económicas de los actores. La economía moral de los científicos dedicados a la genética del cáncer de seno se puede situar en un continuo que va de un polo mercantil y liberal (es la visión de Mark Skolnick y de Myriad Genetics, que conciben el bien social y médico como resultado de operaciones mercantiles, a saber, de prácticas de apropiación por medio de patentes, transferencias entre ciencia e industria, itinerario de los pacientes en laboratorios privados y compañías de seguros) a espacios no mercantiles basados en la profesión y en la clínica (los investigadores clínicos franceses conciben el bien común en materia de salud como parte del dominio de la profesión médica, la cual debe definir las normas de lo que constituye una buena práctica y las técnicas adecuadas fuera del mercado), o bien, en la investigación pública y las asociaciones de enfermos (es la visión de Marie Claire King, quien privilegia las asociaciones de pacientes, que eventualmente interaccionan con los profesionales para ejercer presión con el fin de que se pongan a disposición las pruebas de manera equitativa y que ofrezcan garantías del uso médico). Esta distribución de la economía moral de los científicos se distingue, a la vez, tanto de la visión de una institución científica homogénea gobernada por normas de gran originalidad (las normas mertonianas de la ciencia) como de una tendencia única hacia el neoliberalismo que reduce las prácticas de la investigación a la comercialización y a la privatización de la ciencia. En realidad, se percibe una gran variedad de registros de acción de los investigadores en la interfase de la ciencia, de la medicina y del mercado, cada uno relativamente coherente.
La genética del cáncer de seno nos muestra el papel primordial que juegan las patentes en el desarrollo de la genómica y de las aplicaciones médicas. Las patentes de Myriad sobre los genes de predisposición son instrumentos de apropiación de conocimientos y de acaparamiento de mercados, tan poderosos como su amplitud. Se trata de patentes que cubren a la vez las reproducciones de la secuencia (secuencia aislada o fragmentos de la secuencia que se emplean como sondas, secuencias artificiales que se usan como primers, construcciones que contengan una secuencia de adn en una célula hospedera, etcétera), y todas las aplicaciones potenciales derivadas, diagnósticas, terapéuticas o de identificación. En caso de que las patentes se extiendan a Europa, la recomendación de algunos expertos en propiedad industrial de no conceder más que “patentes de procedimientos” (es decir, patentes sobre el uso del gen), y no las patentes de secuencia, sería extralimitada, ya que habría patentes que formarían un “paquete” con la secuencia, los objetos derivados o ligados y las aplicaciones. Esas patentes que rigen sobre los datos de la secuenciación del genoma y sus aplicaciones presentan problemas en cuanto a la derogación de la investigación (el precio que propone Myriad para las pruebas clínicas es de dos mil cuatrocientos dólares, mientras que para la investigación es de mil ochocientos). También presentan problemas en cuanto a la mediación entre bien público y bien privado en materia de salud pública. Por estas razones, varias asociaciones de mujeres enfermas han cuestionado la extensión del monopolio comercial e industrial atribuido a Myriad con la amplitud de las patentes. Este derecho exclusivo, arguyen, lleva a tarifas demasiado caras, lo que disuade a futuros innovadores a mejorar las pruebas. La licencia otorgada por la Cancer Research Campaign a OncorMed es un ejemplo de compromiso entre el bien privado, definido por la propiedad industrial, y el bien común en materia de salud pública. Esta licencia acompañada de reglas de buena conducta médica concuerda con ciertas propuestas hechas por abogados acerca del derecho de la propiedad y de la explotación del conocimiento del genoma. C. Labrusse Riou empleó en 1988 la noción de “bien común” para definir aquellos bienes que podrían ser objeto de una apropiación limitada para fines terapéuticos definidos y controlados (entendiendo terapia en el sentido estricto, lo que excluye a los cosméticos).
La genética del cáncer de seno sirve también como terreno para experimentar la recomposición del sistema de salud. En Estados Unidos las compañías privadas de genómica y las organizaciones del managed care, que constituyen la esfera privada de la biomedicina, son los actores centrales de esta transformación. Los actores de los grandes programas públicos de genómica, como el National Advisory Council for Human Genome Research, se han esforzado por establecer un contrapeso a esta evolución, mientras que los clínicos han integrado esta nueva organización en sus prácticas. Las patentes y las plataformas de genómica son los instrumentos centrales de dicha reorganización. El itinerario de los pacientes se ve definido por el laboratorio de pruebas genéticas y las aseguradoras privadas. En Francia, la integración de los saberes con la técnica es también muy fuerte, pero ésta se da en el contexto del hospital respaldada por la Ligue contre le Cancer, una fundación dominada por oncólogos. Los investigadores clínicos controlan todo el proceso, desde la consulta hasta la realización de las pruebas, pasando por las normas de buena conducta. El marco es estrictamente hospitalario, autoorganizado por los facultativos y no ha sido reconocido de manera oficial por los actores públicos y sociales (las pruebas de diagnóstico no están inscritas en la nomenclatura del seguro social). La extensión europea de las patentes de Myriad provoca el choque entre estas dos formas de producción y de uso de las pruebas genéticas.
Para poder controlar el mercado es necesario limitar la amplitud de las patentes y crear procedimientos de control de la validez y de la utilidad clínica de las pruebas genéticas. Un editorial reciente de Science discutía la falta de regulación del mercado de las pruebas genéticas ofrecidas por varias decenas de compañías de genómica. Según este editorial, la falta de evaluación clínica perturba el mercado: “Cuando las mujeres con riesgo de cáncer de seno se enteraron por medio de fuentes ajenas a las compañías de la incertidumbre de las pruebas, bajó su disposición a utilizarlas. Por lo tanto, todos los interesados, incluyendo aquellos que desarrollan las pruebas, se beneficiarían de la recopilación de la información acerca de la validez y la utilidad de las pruebas antes de su comercialización”. El editorial concluía con la necesidad de regular las pruebas por medio de la Food and Drug Administration. La regulación de la profesión en forma de lineamientos no es suficiente para disciplinar el mercado en el interés de la salud pública. Ésta debe de ser ampliada a una regulación estatal.
|
|||
|
Referencias bibliográficas
Cohen, D. 1993. Les gènes de l’espoir. Robert Laffont, París.
Dasgupta, P. y P. David. 1994. “Towards a new economics of science”, Research Policy, 23, pp. 487-521.
Dausset, J. 1998. Clin d’oeil à la vie. la grande aventure hla. Editions Odile Jacob, París.
Eisenberg, R. 1997. “The Move towards the Privatization of Biomedical Research”, en The Future of Biomedical Research. C. E. Barfield y L. R. Smith (eds.), The aei Press.
Gibbons, M., C. Limoges, H. Nowotny, S. Schwartzman, P. Scott y M.Trow. 1994. The New Production of Knowledge. Sage, Londres.
Labrusse-Riou, C. 1988. “Servitudes, servitudes”, en L’Homme, la nature, le droit. C. Bourgeois, París.
Rifkin, J. 1998. Le siècle Biotech. Le commerce des gènes. La Découverte, París.
Stoppa-Lyonnet, D., C. Blandy y F. Eisinger. 1997. “Cancer du sein: évaluer le risque. Les tests génétiques donnent naissance à une médecine de l’incertain”, La Recherche, 294, pp. 72-76.
Thompson, E. P. 1965. The Making of the English Working Class. Londres.
|
|||
|
Maurice Cassier
Jean Paul Gaudillière
Centre de Recherche Médicine, Sciences, Santé et Société. París.
Traducción
César Carrillo Trueba
Nina Hinke.
como citar este artículo →
Cassier, Maurice y Gaudillière, Jean Paul. (2000). La genética del cáncer de seno. Ciencias 58, abril-junio, 31-45. [En línea]
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|
|||
| La seguridad nuclear de Laguna Verde en cuestión | |||
| Marco Antonio Martínez Negrete
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
|
En el contexto posterior al cambio de administración (una más) en la nucleoeléctrica de Laguna Verde, ocasionado por la remoción de la anterior en 1999, debido, según la Secodam, a “irregularidades en la asignación de contratos”, la Comisión Federal de Electricidad (cfe) y la nueva dirección de la planta nuclear ordenaron la visita de dieciocho técnicos de la Organización Mundial de Operadores Nucleares (acrónimo en inglés: Wano), la cual se realizó en octubre y noviembre de 1999.
Wano, hay que recordarlo, es una organización que se creó después del grave accidente de Chernobil, en abril de 1986, con objeto de supervisar las condiciones de operación de las plantas nucleares en el mundo, a modo de prevenir accidentes tan graves como el mencionado, que sacudió los cimientos de una industria nuclear ya de por sí herida de muerte en algunos países como Estados Unidos. En esta potencia mundial, cuna de la energía nuclear para los propósitos de destrucción masiva y de generación eléctrica (usos que para algunos estuvieron y siguen estando indisolublemente unidos), el crecimiento de la industria nuclear se ha ido a pique desde la década de los setentas, pues todos los proyectos nucleares en construcción y ordenados hasta 1973 se han cancelado (un poco más de cien) y desde 1978 no ha habido nuevas órdenes de construcción.
El accidente de Chernobil ensombreció aún más el futuro de la industria nuclear, por lo que una de las urgentes medidas emprendidas fue la creación de Wano, en vista de las deficiencias de supervisión de la Agencia Internacional de Energía Atómica. Este organismo dependiente de la onu había venido realizando dos funciones contradictorias, pues mientras por un lado tenía el mandato de reglamentar la difusión de la energía nuclear (incluyendo el uso de generación eléctrica) tomando en cuenta la seguridad y la no proliferación armamentista (lo cual, como se mencionaba, es una prueba de la indisolubilidad del uso militar y el civil), por el otro se dedicaba a promover descuidadamente su comercialización. Esta confluencia de intereses contradictorios provocó que la disciplina en la supervisión técnica de las plantas nucleares se fuera relajando, al grado de que la Agencia Internacional no vio peligro alguno en la continua operación de instalaciones nucleares que poco tiempo después sufrirían los peores accidentes de la industria nuclear: la Isla de las Tres Millas (accidentada en marzo de 1979) y Chernobil (accidentada en abril de 1986). Aunque el director de aquel tiempo, Hans Blix, declarara que al ser imposible evitar los accidentes en las nucleoeléctricas (“un accidente nuclear grave puede ocurrir mañana”) se tomarían medidas más rigurosas en la supervisión de la industria nuclear, el enorme daño causado sobre todo por Chernobil ya estaba dado y el desprestigio de la Agencia demandaba la creación de nuevas instituciones. Una de las iniciativas se dio, como era de esperar, por parte de la industria nuclear con el fin de preservar sus intereses y así nació Wano.
El informe Wano
El reporte Wano se refiere a lo observado por los dieciocho operadores que visitaron Laguna Verde durante octubre y noviembre de 1999, y reúne información de eventos ocurridos solamente a partir de los inicios de 1998; todo el pasado y aun eventos que se podrían calificar como preocupantes (que se mencionan más adelante) no se cubren en las cerca de doscientas páginas del reporte escrito. Tampoco hay, por las características de la investigación, una descripción de irregularidades provenientes de la naturaleza de los equipos, reportados como defectuosos desde 1958, pero que es importante mencionar al hacer un juicio sobre el estado de seguridad de la nucleoeléctrica.
El reporte Wano es una llamada de atención para que se realice una investigación más profunda y extensa, con el fin de apreciar objetivamente las condiciones de operación de la planta nuclear y más allá de lo que puede revelar una visita de apenas dos meses, sujeta al recabamiento de información anterior basada en la buena voluntad informativa del personal que actualmente ahí labora.
Los operadores de Wano revisaron sesenta y dos áreas que tienen que ver con la seguridad de Laguna Verde, encontrando deficiencias en prácticamente todas ellas. Como conclusiones generales desprendidas de la lectura del informe se pueden anotar que, en primer lugar, es evidente que esta central no opera con los niveles de “excelencia” dados a conocer por la cfe; por el contrario, Wano señala que en varios aspectos la operación está muy por debajo de los niveles comunes de calidad de la industria nuclear internacional. En segundo lugar, se puede apreciar que hay un deterioro en la llamada “cultura de seguridad nuclear”, según nosotros por la interrelación de tres factores (observados como aislados por Wano y enseguida referidos entre paréntesis): relajamiento en la disciplina de los técnicos (inobservancia parcial de reglamentos e instructivos técnicos de seguridad); preparación deficiente de los operadores (falta de dominio en aspectos básicos de la ingeniería de reactores, proveniente en parte de deficiencias en el entrenamiento en el simulador), y deterioro de componentes técnicas en funcionamiento (como ocurre con numerosos detectores de radiación situados en componentes críticas del reactor, en parte imputables a falta de presupuesto y directamente a fallas del área de servicio y mantenimiento). Estos tres factores interactúan de manera sinérgica, de ahí su elevado grado de peligrosidad. Wano no se refiere explícitamente al sinergismo que detectamos como consecuencia de su informe, pero pensamos que está presente y actuante y que, además, tiene una componente adicional que es el diseño defectuoso de Laguna Verde (se sabe desde 1958 que el sistema de “supresión de la presión” no es adecuado, al grado que en 1972 así fue oficialmente reconocido en un memorando interno de la Comisión de Energía Atómica de Estados Unidos, pero que se ocultó al público y a las compañías generadoras de electricidad, razón por la que General Electric enfrenta demandas multimillonarias por fraude al vender a sabiendas equipos defectuosos).
Enseguida Wano hace un relato de los eventos más recientes ocurridos en la central, en donde se aprecia la interacción de los factores mencionados en el párrafo anterior. Debe tenerse en cuenta que el tipo de incidentes que se relatan se vienen presentando desde el inicio de operación de la primera unidad de Laguna Verde (lv1); otro tipo de eventos, que también influyen o tiene que ver con el estado de seguridad, han ocurrido desde las etapas previas al inicio de operación (alguien podría pensar que si eventos similares son la normalidad, entonces no habría lugar al temor, dado que nada grave ha sucedido en los ya casi diez años de operación de lv1; sin embargo, la operación del equipo en condiciones de tensión continua puede provocar fallas de gravedad en el momento menos pensado, como cuando se utiliza en demasía los frenos del automóvil. O como dice el dicho: “tanto va el cántaro al agua...”).
El equipo
Los datos siguientes fueron proporcionados a Wano por las autoridades de la central. No incluyen, sin embargo, otros eventos que les fueron ocultados, a los que se hará referencia posteriormente. Los problemas se refieren a fallas en los sistemas conectados directamente con funciones de seguridad, como sistemas de potencia ac de emergencia, sistemas de emergencia de enfriamiento, etcétera.
En los generadores diesel, que guardan relación con múltiples sistemas de seguridad, ocurrieron diversas fallas por contactos defectuosos en las dos unidades, imputables en todos los casos (31 de abril en lv1, 3 de abril en lv1 y 2 de abril de 1998 en lv2) al hecho de que el programa de mantenimiento preventivo en Laguna Verde no revisa rutinariamente la limpieza de los contactos eléctricos.
En el Sistema de Protección del Reactor (cuya misión es apagar el reactor en forma segura) las tallas de los epa (Electrical Protector Assembly) son un problema crónico. Ocurrieron nada más seis fallas en éstos durante la más reciente recarga de combustión en lv1, las más notorias los días 12 y 13 de abril de 1998, en que no funcionó el enfriamiento de paro del reactor y se activó espontáneamente el sistema de protección b (que consiste en bañar al reactor a alta presión), respectivamente.
Problemas de equipo relacionados con el manejo de la reactividad del reactor
(la reactividad es el porcentaje de desviación relativa de la criticalidad; un reactor estable funciona con valor uno en la criticalidad; si el valor supera la unidad se presentaría una reacción nuclear en cadena descontrolada). Se trata de fallas que también tienen que ver con los sistemas de enfriamiento del reactor (para que no se funda), como las bombas de recirculación de agua, etcétera. Éstas fueron:
• 19 de febrero de 1999. lv2 entra en una región peligrosa de radioactividad al estar funcionando a 100% de la potencia, debido a que una bomba de recirculación baja de velocidad por la falla de una tarjeta de un circuito. En esta situación debió pararse el reactor, de acuerdo con los procedimientos pero los operadores no lo hicieron.
• 4 de febrero de 1999. Al estar trabajando lv2 a 100% de la potencia falló la bomba de recirculación b del reactor; ocurrió cuando los técnicos revisaban un contacto a tierra en el circuito de control de la bomba. Causa: la acción conjunta del vapor condensado en la caja de interruptores y la corriente de 300 ma del equipo eléctrico de revisión.
• 7 de noviembre de 1998. Mientras la potencia de lv1 era bajada para atender una alarma de elevada entrada de agua al pozo seco (el contenedor primario, dentro del cual se halla el reactor), la bomba a de recirculación no pudo pasar al régimen de baja velocidad. El operador finalmente pudo conducir la bomba a este régimen. Causa: contactos sucios en el circuito de control de la bomba, por fallas del programa de mantenimiento preventivo (que debería revisar rutinariamente los contactos).
• 22 de septiembre de 1998. Al estar funcionando lv1 a 85% de la potencia durante una prueba de inserción de barras de control, una de éstas no se insertó en los siete segundos requeridos por el criterio de aceptación. Causa: diafragma de hule deteriorado de la válvula piloto del solenoide del scram. El evento es de notar porque pudo preverse (según Wano), pero no se hizo caso de fallas similares en el solenoide, detectadas como comunes en la industria nuclear (en otras palabras, no se está al día respecto al comportamiento de partes técnicas en plantas nucleares).
• 8 de febrero de 1998. Al estar funcionando lv1 con una potencia de 96.7% y a 104.5% del flujo en el núcleo del reactor, se violaron durante 0.5 segundos los límites permitidos de flujo (107%) en dicho núcleo debido a que la válvula b de control del flujo de recirculación se empezó a abrir, hasta que el flujo llegó al valor de 107.07%. La causa se debió a múltiples errores humanos de precedimiento, descoordinación entre un operador emergente y el del cuarto de control y fallas de componentes. En este caso la estabilidad del reactor fue restablecida de manera contingente, pudiendo llegar a una emergencia nuclear.
Paros y pérdidas de generación
Lo siguiente es —nuevamente según Wano— un resumen de los problemas que afectan la confiabilidad de la central, por ejemplo, transitorios no planificados de la central, pérdidas de disponibilidad, degradaciones, paros extensos, etcétera. En lv1 estos han sido:
• 9 de enero de 1999. Al estar en marcha la unidad a 70% de la potencia dejó de funcionar la bomba a de recirculación del reactor. Ninguna alarma se activó por la falla de la bomba, más bien la falla fue detectada por los operadores al notar reducciones en el flujo dentro del reactor y en la potencia.
• 9 de enero de 1999. Para la bomba de recirculación a del reactor, por un contacto a tierra detectado desde el 4 de enero sobre el que no se actúa hasta el 8 de enero sin lograr detener la falla. La causa se debió a a la lenta respuesta del servicio de mantenimineto.
• 4 de enero de 1999. Los operadores recibieron indicación de un contacto a tierra del canal de la división de corriente directa de un ampere y 125 v. Hasta el 8 de enero se empezó el servicio de mantenimiento para localizar el sitio del contacto a tierra, lo cual no se logró antes de que ocurriera la falla en la bomba de recirculación a (9 de enero). Las investigaciones prosiguieron el 9 de enero y se descubrió que varios contactos a tierra del canal fueron los causantes del paro en la bomba de recirculación a del reactor.
• 23 de junio de 1998: mientras se paraba la unidad, que estaba a 100% de la potencia, se excedió el tiempo límite especificado de aislamiento del reactor para tal acción. Mientras se observaba la situación del núcleo del reactor una parte del sistema de observación se atoró en el núcleo, siendo inútiles los esfuerzos para liberarla; entonces se cerró el reactor y la válvula de explosión (de emergencia) restableció el confinamiento aislante del núcleo. Causa: partes gastadas e insuficiencias del servicio de prevención y mantenimiento del sistema de observación contribuyeron al evento.
• 19 de mayo de 1998. Paro automático del rector por despresurización de la vasija a 100% de potencia, por un interruptor de una válvula de seguridad que falló por razón desconocida. El interruptor se envió al fabricante para determinar la causa del fallo.
En cuanto a los problemas producidos por paros y fallas de generación ocurridos en lv2, la lista es la siguiente:
• 25 de junio de 1999. Al estar funcionando la unidad a 90% de la potencia una alarma de radiación del túnel principal de vapor forzó una parada de emergencia del reactor. El scram fue ocasionado por un operador que, durante una operación de limpieza del agua del reactor, omitió un paso en el procedimiento dejando parcialmente abierta la válvula de uno de los filtros. Esto ocasionó un flujo de basura radiactiva que accionó la alarma de radiación en el túnel de vapor, por lo que (conforme al diseño) el reactor paró mediante la acción del sistema de paro automático. Pero el transitorio subsiguiente se complicó por la indicación de que una válvula de seguridad estaba abierta, lo que envió una segunda señal de parada de emergencia. A esto se sumó una inestabilidad extrema en el nivel del agua del reactor, de alto nivel a bajo nivel, lo que provocó la aparición de una tercera señal de parada de emergencia. Causa del evento: error humano y errores de diseño (en cuanto a estabilidad) del reactor.
• 22 de junio de 1999. Al estar funcionando el reactor a 100% de potencia la tripulación de operadores observó un descenso en la presión del aire de los instrumentos de control, mientras se actuaba sobre el sistema de prefiltrado del agua del reactor. Al tratar de enmendar la falla la presión del aire de una de las válvulas del sistema de parada súbita empezó a descender; antes de que la válvula se reabriera los operadores observaron que varias de las barras de control empezaron a insertarse, por lo que la tripulación procedió inmediatamente a un paro manual de emergencia. La enmienda emprendida se realizó sin ningún plan escrito, lo cual es requerido en los procedimientos administrativos; los operadores, sin embargo, no creyeron que tal plan fuera necesario (el personal de Wano hizo notar que es necesario verificar que el control y seguimiento del estado técnico de las válvulas forma parte del programa de mantenimiento preventivo).
• 19 de enero de 1999. La unidad experimentó una parada de emergencia (scram) al recibirse una señal espuria de bajo nivel de agua en el reactor. Adicionalmente al scram el generador diesel de la división iii se activó espontáneamente iniciándose el rociado de alta presión al reactor. El scram fue exitoso y los otros sistemas funcionaron de acuerdo con el diseño.
• 3 de enero de 1999. Los operadores decidieron parar manualmente el reactor, debido a una (falsa) señal de vibraciones más altas de lo permitido, según el diseño de las turbinas principales del generador.
Fallas en contención
Este tipo de fallas se refiere a grietas en el combustible, integridad del sistema de refrigeración del reactor, integridad de contenedores, etcétera. Éstas fueron:
• 10 de enero de 1999. Se detectaron niveles crecientes de radiactividad en el sistema de expulsión de gas al ambiente (el llamado off gas o gas de salida) cuando se incrementaba la potencia del reactor de la Unidad 1. La causa se debió a la existencia de un agujero en un bloque de elementos de combustible.
• 11 de enero de 1999. Con objeto de evitar el aislamiento automático del condensador principal, los operadores elevaron el umbral de activación de la alarma radiactiva del gas de salida, contraviniendo los instructivos.
• 14 de mayo de 1998. Al estar funcionando lv1 a 100% se declaró un evento no común, pues mientras se investigaba en esas condiciones una entrada de aire al contenedor primario se detectó una fuga del refrigerante primario (el agua que circula por el núcleo del reactor) y pérdida de la frontera del contenedor. La causa se debió a la colocación de una válvula sin empaque en la brida, entre la frontera del sistema primario de hidrógeno-oxígeno y el pozo seco del reactor.
• 13 de abril de 1998. Los puntos de ajuste de cinco sistemas de voltaje de lv1 estaban fuera del intervalo especificado.
El cuarto de control
En otro orden de cosas se encontró que las válvulas de recirculación de flujo mínimo se operan manualmente debido a problemas de goteo presentes durante varios años; por causa del goteo de varias válvulas se activa el sistema de enfriamiento de la alberca de supresión y ésta tiene que ser drenada periódicamente. La impermeabilidad de las válvulas se deteriora en cada scram o en los transitorios, y éstas se cambian hasta que se realizan las recargas. El supervisor indica que el ingeniero de sistemas no dispone de un plan de largo plazo para corregir el problema; hay tres tuberías del agua de servicio que tienen fugas, situadas entre la entrada de la casa de bombas y los edificios del reactor y el de control, pero no hay planes a largo plazo para reemplazar la tubería de cobre-níquel.
La lectura de lo que sucede en las restantes sesenta y un actividades relacionadas con la seguridad de Laguna Verde es larga de resumir, por el nivel de los detalles y la relevancia de lo que se describe. Como muestra de lo anterior (la punta del iceberg) abajo se detallará lo que sucede en el cuarto de control y se escribirán las conclusiones a las que los operadores de Wano han llegado, para que el lector se dé una idea de lo que puede leer en el resto del reporte (el cuarto de control es el “cerebro” de la central, en donde se toman las acciones principales que gobiernan su funcionamiento operativo de la central).
• Deficiencias de equipo. Por la falta de refacciones no funciona la guía del “monitor de contaminación” del panel desde hace cuatro años; los interruptores de apertura para desconexión remota automática no sirven, por lo que desde 1992 la operación tiene que realizarse manualmente; el switch A-3099/b4l2 no se puede activar eléctricamente, por lo que desde hace ocho meses tiene que ser operado manualmente; el transformador at-3 para la fase de reserva no está en condiciones óptimas desde hace dieciocho meses; la válvula de aire comprimido para el interruptor de 400 kv ha estado goteando aceite desde 1997 (se depende entonces del compresor de aire de 230 kv, el cual tiene una válvula que presenta fugas desde hace dos meses; el operador dijo que no sabría qué hacer en caso de que el compresor fallara); el interruptor de fase a 4030 tiene fugas de aceite desde hace más de dos años; las tuberías de las conexiones neumáticas de los interruptores están tan corroídas que pueden fallar en cualquier momento; los filtros de ventana de la casa de bombas desaparecieron desde 1996; el transformador del reactor lr-1 para la línea Tecali tiene dos pequeñas fugas de aceite.
• Seguridad industrial. Varias puertas de emergencia permanecen rotas desde hace cuatro años; el operador dijo que está solo en el cuarto de control durante su turno y que cierra la puerta cuando va a la separada zona de los interruptores (existiendo la posibilidad de que no reciba ayuda en caso de ataque al corazón o de lesión, sino hasta el término de su turno); los operadores pueden tropezar por irregularidades en el suelo del cuarto de control; varias luces de emergencia no funcionan; los operadores pueden recibir líquidos peligrosos en los ojos en los cuartos de baterías; hay una lata de cinco galones de líquido inflamable, entre otros objetos peligrosos, almacenados en una esquina del cuarto de baterías; los operadores pueden sufrir choques eléctricos en la casa de bombas por falta de aislantes en el panel eléctrico de distribución lp-iwph-na/nb.
• Etiquetado. Baterías, paneles eléctricos, etcétera, están marcados con masking tape; otros controles no tienen etiquetas.
• Modificaciones temporales. Un cable de potencia de cientos de metros se salió de un panel de distribución descubierto y ha permanecido así por más de diez años; desde hace año y medio no han movido un cable de potencia para monitoreo sísmico de varios cientos de metros que pasa por la zona de interruptores; hay alambres que reemplazan los goznes de la puerta de la zona de interruptores, para evitar que se azote.
• Procedimientos. Una revisión de los trece procedimientos para los paneles del cuarto de control identificó las siguientes deficiencias: el operador manifestó que varios de los procedimientos fueron incorrectamente identificados como del área 17 en vez de la 41, que es la correcta; no había procedimientos de emergencia (solamente para encendido y parado del equipo); hay documentos que se emplean como procedimientos, cuando no lo son; el operador manifestó no haber tenido entrenamiento en ninguno de los procedimientos del cuarto de control.
• Aseo y condiciones materiales. Partes de cables, escaleras, baterías, papeles, etcétera, han estado abandonados por años en el cuarto de control; varias de las torres de los interruptores muestran signos de corrosión; las partes que se reemplazan durante los servicios de mantenimiento suelen abandonarse en el mismo lugar.
• Misceláneos. El operador manifestó su frustración debido a que no se atienden los problemas que él reporta (también dijo que el equipo relacionado con producción sí es reparado, pero que al restante no se le hace caso; hace cuatro meses se formó un grupo especial para atender los problemas del área de interruptores del cuarto de control, pero sin resultados; las etiquetas del equipo deficiente se cambian en cada parada por recarga para propósitos de renumeración, pero muchas se quitan y no se reemplazan en el cuarto de control; el panel cargador de baterías tiene un voltímetro y un amperímetro con etiquetas que muestran que desde 1995 no han sido calibrados.
Los operadores de Wano concluyeron que, en relación con el cuarto de control: a) existen algunos problemas con el etiquetado, b) se identificaron ciertos problemas de seguridad industrial en el área de interruptores, c) el operador de interruptores del cuarto de control podría no disponer de procedimientos adecuados en situaciones de emergencia, d) hay algunas modificaciones temporales en el área de interruptores, e) se puede mejorar el aseo en el cuarto de control y f) parte del equipo del área de interruptores no puede operar en automático a causa de los problemas que el equipo presenta.
Otras causas de inseguridad
La lectura de la lista de los problemas y fallas detectadas por Wano en las restantes actividades permite agruparlos en tres rubros que tienen que ver con la inseguridad de Laguna Verde: humanos, técnicos y económicos.
• Aspectos humanos. Deficiente conocimiento práctico de la ingeniería de los reactores nucleares del personal del cuarto de control; deficiencias en el manejo de la reactividad del reactor, con respecto a estándares internacionales de operación; operadores que no siempre siguen las instrucciones y los manuales técnicos de operación; entrenamiento deficiente y tardío del personal acerca de fallas técnicas de operación de equipos; muchos de los desperfectos y fallas no se reportan; ausencia de programas de mejoramiento en la preparación de operadores; falta de estímulos al operador por buen desempeño; desconfianza de los operadores en algunas alarmas (por ejemplo en la alarma de alta temperatura del pozo seco, por lo que no se toman acciones); posibilidad de que deficiencias prioritarias no sean tomadas en cuenta por priorización excesiva; respuestas apresuradas y automáticas de los operadores ante emergencias; operadores que apagan algunas alarmas radiactivas en el cuarto de control por la creencia de que están defectuosas; fallas en el entrenamiento de los operadores para emergencias nucleares; ocultamiento de información sobre “errores humanos de operación”; memoria, seguimiento y evaluación deficiente de los desperfectos técnicos; descoordinación de los equipos relacionados directamente con la seguridad nuclear; mayor contaminación radiactiva que en plantas de diseño semejante; sobrecarga de trabajo del personal encargado del análisis causal de desperfectos; atención focalizada en desperfectos y fallas aislados, sin consideración de las interacciones; supervisores de campo que cumplen sólo parcialmente sus cometidos; falta de “sentido de propiedad” de los operadores; sistemas subjetivos de evaluación de la conducta operativa de los técnicos; las causas de los paros automáticos o manuales de los reactores son analizados por una sola persona, mientras que en la práctica internacional tales eventos son estudiados por un equipo interdisciplinario; el personal no sigue las recomendaciones (ciento veinte hasta ahora) del Grupo Independiente de Evaluación de Seguridad (creado en julio de 1998), de las cuales 5% tiene que ver con seguridad nuclear; el Grupo Independiente reporta violaciones mensuales a especificaciones técnicas; procedimientos de emergencia ocultos debajo de libros (en el cuarto de control), etcétera.
• Aspectos técnicos. Muchos de los paros automáticos y manuales del reactor son ocasionados por mantenimiento y servicio deficientes o simplemente ausentes; simulador para entrenamiento de operadores obsoleto; los eventos reales no son considerados en los procedimientos de operación; cuarto de control mal iluminado, sonido distractor y desaseo; fallas múltiples en los generadores diesel de emergencia; juntas eléctricas defectuosas (alambres torcidos y cubiertos con cinta aislante) capaces de inutilizar equipo crítico de seguridad; uso generalizado de masking tape como señalador o como aislante de fugas; peligro de incendios por deficiente control de material químico inflamable; se pueden dar pérdidas temporales de potencia en los reactores por fallas en el seguimiento de percances técnicos de componentes; pueden ocurrir cambios de configuración por la falta de sujetadores y de pernos en equipo relacionado con seguridad, que pueden ocasionar que no sea posible enfrentar un accidente de diseño básico (como es el caso de algunas bombas de enfriamiento); no se ha evaluado el posible impacto sobre los elementos combustibles de una barra de control mal situada (percance del 22 de junio de 1999); sistemas de detección de radiactividad deficientes o defectuosos provocan la activación de múltiples alarmas en el cuarto de control (las cuales se desconectan, porque “no se les cree”), lo que impide la activación de los generadores diesel de emergencia (lo que en una situación grave de verdad podría degenerar en un accidente); larga lista de paros de emergencia, que demuestra el deterioro creciente de equipos y servicios de mantenimiento, etcétera.
A las fallas técnicas anteriores hay que sumar lo defectuoso del diseño de algunos de los sistemas de seguridad de Laguna Verde, como el sistema de supresión de la presión.
• Aspectos económicos. Continuamente se repiten percances por falta de presupuesto para atender las recomendaciones (de compra de equipo nuevo, pago de cursos para operadores, compra de refacciones, etcétera); no se efectuará la indagatoria sobre un percance de reactividad en lv2 por causa de fugas en elementos combustibles, sino hasta la siguiente recarga de marzo de 2000; la falta de detectores y medidores de radiactividad en buen estado obliga a que el off gas (el gas radiactivo contaminante que normal y legalmente sale de la central) sea analizado químicamente, lo que retrasa la detección de desperfectos (que pueden ser indicativos de incidentes de gravedad), etcétera.
Todos y cada uno de los contenidos que abarcan los tres aspectos anteriores consta de ejemplos precisos en las doscientas páginas del reporte Wano. De varios de ellos se puede concluir que, contrariamente a lo que especifica la legislación sobre la operación de plantas nucleares, la producción (es decir, la generación de electricidad) es la prioridad más alta, y no así la seguridad.
Puede también concluirse que la llamada “cultura de seguridad nuclear” va en decadencia, pues la planta y sus componentes envejecen, la disciplina de los operadores se relaja y lo caro del funcionamiento de la central incide cada vez más sobre la capacidad de servicio y mantenimiento adecuado. La interacción sinérgica de estos tres factores, sumado a lo defectuoso de varios de los diseños claves para la seguridad (como el mencionado “supresión de la presión”), indican como necesaria la detención de la operación de Laguna Verde.
Una opinión especializada
El reporte Wano fue analizado por David Lochbaum, un especialista en plantas nucleares perteneciente a la Union of Concerned Scientists, organización independiente de científicos estadounidenses dedicada a la promoción de la utilización benéfica de la ciencia y la tecnología, y abocada también a la lucha en contra de las técnicas peligrosas para la humanidad, como es el caso de la energía nuclear. De la carta que Lochbaum dirige a la organización ecologista de Greenpeace-México (y de la cual da noticia Alejandro Calvillo en el periódico La Jornada, el 14 de abril del presente año), destacamos lo siguiente:
a) Los problemas descritos en el reporte Wano “tienen muy serias implicaciones” para la seguridad de Laguna Verde.
b) Aunque es cierto lo que el director de Wano expresó al director de la Comisión Federal de Electricidad (en una carta posterior al informe Wano, al parecer requerida por el director de cfe para con ella tranquilizar a la Cámara de Diputados sobre la seguridad de la central) que “aspectos como los identificados en Laguna Verde han existido en otras plantas nucleares en el pasado y aún existen hoy en día en otras plantas actualmente en operación en América del Norte”, la realidad es que “muchas de las plantas nucleares en Estados Unidos efectivamente han operado con problemas comparables a los identificados en Laguna Verde. [...] hasta que fueron descubiertos. En los últimos quince años, veintitrés plantas nortemericanas han sido forzadas a cerrar por un año o más con el objeto de hacer reparaciones al equipo de seguridad y a los procedimientos de operación de las plantas [...] Nada más en 1997 nueve reactores en Estados Unidos fueron cerrados durante el periodo para tales reparaciones. Hoy en día los dos reactores de la planta Donald C. Cook en Michigan permanecen cerrados. Ellos fueron cerrados en septiembre de 1997 y literalmente miles de reparaciones tienen que realizarse antes de que tal planta pueda reiniciar operaciones de manera segura”.
c) “Las plantas nucleares norteamericanas, y Laguna Verde también (dado que su diseño es de General Electric), están diseñadas para que una falla específica aislada no dañe a la población o al ambiente. Este concepto del diseño de falla aislada tiene la intención de prevenir que el error de un operador o la falla de una pieza del equipo no ocasionen que el material radiactivo escape a la atmósfera en cantidades suficientes como para causar daño. A las veintitrés plantas nucleares norteamericanas que han sido cerradas en los últimos quince años se les ha descompuesto más de un componente del equipo. El hecho de que a los dueños les ha tomado más de un año reparar todo el equipo descompuesto es una indicación de las pésimas condiciones de operación en que se encontraban tales plantas nucleares. La población y el ambiente no fueron protegidos por el diseño, sino por pura suerte. Si hubiera ocurrido un accidente en cualquiera de las veintitrés plantas nucleares los equipos de seguridad no habrían actuado y las consecuencias habrían sido graves”.
d) “Desafortunadamente las condiciones de operación de los dos reactores en Laguna Verde se parecen a las condiciones de las veintitrés plantas en Estados Unidos antes de que fueran cerradas para las necesarias reparaciones. Si Laguna Verde fuera una planta norteamericana, la Union of Concerned Scientist pediría a la Comisión Reguladora Nuclear que obligara al paro de la central hasta que todas las reparaciones que necesita fueran efectuadas. Con tantos problemas de equipo y de procedimientos identificados en Laguna Verde es muy remota la posibilidad de que la población sea protegida en caso de que ocurra un accidente”.
e) “Los problemas identificados por Wano cubren el espectro de las actividades de una planta nuclear. La mayoría de los problemas, si no todos, parecen originarse por la misma causa: recursos inadecuados. Desde la carencia de un programa de entrenamiento para el ingeniero del sistema de generadores diesel hasta la falta de disponibilidad de refacciones para la gran cantidad de reparaciones atrasadas, revelan que Laguna Verde no dispone del personal ni de los recursos necesarios para adquirir y sostener niveles apropiados de seguridad”.
f) “El reporte contiene ejemplo tras ejemplo de problemas de mantenimiento: i) falla para realizar el mantenimiento preventivo; ii) mantenimiento que provoca, en vez de resolver, problemas, y iii) falta de seguimiento después del mantenimiento para un control adecuado. Estos problemas simplemente no serían tolerados en plantas norteamericanas y no deberían ser tolerados en Laguna Verde”.
g) “Veintitrés reactores norteamericanos han sido cerrados en los últimos quince años debido a problemas de seguridad. Siete reactores canadienses han sido parados en los últimos tres años por causa de problemas de seguridad. Los dos reactores nucleares de Laguna Verde continúan operando con problemas de seguridad tan malos como, y en algunos casos peores que, los problemas que causaron que treinta reactores nucleares en Norteamérica se hallan cerrado”.
h) “Si cualquiera de los reactores de Laguna Verde experimenta un accidente con tantos problemas de seguridad documentados por Wano —aun si no existen otros problemas— las consecuencias pueden ser desastrosas”.
Hasta aquí las conclusiones del ingeniero en seguridad nuclear David Lochbaum. Ellas son compatibles con las que se han escrito anteriormente y apuntan en la misma dirección: es urgente el paro de Laguna Verde.
Greenpeace-México también solicitó una evaluación del reporte Wano a una prestigiada empresa británica, Large & Associates, con amplia experiencia internacional en evaluaciones de seguridad nuclear; su conclusión básica es que Laguna Verde está al borde de una falla institucional, “allí donde los factores de n eventos causativos se combinan y actúan de tal manera que derrumban el sistema completo”. Los elementos causativos identificados por Large son: 1) falla en asignación de recursos apropiados; 2) falla en reconocimiento de un ambiente de seguridad insatisfactorio y en deterioro; 3) falla en reconocimiento de las limitaciones de la cubierta de seguridad nuclear; 4) prioridad de los imperativos de producción sobre la seguridad. Es decir, y al igual que Lochbaum, el informe Wano apunta a un riesgo inminente de accidente en Laguna Verde.
Una propuesta sencilla
De las fallas no consignadas en Wano la siguiente es un ejemplo, según información proporcionada por técnicos de Laguna Verde al Grupo de Madres Veracruzanas y Greenpeace-México (documento “Anexo núm. pas-07-5”).
• 1 de octubre de 1999. Paro en lv2 para la investigación de un contacto a tierra de un ventilador del sistema de mezclado de hidrógeno de la contención primaria. A partir de esta investigación se “declara inoperable el sistema de mezclado de hidrógeno de la contención primaria”, por causa de un “incorrecto acomodamiento de cables de penetración desde la fase constructiva”. De acuerdo con el citado documento, se considera que sí pudo haber tenido consecuencias en la seguridad debido a que el sistema de remoción de hidrógeno es requerido después de un accidente base de diseño. Por tal motivo se tomó la acción de parar la unidad de acuerdo a la c.l.o.3.6.6.3”. Recuérdese que en un “accidente base de diseño” falla la refrigeración de los elementos de combustible, por lo que al interactuar a elevada temperatura con el vapor de agua lo descomponen en hidrógeno y oxígeno, formándose una nube que puede explotar (como en Chernobil), o desaparecer “milagrosamente” (como en la Isla de las Tres Millas).
Finalmente, la seguridad nuclear también tiene que ver con una correcta organización institucional de la misma: por ello en Estados Unidos, durante el gobierno de Gerald Ford, en 1975 se tuvo que dividir en dos la Atomic Energy Commission, en una parte dedicada a la promoción de la energía nuclear y otras fuentes energéticas (la Energy Research and Development Agency) y otra orientada al control y reglamentación de la seguridad (la Nuclear Regulatory Commission), ambas funciones realizadas por la antigua comisión, con los obvios conflictos de intereses (que a la fecha persisten, pero disminuidos). Por esto mismo en México la Comisión Federal de Electricidad (promotora de la nucleoelectricidad) y la Comisión Nacional de Seguridad Nuclear y Salvaguardas deberían quedar en cabezas sectoriales distintas, en vez de ambas depender de la Secretaría de Energía; la cfe podría seguir en esta secretaría, pero el organo encargado de la seguridad debería ser separado definitivamente de ella, para ser una dependencia de otra instancia, por ejemplo, de la Procuraduría Federal de Protección al Ambiente. La Comisión de Energéticos y la de Ecología de la Cámara de Diputados deberían también intervenir en la supervisión del funcionamiento de Laguna Verde, como instancia de intermediación. No es que con estas medidas institucionales se pueda evitar el riesgo nuclear (para esto se requeriría el cierre definitivo de Laguna Verde), pero al menos disminuiría bastante.
|
|||
|
Referencias bibliográficas
Reporte Wano, octubre-noviembre de 1999.
Carta de David Lochbaum a Alejandro Calvillo (director ejecutivo de Greenpeace-México), 20 de marzo de 2000.
Large & Associates, informe R3039-A1 dirigido a Greenpeace-México, 15 de abril de 2000.
|
|||
|
Marco Antonio Martínez Negrete
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Martínez Negrete, Marco Antonio. (2000). La seguridad nuclear de Laguna Verde en cuestión. Ciencias 58, abril-junio, 49-59. [En línea]
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|
|||
|
El hombre en la luna, el fin de las enfermedades y otros mitos
|
|||
| George J. Annas
conoce más del autor
|
|||
|
|
← Regresar al índice ⁄ artículo siguiente → | ||
|
A medida que el año 2000 avanza, es necesario reflexionar y especular acerca de lo que será el 3000. No para tratar de dilucidar cómo será la vida del hombre, sino para pensar seriamente cómo queremos que sea nuestra vida. Dicho de otra manera, ¿qué es lo esencial de los seres humanos y de ser un ser humano? ¿Qué hace a los seres humanos ser humanos? ¿Cuáles son los valores que debemos preservar para conservar la humanidad? ¿Cómo sería un “mejor ser humano”? ¿Hay cualidades que deseamos minimizar, o por el contrario hay cualidades que deseamos mejorar? ¿Y si los derechos humanos y la dignidad del ser humano dependieran de nuestra naturaleza humana podríamos nosotros cambiar nuestra “humanidad” sin cambiar nuestra dignidad y nuestros derechos humanos? Para analizar estas preguntas debemos primero empezar por analizar los pasados mil años.
Guerras santas
El principio del segundo milenio se caracterizó por las guerras santas; guerras regionales, como la reconquista de la península ibérica de las manos de los moros, y las guerras de carácter mundial, como las Cruzadas, que intentaron retomar de las manos de los musulmanes la Tierra Santa, quienes estaban asediando a los peregrinos cristianos. Las Cruzadas abarcaron casi doscientos años luchando en nombre de Dios, con el grito de batalla Deus Volt (la voluntad de Dios). El enemigo era el no creyente, el infiel, y su muerte un acto santo. La posibilidad de marcar al enemigo como un ser “diferente”, y por lo tanto de deshumanizarlo y justificar su muerte en Dios (o en la nación), fue la principal característica de todo este milenio.
Como los cruzados, Cristóbal Colón buscó conquistar nuevos territorios habitados por infieles en nombre de Dios. Cuando Colón llego al “Nuevo Mundo”, el cual pensó que era parte de las Indias orientales, bautizó a la isla con el nombre de San Salvador y tomó posesión de la tierra en nombre de la Iglesia católica y de los reyes católicos de España. Para los europeos, bautizar las tierras era simbólico de conquista, de tomar posesión. El acto era simbolizado izando una bandera. Sin embargo, Colón, quien también tenía como objetivo convertir a todos los “salvajes” que habitaban el Nuevo Mundo, dijo, de acuerdo con los archivos históricos, que “en todas partes dejé una cruz en pie”, señal de la dominación cristiana. La religión fue la excusa que se usó como fachada para la conquista. A pesar de esto, los encuentros de Colón con los indígenas resultaron en subyugación y genocidio.
Los conquistadores españoles que siguieron a Colón continuaron usando la religión católica y la ausencia de ésta en el Nuevo Mundo para tomar posesión de la tierra y conquistar a sus habitantes. William Prescot, por ejemplo, hace un recuento en su libro La historia de la conquista de México acerca de cómo los europeos de aquel tiempo creían que el paganismo “era un pecado castigado con fuego [...] en este mundo, y en el más allá, con el sufrimiento eterno”. Prescot añade que “bajo este código el territorio de no creyentes, donde quiera que se encontrara [era entregado a la Santa Sede] y como tal era dado libremente por la cabeza de la Iglesia a cualquier potentado que quisiera asumir la carga de su conquista. Prescot parece tener algo de simpatía por Montezuma (el dios del Sol), y por los aztecas asesinados por los españoles durante la conquista; pero al final concluye que los aztecas no merecían considerarse completamente como seres humanos, “¿cómo una nación puede avanzar por el camino de la civilización si prevalecen los sacrificios humanos y especialmente cuando se combinaban con canibalismo?”
De forma similar, Pizarro justificó la conquista del Perú y la subyugación de los incas, incluyendo el secuestro y asesinato de Atahualpa, por la “gloria de Dios” y para traer “nuestra Santa Fe Católica a tan vasto número de infieles”. Aunque Dios y religión eran las excusas, el motivo real de la conquista era el oro. En la búsqueda de El Dorado ninguno de los conquistadores que siguieron a Cortés y a Pizarro (quien consiguió la recompensa en oro más grande del mundo por Atahualpa) fueron capaces de robar la cantidad de oro que estos dos pudieron haberse llevado.
Las Cruzadas, los viajes de Colón y las conquistas de los españoles son poderosas metáforas para todas las exploraciones humanas y todos los encuentros humanos con lo desconocido. Ellos nos enseñaron que no solamente el campo de la dominación humana se pueden expandir radicalmente con imaginación y coraje. Más importante aún, ellos nos enseñaron que sin una igualdad fundamental de los seres humanos y sin una dignidad humana los costos de tal dominación serían violaciones brutales a los derechos humanos, los cuales son más importantes para el futuro de la humanidad que el oro o los nuevos territorios ya conquistados. Ellos también nos enseñaron a dudar de los motivos explícitos y de las historias encubiertas, pues aunque llenos de celo misionero todos estos aventureros y exploradores buscaban principalmente fama y fortuna personal.
Guerras no santas
Claro que es más fácil mirar atrás quinientos años que cincuenta. Sin embargo, me parece que tres cosas —una guerra, un evento y un prospecto— son las que van a definir en el próximo milenio los derechos humanos y la responsabilidad científica; ellas son: la Segunda Guerra Mundial, la llegada del hombre a la Luna y la ingeniería genética humana. El origen del posmodernismo puede fecharse desde cualquiera de estas tres cosas, y cada una tiene sus propias lecciones y peligros. A través de todo esto podemos observar cómo la ciencia se convierte en la nueva religión de una sociedad secular y cómo la búsqueda de la vida eterna con Dios es reemplazada por el reto de inmortalidad en la tierra.
La Segunda Guerra Mundial
Muchos académicos fechan el inicio del posmodernismo en Hiroshima y en el Holocausto; el primero fue una aniquilación instantánea, el segundo una aniquilación sistemática. Con la aplicación de tecnologías industriales para masacrar vidas humanas, ambos eventos representan la muerte del sueño del progreso moral y científico que había caracterizado los tiempos modernos. El mundo nuclear del posmodernismo es mucho más ambiguo e incierto.
El movimiento moderno de los derechos humanos nace de las cenizas de la Segunda Guerra Mundial y del rechazo de que la única ley válida es la promulgada por un gobierno, incluyendo el gobierno alemán. La Organización de las Naciones Unidas se fundó para prevenir futuras guerras bajo la premisa de que todos los seres humanos tienen dignidad e iguales derechos. El juicio multinacional de los criminales de guerra en Nuremberg después de la Segunda Guerra Mundial se llevó a cabo bajo los postulados de que hay una ley humana superior (derivada de la “ley natural” que está basada en el entendimiento de la esencia natural de los seres humanos) y de que las personas pueden ser juzgadas y condenadas por violarla. Esta ley universal, que se aplica a todos los seres humanos y los protege a todos, criminaliza las ofensas contra la humanidad, incluyendo el genocidio, la muerte, la tortura y el esclavizamiento respaldado por los Estados. Obedecer la ley del país o las órdenes de un superior no son defensa válida: el Estado no puede proteger a sus agentes de ser juzgados por crímenes contra la humanidad.
La ciencia y la medicina estuvieron específicamente bajo investigación durante el llamado “Juicio de los Médicos”, donde veintitrés médicos nazis fueron juzgados por experimentos que incluyeron muerte y tortura; actos sistemáticos y barbáricos con el único objetivo de causar la muerte. Los sujetos de estos experimentos, que entre otros incluyeron experimentos de congelamiento y altitudes extremas, fueron prisioneros de los campos de concentración; casi todos judíos, gitanos y eslavos, gente que los nazis veían como subhumanos. Siguiendo los pasos de la conquista del Nuevo Mundo, la filosofía nazi se basó en la noción de que los alemanes eran una raza superior con el destino de subyugar y regir a las razas inferiores. Una parte central de la filosofía nazi fue el “eugenismo”, un intento por mejorar la especie humana, principalmente eliminando a las personas “inferiores”, los llamados “consumidores inútiles”. En su veredicto, la corte pronunció lo que hoy se conoce como Código de Nuremberg. Este código continúa siendo el documento ético y legal con más autoridad sobre normas internacionales de investigación, que insiste en el consentimiento informado de cada uno de los sujetos participantes en la investigación. El código es uno de los primeros documentos sobre derechos humanos en la historia del mundo.
Los primeros juicios en Nuremberg fueron rápidamente seguidos por la Declaración Universal de Derechos Humanos de 1948, el documento más importante sobre derechos humanos hasta hoy día. La Declaración fue seguida por dos tratados: el Convenio sobre los Derechos Civiles y Políticos y el Convenio sobre los Derechos Económicos, Sociales y Culturales. La Declaración y los dos tratados representan importantísimos pasos para la humanidad: el reconocimiento de que los derechos humanos están basados en la dignidad humana y que esta dignidad es compartida por todos los seres humanos sin distinción de raza, religión u origen nacional. Éste es un concepto poderosísimo y el reto a seguir es verlo hecho realidad (junto con las otras promesas contenidas en los dos tratados).
El hombre en la luna
La exploración más espectacular de este milenio, junto con la de Colón, es el viaje de la nave Apolo 11 a la Luna y su regreso. Las palabras de Neil Armstrong cuando puso pie en la superficie lunar son en realidad las precisas: “un pequeño paso para un hombre, un salto gigante para la humanidad”. Aunque la carrera espacial tuvo que ver más con las políticas de la Guerra fría que con la ciencia, no deja de ser éste un logro casi mágico de la ingeniería. Y aunque Estados Unidos estaba dispuesto a hacer cualquier cosa para poner al primer hombre en la Luna y que éste fuera un estadounidense, el experimento tuvo limitaciones en cuanto a los derechos humanos. El presidente John F. Kennedy, por ejemplo, puso como objetivo mandar un hombre a la Luna “y traerlo de regreso” antes del final de la década de los sesentas. Sin embargo, varias vidas humanas se pusieron en segundo plano con tal de ganar la carrera científica a los rusos; como muestra de esta circunstancia está el hecho de que se consideró mandar a un hombre a la Luna sin tener aún concebido cómo regresarlo a la Tierra.
Estados Unidos no conquistó el espacio precisamente por la gloria de Dios, pero Dios sí estaba presente en las mentes de los conquistadores espaciales a bordo de la nave Apolo, el dios del Sol. Los pensamientos religiosos más explícitos fueron los del diseñador de cohetes Werner von Braum, quien había sido un oficial de las Brigadas ss durante la Alemania nazi y quien diseñó los cohetes v2 que llovieron sobre Inglaterra al final de la Segunda Guerra Mundial. Von Braum fue capturado por Estados Unidos y “condonado” para trabajar en el programa de cohetes, impulsado por los esfuerzo de la nasa. El día en el que la nave Apolo 11 fue lanzada, Von Braum explicó las razones para poner un hombre en la Luna: “nosotros estamos expandiendo la mente humana. Estamos extendiendo este cerebro y estas manos que Dios nos dio hasta los límites más distantes, y en este proceso la humanidad entera se beneficiara. Toda la humanidad usufructuará los logros de esta cosecha”. El celo misionero de los cruzados y de los conquistadores hizo eco en la Luna.
Norman Mailer, en su crónica del alunizaje, Sobre el fuego en la Luna, hace una pregunta clave: “¿fue el viaje de la Apolo 11 la expresión más noble de la era tecnológica, o la mejor evidencia de su simple y llana locura? [...] ¿Somos nosotros testigos de grandeza o de locura?” Hoy día ninguno de los extremos parece completamente cierto. Las rocas lunares traídas a la Tierra son un símbolo mediocre del viaje; en cambio, las fotos de la Tierra tomadas desde el espacio han tenido un profundo impacto en lo que podríamos llamar nuestro sentido de conciencia colectiva, pues es ésta en realidad la que ayudó a que surgiera el movimiento mundial de protección ambiental. Es muy difícil negar nuestra humanidad cuando todos podemos ver el hogar que tenemos en común.
Nosotros también sabemos ahora que los rusos nunca fueron serios contendientes en la carrera por llegar a la Luna, y por eso las posibilidades de una exploración espacial seria que surgieron en Estado Unidos después del alunizaje fueron grandemente sobrestimadas. Nuestra pérdida de encanto, y aun de interés por la Luna, fue plasmada por Gene Cernam, el último de los doce astronautas que visitó la Luna. Cuando la nave despegó de la superficie lunar Cernam dijo: “dejemos esta cosa acá”. El alunizaje fue principalmente un asunto comercial y de política mundial, no de paz y armonía mundial. Otro testimonio es el del historiador Walter McDougall, quien en su libro Los cielos y la Tierra señala que, aunque la placa conmemorativa que fue dejada en la Luna decía “vinimos en paz de parte de toda la humanidad”, la paz nunca fue el propósito de esta misión. Quizás tuvo algo que ver con la ciencia, pero McDougall escribe: “casi todo fue sobre satélites espías y de comunicaciones y otros aparatos orbitales para el beneficio militar y comercial. Estos objetivos militares y comerciales continúan dominando el espacio, tal como fue en la época de los conquistadores, y una vez más la exploración científica ha quedado relegada a la ciencia ficción”.
Y es en el campo de la ciencia ficción y de la literatura donde se están discutiendo y evaluando los dilemas humanos, y donde el futuro de la humanidad está siendo imaginado. Borges, por ejemplo, fue el primero que sugirió que los seres humanos pueden llegar a ser inmortales, si estamos dispuestos a dejar que las máquinas hagan todas nuestras funciones corporales. Los seres humanos pueden llegar a un mundo de pensamiento puro colocando sus cerebros en “muebles de forma cúbica”. En este sueño, Borges imagina cómo la cirugía moderna y el reemplazo de partes mecánicas pueden llegar a traer un tipo de inmortalidad a los seres humanos; no como actor inmortal, pero sí como un testigo inmortal. Arthur Clarke en 2001 sugirió que la evolución humana puede seguir un rumbo diferente y desarrollar una mente computarizada encapsulada en un cuerpo de metal en forma de nave espacial, el cual rondará la galaxia buscando nuevas sensaciones. El precio por la inmortalidad del ser humano, de acuerdo con este punto de vista, es la erradicación tanto del cuerpo como de la mente humana; el primero por un cuerpo artificial indestructible, y el segundo por un programa de computadora capaz de duplicarse indefinidamente. Claro que un cuerpo robótico indestructible dirigido por un procesador digital de memoria no sería propiamente lo que consideramos hoy día como “humano”; es más, “los derechos” de tal artefacto estarían en la actualidad en el rango de los que tienen los robots y no de los que tienen los seres humanos. Nosotros estamos en capacidad de explorar el espacio exterior con uno de estos “robots”, pero nuestra fascinación parece estar en el espacio interior. En vez de expandir nuestros conocimientos y horizontes meditando sobre los misterios del espacio exterior, con la posibilidad de encontrar otras formas de vida, nos estamos volteando hacia nuestro propio interior y estamos contemplando nuestros cuerpos a un nivel microscópico. La nueva biología, quizás descrita mejor como la nueva genética, o como la “edad de la genética”, propone otra opción diferente a la de alcanzar la inmortalidad a través de un cerebro digitalizado en un cuerpo de metal o plástico, cambiando y mejorando nuestras capacidades humanas por medio de alteraciones a nivel molecular de nuestros genes. O como lo ha dicho James Watson, el codescubridor de la estructura del adn: “nosotros pensábamos que nuestro futuro estaba en las estrellas, ahora sabemos que el futuro está en nuestros genes”.
Ingeniería genética
Como la exploración espacial, el trabajo de la genética humana está dominado por agencias gubernamentales e intereses comerciales, estos últimos tomando la delantera. Y el objetivo es sin lugar a dudas conquistar la muerte y desarrollar un ser humano inmortal. Como lo declaró el presidente y gerente general de Human Genome Sciences a principios de 1999: “la muerte es una serie de enfermedades previsibles”. Las estrategias básicas para inventar un “mejor ser humano” han sido propuestas en dos recientes experimentos genéticos: la clonación de una oveja y la hechura de un ratón más inteligente.
A principios de 1977 el embriólogo Ian Wilmut anunció al mundo entero que había clonado una oveja, creando un gemelo genético de un animal adulto (ya muerto) gracias a la reprogramación de una de las células somáticas para actuar como el núcleo de huevo anuclear. Él bautizó a la oveja clonada Dolly, e inmediatamente se desató un debate internacional para hacer ilegal la clonación de seres humanos, el cual no ha terminado. Previas discusiones literarias sobre la clonación ayudan a entender por qué esta tecnología no debe ser aplicada en seres humanos. Wilmut no ha usado ninguno de estos argumentos literarios para fortalecer su posición, aunque si quisiera podría hacerlo. El reportero que describió a Wilmut como “el padre de Dolly” no hubiera podido traer un mejor ejemplo que las imágenes de Frankenstein, el personaje de la novela de Mary Shelley. Frankenstein también fue el padre y dios de su criatura; la criatura misma le dice a él: “yo debería ser tu Adán”. Igual que Dolly, la “chispa de vida” de esta criatura fue infundida a través de la electricidad, pero contrario a Dolly la criatura de Frankenstein fue creada ya desarrollada (lo cual está fuera del alcance de la clonación, aunque es lo que los estadounidenses sueñan y temen), por lo que deseaba ser más que una simple criatura: él quería una pareja de su “propia clase” con la cual pudiera vivir y reproducirse. Frankestein aceptó a regañadientes hacerle una pareja sólo si la criatura prometía dejar a la humanidad tranquila. Pero al final, Frankenstein destruye la pareja de la criatura alegando que él no tiene el derecho de darles como carga a las “generaciones futuras” los niños de estas criaturas, una “raza de demonios”. Frankenstein finalmente reconoció su responsabilidad para con la humanidad, y con ello Shelley explora en su novela casi todos los aspectos no comerciales del debate actual sobre la clonación.
El nombre del primer animal clonado, así como el de la isla San Salvador y la nave espacial Apolo, tiene gran importancia. El único sobreviviente de doscientos setenta y siete embriones (o “parejas fusionadas”) pudo haber sido llamado por el número de serie que le correspondía en la secuencia (por ejemplo, 6ll3), pero esto sólo hubiera enfatizado el carácter de producto. En contraste, el nombre de Dolly sugiere la existencia de un individuo único, lo cual tiene consecuencias en muchos otros niveles; aun a nivel de producto, una muñeca (Dolly significa muñequita en español) trae felicidad a los niños y como objeto es inofensivo. Victor Frankenstein, claro está, no le puso nombre a su criatura, por lo cual él rechazó cualquier responsabilidad paternal. Por haberle dado un nombre al primer mamífero clonado, Wilmut aceptó la responsabilidad sobre ella.
Clonar es duplicar y como tal tiene poca atracción o interés para aquellos que quieren tener hijos. La gran mayoría de nosotros queremos tener hijos para darles una vida mejor de la que nosotros mismos hemos tenido y no simplemente duplicárselas, así sea por medios genéticos. Por eso los experimentos de ingeniería genética que prometen “mejores” niños (y mejores seres humanos) son mucho más importantes para el futuro de la humanidad. En septiembre de 1999 el científico Joe Tsien, de la Universidad de Princeton, anunció que él ya ha usado técnicas de ingeniería genética para crear ratones con mejor memoria y que por lo tanto podían aprender más rápido que otros ratones; estos ratones eran “superinteligentes”. Tsien está convencido de que si estos resultados pudieran aplicarse en humanos todos desearían usar la misma técnica para tener niños más inteligentes. Textualmente, Tsien dijo que “cada uno de nosotros quiere ser inteligente”.
Usando las palabras del alunizaje como metáfora, Tsien dijo acerca de su ratón modificado genéticamente (al cual le dio el nombre de Dougie, un médico graduado casi adolescente, y personaje ficticio de la televisión): “para la comunidad científica es un pequeño paso”. La pregunta fundamental es “si éste es un salto para la humanidad”. Tsien también ha sugerido que el trabajo en el campo de la ingeniería genética es más importante que la clonación, porque el clon es una réplica exacta que no añade nada nuevo al mundo.
Su punto de vista es comprensible, pues la posibilidad de aplicar técnicas de ingeniería genética en seres humanos con el propósito de hacernos más inteligentes, más fuertes, más felices, más hermosos, o más longevos trae a colación las mismas preguntas con las que empecé esta presentación: ¿qué significa ser un ser humano y qué cambios en nuestra “naturaleza humana” darían como resultado “mejores seres humanos” (o en el surgimiento de una especie completamente diferente)? En el mundo de la ingeniería genética, por ejemplo, nos convertimos en productos de nuestra propia manufactura. Como producto estamos sujetos a controles de calidad y de mejoramiento, y a la destrucción o al reemplazo si salimos “defectuosos”. Creamos con esto un nuevo eugenismo basado no el defecto de nuestro prójimo, sino en el sueño (o pesadilla) de lo que se considera va a ser en un futuro un ser humano “ideal”. ¿Queremos nosotros en realidad lo que parece que queremos? ¿Está el doctor Tsien en lo cierto al argumentar, por ejemplo, que todas las personas quieren tener una mejor memoria?
El trabajo de toda una vida de Elie Wiesel, quien es el testigo más elocuente del Holocausto, ha estado dedicado al recuerdo, tratando de asegurarse que el mundo entero no olvide el Holocausto y, por lo tanto, para que éste no se repita. Éste fue también el objetivo principal de los fiscales y los jueces del Tribunal Internacional Militar llevado a cabo en la ciudad de Nuremberg. Los crímenes de lesa humanidad cometidos durante la Segunda Guerra Mundial tienen que seguir siendo recordados. Como lo planteó el fiscal en jefe, magistrado Robert Jackson, al Tribunal: “los males que buscamos aquí condenar y castigar han sido tan bien premeditados, tan perversos y tan devastadores, que la civilización entera no puede tolerar que pasen desapercibidos, porque de seguro no podría sobrevivir al repetirlos”. Como tal, la memoria no vale la pena, pero sí el significado de la información que contiene esa memoria, y el uso que los seres humanos le dan a esa información. Por ejemplo, cada día tenemos más y más información sobre nuestros genes, y se nos dice que la ciencia pronto podrá explicar la noción de vida desde el punto de vista molecular. Sin embargo, nosotros no vivimos la vida al nivel molecular, sino como seres enteros; nunca podremos entender la vida (o cómo ésta debe ser llevada, o lo que ésta significa para los seres humanos) explorando nuestros cuerpos desde un nivel molecular, atómico, o aun desde el nivel subatómico.
Hoy parece que la ciencia se comporta como si el objetivo de la humanidad fuera un mundo de felicidad y control en masa; un zoológico humano que abarca todo el planeta y en el cual hombres, mujeres y niños, aparte de tener todos los “genes inteligentes” que se les puede proveer, se alimentan con comida nutritiva, son protegidos de todas las enfermedades previsibles, viven en ambientes de aire limpio y filtrado y son abastecidos con un flujo constante de drogas o de genes para mantener un estado constante de felicidad o, aún más, de euforia. Y esta vida feliz, la cual Borges previó con horror, podría ser extendida por cientos de años, a no ser de que no haya más vida que un cuerpo perfectamente diseñado por la ingeniería, una mente satisfecha y una virtual inmortalidad. El médico y filósofo Leon Kass ha puesto este concepto en el contexto de la ingeniería genética (aunque bien pudo haber estado hablando de Cristóbal Colón): “aunque bien equipados, nosotros no sabemos quiénes somos o a dónde vamos”. Nosotros literalmente no sabemos qué hacer con nuestros seres. Esto es porque los seres humanos deben informar a la ciencia y no la ciencia informar (o definir) a la humanidad. La tecnología no es sustituto del significado ni del propósito de la vida.
Hacia un “mejor ser humano”
A medida que tomamos la evolución del ser humano en nuestras manos, no son los aztecas o los nazis a quienes planeamos conquistar. El territorio es ya el de nuestros propios cuerpos, y lo reclamaríamos en nombre del nuevo “derecho” eugenérico que tiene cada ser humano de hacer lo que le venga en gana con su propio cuerpo. Sin embargo, la historia nos enseña que hay límites tanto en nuestro conocimiento como en nuestros derechos de dominio. Cortés pudo llegar a explicar el subyugamiento de los aztecas porque, entre otras cosas, ellos participaban en sacrificios humanos y canibalismo. Hoy día, gracias a la experimentación humana, hemos hecho del sacrificio humano un arte y con los transplantes de órganos hemos domado al canibalismo. El hombre posmoderno no acepta límites ni tabúes.
Si la humanidad sobrevive otros mil años, ¿cómo sería en el año 3000 un “mejor ser humano”? Con más de las tres cuartas partes del planeta cubiertas por agua, ¿serían la adición de agallas a nuestro cuerpo un mejoramiento o una deformación? ¿Qué tan alto sería ser alto? ¿Puede ser uno lo suficientemente inteligente para su propio bien? Si continuamos ignorando nuestro ambiente quizá un “mejor ser humano” sería aquel capaz de respirar aire contaminado y alimentarse de basura. A medida que agotemos nuestras fuentes de energía no renovables, tal vez un “mejor ser humano” sería aquel con ruedas en vez de piernas para movilizarse eficazmente. ¿Dejaremos a los científicos hacer cualquiera de estos experimentos en seres humanos o podemos aprender de las consecuencias no previstas de las conquistas y de los horrores de la guerra (en la que los seres humanos quedamos mejor cuando pensamos antes de actuar) y proceder democráticamente cuando las consecuencias de tales acciones repercutan en todos nosotros?
La Organización de las Naciones Unidas fue fundada con el objetivo de prevenir las guerras, y para identificar a los responsables de los crímenes de lesa humanidad, tales como los asesinatos, la tortura, la esclavitud y los genocidios, fue propuesta la Corte Criminal International. Claro está que muchos Estados continúan permitiendo los crímenes contra la humanidad. Sin embargo, el mundo no puede seguir ignorando los derechos de las personas que a principios de este siglo eran catalogadas simplemente como “incivilizados” o “subhumanos”. Si nosotros queremos ser amos de nuestro propio destino y no simplemente el producto de nuestra tecnología vamos a necesitar instituciones de carácter internacional tan sólidas como la Organización de las Naciones Unidas y la mencionada Corte Criminal Internacional para canalizar y controlar estos nuevos poderes, y en consecuencia proteger los derechos básicos de los seres humanos.
La ciencia no es una actividad criminal, y actividades como la clonación y la ingeniería genética no son precisamente parte de la categoría de crímenes de lesa humanidad. Es más, la ingeniería genética parece totalmente inofensiva al lado del Holocausto y las armas atómicas. Pero la realidad es engañosa por las siguientes razones: la ingeniería genética tiene la capacidad de cambiar la esencia misma de lo qué significa ser humano. No conocemos los límites de qué tan lejos podemos llegar cambiando la naturaleza sin cambiar nuestra propia esencia humana. Ya que el significado de nuestra naturaleza humana es lo que da origen a los conceptos de dignidad y derechos humanos, alterar ésta minaría tanto a esa dignidad como a esos derechos. ¿Cómo podría un producto, por ejemplo, reclamar sus derechos ante su “creador”? Estamos hablando de “jugar a ser Dios”, pero en realidad lo que parece que queremos es reemplazar a Dios (ya que si conquistamos a la muerte no tendríamos que temer el castigo eterno, ni aun el juicio final). Una premisa fundamental de los derechos humanos es que todas las seres son iguales por el hecho de ser humanos; la discriminación está prohibida. Obviamente, nosotros sabemos que los ricos tienen mejores oportunidades que los pobres y que una igualdad real requeriría una redistribución de las riquezas; sin embargo, los ricos no pueden esclavizar, torturar ni matar al más pobre de los seres humanos de este planeta, y los pobres tienen que tener una voz y un voto en cuanto al futuro de nuestra propia especie y de la de nuestro planeta.
¿Pueden los derechos universales del ser humano, anclados en la dignidad de éste, sobrevivir a la ingeniería genética? Sin objetivos claros, la economía de mercado definirá lo que significa ser un “mejor ser humano”. El mercado y la publicidad comercial en masa nos llevarán a conformarnos con unos cuantos ideales basados en la cultura del momento en vez de celebrar nuestras propias diferencias. Esto es una de las lecciones más importantes del mundo de la cirugía cosmética: donde casi todos los pacientes-clientes de esta área desean ser “reconstruidos” para parecer “normales” o para ser “remodelados” para lucir más jóvenes. Esto debería al menos demostrarle a la ciencia obsesionada por la inmortalidad que a medida que ha aumentado la esperanza de vida en este siglo, las sociedades han marginalizado y despreciado a los ancianos y se han puesto a venerar y a tratar de emular los cuerpos de los jóvenes.
Si el concepto del ser humano “ideal” está fuera del alcance de la mayoría de los miembros de la familia humana, los seres humanos manipulados por la ingeniería genética y considerados como “superiores” serían catalogados como “otros seres”. Y si la historia sirve como guía, tanto los seres humanos considerados “normales”, como los considerados “superiores”, se verían como extraños y terminarían por tratar de controlarse o destruirse los unos a los otros. Aquellos seres humanos considerados como “mejores” se convertirían, en la ausencia de un concepto universal de dignidad humana, en opresores o en oprimidos. En resumen, como lo aclaró H. G. Wells en su libro El valle de los ciegos, ciertamente es falso considerar que cada “mejora” de una habilidad del ser humano será apreciada universalmente: en el valle de los ciegos, los ojos que ven son considerados como aberraciones que tienen que ser eliminados quirúrgicamente, para que así la persona vidente pueda ser como todos los demás ciegos. Es imposible evitar que la ingeniería genética nos lleve a la evolución de dos especies diferentes, donde los seres humanos común y corrientes serían considerados como “salvajes” de la época precolombina por los nuevos seres humanos manipulados genéticamente, como impíos que pueden ser subyugados. La ciencia no nos salvará de nuestra inhumanidad hacia el prójimo; puede, eso sí, hacerlo más eficiente y más horrible. La ciencia y la opresión pueden ir juntas de la mano. Como lo dijo el historiador Robert Proctor en la conclusión de su estudio sobre salud pública durante el Tercer Reich: “la rutina de la práctica científica puede fácilmente coexistir con el ejercicio rutinario de la crueldad”.
Nuevas cruzadas
Aunque no hemos llegado a conquistar nuestra propia muerte, nosotros ya inventamos una criatura que sí lo ha hecho: el ente corporativo. Las corporaciones son entidades legales que gracias a las leyes son eternas y tienen una responsabilidad legal limitada. Estos entes, como el monstruo de Frankenstein, adquirieron poderes inesperados gracias a sus creadores. En su forma actual, las corporaciones se han convertido en entidades transnacionales que no están bajo el control de ningún gobierno, sea éste democrático o de alguna otra clase. Éstas sólo juran lealtad al dinero y no conocen límites en la búsqueda de ganancias económicas. Y así como la Corona española, las corporaciones también tienen su propia agenda. Éstas buscan tener ganancias económicas no para beneficio propio, sino para “hacer investigación científica para el mejoramiento humano”. El mundo corporativo parece que no sólo busca producir mejores plantas y animales, sino también seres humanos. Hoy parece más probable que los conceptos que Orwell escribió en su libro La granja de los animales (“todos los animales son iguales, pero los hay algunos que son más iguales que otros”) nos sean impuestos por las grandes “corporaciones dedicadas a las ciencias de la vida” y no por dictaduras totalitarias.
Ya que la nación no está en control de la salud o de la seguridad de sus ciudadanos, otras fuerzas deben ser llamadas para ayudar a dirigir el destino humano. Una posibilidad, que mi colega Michael Grodin y yo hemos planteado, es cambiar las fuerzas de dos importantes profesiones, medicina y abogacía, y así estimular a los miembros de estas dos profesiones, ya que éstas tienen el propósito y el medio para transcender tanto sobre los límites nacionales como sobre los corporativos, a trabajar juntos por el mejoramiento de los derechos humanos. La organización Global Lawyers and Physicians tiene este propósito. Esta clase de organizaciones no gubernamentales deben jugar un papel central en los asuntos mundiales si queremos que el dinero no se convierta en el único motivo que mueve al mundo. Activistas que trabajan a nivel comunitario deben unir sus esfuerzos si quieren influenciar el futuro de la humanidad: por ejemplo, los grupos que defienden los derechos humanos deberían formar coaliciones con los grupos ambientalistas, de ayuda humanitaria y con los pacifistas.
La cruzada de la ciencia ya no busca la vida eterna en Dios, sino en la Tierra. Con la decodificación del genoma humano la religión vuelve a ser la historia usada como fachada, por eso los científicos hablan del genoma como el “libro del hombre” y el “santo cáliz” de la biología. Sin embargo, el oro es nuevamente lo que hoy día buscan estos exploradores auspiciados por diferentes corporaciones. Porque existe la posibilidad de hacer dinero en este campo, el rediseño corporativo de seres humanos es inevitable si no existe lo que Vaclav Havel llama “una transformación del espíritu y de la relación humana para con la vida y con el mundo”. Havel ha señalado que la “nueva dictadura del dinero” ha reemplazado al totalitarismo, pero éste es igualmente capaz de drenar todo el significado de vida con sus “obsesiones materialistas”, la “proliferación del egoísmo” y la necesidad de “evadir la responsabilidad personal”. Sin responsabilidad nuestro futuro es lánguido. Como el fallido intento de los conquistadores españoles por encontrar El Dorado, nuestro deseo de tener más y más dinero traerá consigo un propósito mundano a la vida. Inmortalidad sin propósito es un vacío. En las palabras de Havel, “la única política que hace sentido es la que crece del imperativo y de la necesidad de vivir como cada uno debe vivir, y por lo tanto —en un término un poco más dramático— como cada uno debe responsabilizarse por el mundo entero”.
Responsabilizarse por el mundo puede parecer algo excesivo, pero aun Frankenstein lo reconoció como un deber. Esto nos recuerda el lema del movimiento ambientalista: “pensar globalmente, actuar localmente”, lo cual nos hace a cada uno de nosotros responsables por el todo. ¿Cómo podemos nosotros, ciudadanos del mundo, retomar el control de la ciencia y la industria, lo cual amenaza alterar la esencia misma de nuestras vidas? No será una tarea fácil, pero el rechazo mundial a la idea de clonar seres humanos trae la esperanza de que el esfuerzo no será en vano desde un comienzo. La ética médica ha demostrado que es un mecanismo débil para construir un movimiento internacional; el modelo de los derechos humanos parece ser el más fuerte y apropiado (por lo que no es la práctica médica y científica la que está en riesgo, sino la naturaleza de la humanidad y de los derechos de los humanos). En el campo de los derecho humanos me permito hacer unas sugerencias.
Necesitamos un reglamento internacional para la nueva ciencia, no sólo para regular la clonación y la ingeniería genética, sino también para regular las investigaciones de híbridos humanos-máquinas, en embriones, y de manipulaciones cerebrales. Todos éstos pueden ser puestos en un sentido más estricto bajo una misma categoría de “crímenes contra la humanidad”, actos que amenazan con cambiar la esencia misma de la humanidad. Esto no significa que al cambiar la naturaleza humana (por ejemplo, la clonación que cambia la definición del ser humano al eliminar la reproducción sexual que caracteriza a éste) va a ser siempre criminal, únicamente que ningún científico (corporación o país) tiene el poder social o moral para cambiar la humanidad por sí solo, y hacerlo sin un previo acuerdo social, democrático, puede considerarse como un crimen. Alterar la esencia misma de la humanidad requeriría un foro para una discusión mundial, siendo la Organización de las Naciones Unidad el único ente de esta naturaleza hoy día. También se requeriría una profunda discusión sobre nuestro futuro y sobre el tipo de gente que queremos llegar a ser y cómo podemos continuar insistiendo en los derechos basados en la dignidad del ser humano.
Un tratado internacional que prohíba las técnicas que específicamente “cambian a los humanos”, se hace necesario para que tal sistema sea efectivo. Ninguna de estas técnicas podría ser usada a menos de que un ente internacional lo apruebe para su uso en humanos. Este concepto aplica la “premisa de precaución” del movimiento ambientalista al área de experimentación extrema, que puede potencialmente cambiar la esencia del ser humano. El hecho de que hoy no exista tal tratado o tal mecanismo significa que la comunidad mundial no ha tomado responsabilidad por su propio futuro. Fue en el pasado cuando lo hicimos. James Watson estaba equivocado. La verdad es que al principio del milenio sabíamos que el futuro estaba en las estrellas; ahora, al final del milenio, pensamos que nuestro futuro está en nuestros genes.
Nosotros tenemos la tendencia simplemente a dejar que la ciencia nos lleve a su albedrío, sin embargo, la ciencia no tiene voluntad, y aun cuando sea programada, el juicio humano es casi siempre necesario para concluir cualquier experimento exitosamente. Las naves de Colón habrían retornado si no hubiese sido por el coraje y la determinación de éste. Asimismo, el alunizaje habría terminado en catástrofe sino hubiese sido por la experiencia como piloto de Neil Armstrong, que corrigió los errores de cálculo de la computadora. Las primeras palabras del hombre en la Luna en realidad no fueron aquellas de Armstrong: “un pequeño paso para el hombre”, sino las de Buzz Aldrin: “!luz de contacto! Bien, apagar motores [...] control de descenso automático apagado...” Ya es tiempo que nosotros los seres humanos tomemos el control de nuestra nave espacial Tierra y prendamos el botón de control sobre los motores de la ciencia.
|
|||
|
Nota.
Este texto fue el discurso inaugural de la conferencia Ética, libertad y responsabilidad, organizada por el Instituto de Investigaciones Filosóficas de la unam y la Academia Mexicana de Ciencias, el Consejo Consultivo de la Ciencia, la sep y conacyt, que tuvo lugar en la ciudad de México del 9 al 11 de noviembre de 1999. |
|||
|
George J. Annas
Escuela de Salud Pública,
Boston University.
Traducción.
Alejandro Moreno.
_______________________________________________________________
como citar este artículo → Annas, George J. (2000). El hombre en la luna, el fin de las enfermedades y otros mitos. Ciencias 58, abril-junio, 63-72. [En línea]
|
|||
| ← Regresar al índice ⁄ artículo siguiente → |
|
El entusiasmo por las matemáticas
Nieves Martínez de la Escalera
|
![]() |
|
|
La cara oculta de las esferas
Luis Montejano Peimbert
Fondo de Cultura Económica.
Colección La Ciencia desde México, 1989.
|
||
| HTML ↓ | ← Regresar al índice | |
|
El propósito de Luis Montejano Peimbert en La cara oculta de las esferas es, como lo expresa él mismo en su introducción de manera clara y elocuente, hacer ver a los no iniciados tanto la belleza y calidez como la pasión que las matemáticas pueden despertar. Esto en contraposición a lo que muchas personas piensan respecto de que éstas son frías, áridas, feas y rígidas. Incluso hace una comparación muy afortunada con otra disciplina cuando dice que la imagen que la mayoría de la gente tiene de las matemáticas es parecida a aquella que de la música tiene quien sólo ha escuchado un metrónomo y nunca una sonata.
Hay que mencionar también la advertencia que el autor hace acerca de la forma en que debe leerse cualquier libro de matemáticas: no como una novela, sino más bien como un pasatiempo y siempre con papel y lápiz en la mano. Esta advertencia es importante y es así como hay que acercarse a este tipo de textos, ya que a diferencia de los temas relacionados con otras disciplinas, los conceptos y definiciones que se manejan en los libros de matemáticas pueden ser nuevos para el lector y en un principio parecer más complicados de lo que realmente son.
Algo extraordinario en esta obra es el lenguaje coloquial y sencillo que utiliza Montejano, incluso cuando define conceptos geométricos como “tajada” (sección transversal) y “sombra” (proyección) de un sólido.
Este trabajo podría verse como un estudio de ciertas propiedades que caracterizan a las esferas, así como algunas que comparten con otros sólidos. Además de esto, el libro tiene un valor especial, pues Montejano resuelve un problema que es parte de la colección de problemas de El libro escocés, el cual tiene una historia muy interesante. En la actualidad es difícil encontrar un problema matemático atractivo, recientemente resuelto y que pueda divulgarse.
Yo diría que La cara oculta de las esferas es un estupendo trabajo de divulgación para los ya iniciados, y un trabajo difícil, aunque no imposible, de leer para los legos.
El libro está dividido en siete partes. Las tres primeras, “Sombras y tajadas”, “Convexidad” y “El círculo”, introducen conceptos como el de convexidad en dos y tres dimensiones; el de tajada y sombra de un sólido, que son fundamentales para el desarrollo ulterior de la obra, y algunos resultados que son utilizados posteriormente. Algunos de éstos, expresados en lenguaje coloquial, son: 1) si toda tajada de un sólido es un círculo, entonces el sólido es una esfera; 2) si toda sombra de un sólido es un círculo, entonces el sólido es una esfera; 3) una figura convexa es una figura sin abolladuras; 4) una figura acotada es aquella que en toda dirección está limitada por dos rectas paralelas, y 5) caracteriza al círculo en términos de la propiedad de que toda tangente es perpendicular al rayo trazado al punto de tangencia.
La cuarta parte está escrita de manera muy amena y, con el pretexto de contar la historia de El libro escocés (de donde toma el problema que él mismo resuelve después), nos hace “vivir” un aspecto muy agradable de la forma en que muchos matemáticos se divertían en épocas pasadas, inventando todo tipo de problemas mientras charlaban durante horas alrededor de la mesa en una cafetería. También nos hace añorar esas actividades típicas que se han ido perdiendo debido al apremio de los científicos por publicar el mayor número posible de trabajos, que es uno de los aspectos negativos a los que nos ha llevado la “modernidad”.
El problema al que nos hemos referido anteriormente lo formuló el matemático Ulam, y Montejano lo resuelve en la quinta parte de su libro. El planteamiento es el siguiente: si un sólido descansa en equilibrio en cualquier posición en la que se le deje, sobre una superficie horizontal sólida, ¿deberá ser éste una esfera? La respuesta es sí.
La demostración consiste en ver primero que en el caso bidimensional una figura que está en equilibrio en cualquier posición es necesariamente un círculo. El caso en tres dimensiones se reduce al de dos dimensiones, ya que un sólido está en equilibrio si lo están todas sus proyecciones, y esto ocurre, como se prueba en la primera parte del libro, si el sólido es una esfera. En la sexta y séptima partes se analizan las características de los círculos y las esferas que intuitivamente les pertenecen exclusivamente a ellos pero que, sin embargo, comparten con otras figuras: el tener un ancho constante. Se ven ejemplos interesantes así como las diferentes formas de construir este tipo de figuras. En el caso tridimensional Montejano muestra, además, que si toda “tajada” de un sólido es un figura de ancho constante, entonces la figura es una esfera. También hace hincapié en el hecho de que no todas las tajadas de un sólido de ancho constante son una figura de ancho constante, lo cual es muy asombroso.
En la última parte el autor plantea la conjetura de Mizel, que dice que una figura plana convexa que tiene la propiedad de que todo rectángulo que tenga tres de cuyos vértices en su frontera, tendrá el cuarto también en su frontera, por lo que es necesariamente un círculo. Montejano considera el caso tridimensional, y gracias a resultados anteriores contenidos en este trabajo demuestra que si tenemos un sólido convexo tal que siempre que tres vértices de un rectángulo están en la frontera del sólido, entonces el cuarto vértice está también en la frontera del sólido, entonces el sólido es una esfera.
Aunque como se infiere de lo anteriormente dicho, la lectura de esta obra no es fácil, vale la pena hacer el esfuerzo en caso de que el lector potencial sea alguien a quien sencillamente le atraen las matemáticas; en caso de que el lector sea un ya “iniciado”, seguramente pasará un buen rato y es muy probable que aprenda algo nuevo.
Desde luego Luis Montejano Peimbert tiene un rotundo éxito en mostrar su propio entusiasmo por las matemáticas, y esto es muy edificante.
Nieves Martínez de la Escalera C.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Martínez de la Escalera, Nieves. (2000). El entusiasmo por las matemáticas. Ciencias 58, abril-junio, 76-77. [En línea]
|
||
|
|
||
| Tópicos en Educación Ambiental |
||||
| HTML ↓ | ← Regresar al índice | |||
|
Tópicos en educación ambiental es una revista internacional con arbitraje orientada a publicar artículos y reportes sobre las diferentes vertientes y áreas de la educación ambiental y temas asociados. La revista pretende contribuir al desarrollo y consolidación del campo de la educación ambiental mediante la difusión de informes de investigación y evaluación, de experiencias valiosas de cobertura local o regional con posibilidades de ser replicadas y de asuntos controversiales del campo. Asimismo, cada número incluirá un artículo ya publicado en una revista de prestigio, cuya relevancia lo justifique. Los materiales propuestos para su publicación en la revista serán dictaminados por los miembros del Consejo Editorial, para asegurar un alto nivel académico, analítico y crítico, así como un interés internacional con especial énfasis en América Latina, el Caribe y la península ibérica.
La revista se publica tres veces al año en los meses de abril, agosto y diciembre, por Mundi Prensa de México, en coordinación con la Secretaría de Medio Ambiente, Recursos Naturales y Pesca, a través del Centro de Educación y Capacitación para el Desarrollo Sustentable, y la Universidad Nacional Autónoma de México, a través del Programa Universitario del Medio Ambiente y el Instituto de Ecología. El último número del año es monográfico. Cada tres números constituyen un volumen
|
||||
|
• Volumen 1, número 2, agosto 1999
Foro. Lucie Sauvé, “La eduación ambiental entre la modernidad y la posmodernidad: en busca de un marco de referencia educativo integrador”.
Roberto Follari, “La interdisciplina en la educación ambiental”.
Documentos. William Scott y Christopher Ourlton, “Educación ambiental: un debate desde múltiples perspectivas”.
Ley de Educación Ambiental del Brasil aprobada el 27 de abril de 1999 y publicada en el Diario Oficial del 28 de abril de 1999. Número 9.9795/99.
Sobre la evaluación. José Gutiérrez, Javier Benayas, y Teresa Pozo, “Modelos de calidad y prácticas evaluativas predominantes en los equipamientos de educación ambiental”.
Miscelánea. Reseñas de libros, revistas y redes electrónicas sobre educación ambiental.
Resumen del debate. Actividades de ea para 1999-2000.
La otra orilla. Cometarios al primer número de la revista.
Primer comunicado del iii Congreso Iberoamericano de ea (Venezuela.)
|
||||
|
• Volumen 1, número 3, diciembre 1999
Foro. Ana María Duque-Aristizábal, “Educación ambiental: una mirada desde Colombia”.
Diana Ruiz Briceño, Alejandro Álvarez Iragorry y Javier Benayas, “Contrastes y expectativas: una mirada a la situación de la educación ambiental en Venezuela”.
Patricio Crespo, “Formación para una gestión concertada: la experiencia canareb en Ecuador”.
Joaquín Esteva Peralta y Javier Reyes Ruiz, “Educación ambiental: utopía y realidad en la cuenca de Pátzcuaro”.
Miguel O. Chávez Lomelí y Ana Luisa Bustos Ramón, “La incorporación de la dimensión ambiental en la educación formal básica en Tabasco 1995-1999”.
Miscelánea. Reseña de libros.
_______________________________________________________________
como citar este artículo → sin autor. (2000). Tópicos en Educación Ambiental. Ciencias 58, abril-junio, 79. [En línea]
|
||||
| ← Regresar al índice | ||||
|
Las ciencias naturales en México |
![]() |
|
|
Fondo de Estudios e Investigaciones
Ricardo J. Zevada.
cnca, fce, México, 1999.
|
||
| HTML ↓ | ← Regresar al índice | |
|
En México hay una larga tradición de estudios sobre la naturaleza. Los antiguos mesoamericanos, tras siglos de observación y selección cuidadosa, lograron un amplio conocimiento de las especies vernáculas. Sus variedades comestibles son, aún hoy, base de la alimentación popular, y la rica botánica medicinal que desarrollaron sigue siendo tema de estudio y admiración. Desde su llegada al Anáhuac, los españoles elogiaron el esmero con que se cuidaban las muy variadas manifestaciones de la vida animal y vegetal; así, el jardín botánico y el zoológico de Moctezuma no tenían rival en Europa. Esta fuente de riqueza no pasó inadvertida a la Corona española, que promovió, durante los tres siglos de coloniaje, buen número de expediciones de naturalistas y la elaboración de catálogos de la flora y la fauna novohispanas. Aunque tardíamente, también estimuló la preparación académica al establecer, a finales del siglo xviii, la cátedra de botánica, disciplina que fue motivo de una de las primeras controversias entre los miembros de la naciente inteligencia criolla y sus mentores peninsulares.
Con la Independencia, pese a las turbulencias que agitaron a la sociedad mexicana durante el siglo xix, se mantuvo el interés por la naturaleza y se continuó la catalogación de especies biológicas; se establecieron sociedades de naturalistas y la cátedra universitaria fue foro de discusión de las ciencias naturales. Con el fin de siglo surgieron las primeras instituciones de investigación biomédica, en las que cobró auge el estudio de los productos naturales.
Luego del paréntesis impuesto por la fase armada de la Revolución mexicana, se inició la época contemporánea de nuestro desarrollo científico. Con el decreto de autonomía nace en la Universidad Nacional de México el Instituto de Biología, y luego los institutos y varios departamentos dedicados a la botánica, la zoología, las disciplinas biomédicas y la biología marina, en una serie que se prolonga hasta muy recientemente, así como nuevos laboratorios de investigación. En el Instituto Politécnico Nacional se funda la Escuela Nacional de Ciencias Biológicas y, dos décadas después, el Centro de Investigación y de Estudios Avanzados.
La Secretaría de Agricultura crea importantes centros de investigación en ciencias agrícolas; surgen así el Colegio de Posgraduados y el Instituto Nacional de Investigaciones Forestales, Agrícolas y Pecuarias, y luego el Centro Internacional de Mejoramiento de Maíz y Trigo. La biomedicina florece en las grandes instituciones de salud, como el Instituto Mexicano del Seguro Social.
Durante el último cuarto de siglo han surgido grupos de investigación en instituciones de educación superior y de salud tanto de la capital como de diversos estados de la República. En conjunto, la investigación biológica y biomédica constituyen hoy día una de las áreas más productivas de la ciencia nacional, aunque, por lo demás, acusa deficiencias similares a las de otras disciplinas; así, aún está demasiado centralizada y en conjunto es escasa, y mientras algunas áreas cuentan con grupos de alto nivel, otras sufren grandes rezagos. El reto está en ensanchar la base y ganar altura.
Hoy, que el proyecto del genoma humano, el del cerebro humano y otras grandes empresas internacionales abren posibilidades insospechadas a la biología y la convierten en la promesa más importante para la investigación en el próximo siglo, México no puede quedar al margen. Será necesario redoblar esfuerzos y abrir nuevos centros de trabajo que permitan a los jóvenes biólogos incorporar nuevas corrientes de pensamiento y de acción.
Fragmento de la presentación.
_______________________________________________________________
como citar este artículo → Aréchinga, Hugo y Bayer, Carlos. (2000). Las ciencias naturales en México. Ciencias 58, abril-junio, 78. [En línea]
|
||
|
|
← Regresar al índice | |














