revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
     
El canon de Morgan, el fonógrafo de Garner
 
Gregory Radick
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Se puede decir que el canon de Morgan representa un parteaguas entre las ideas del siglo XIX, en el que era poco el escepticismo acerca de las capacidades de las mentales de los animales, y del siglo XX, en el que existía mucho escepticismo sobre el asunto.
 
El geólogo y zoólogo de Bristol, Conwy Lloyd Morgan (1852-1936), anunció lo que más tarde llamaría su “canon” en agosto de 1892: “En ningún caso una actividad animal debe interpretarse como el resultado del ejercicio de una facultad psíquica superior si ésta puede ser fácilmente interpretada como el resultado del ejercicio de una facultad que está por debajo en la escala psicológica”. Desde la perspectiva de la psicología actual, el canon de Morgan se ha convertido en la frase más importante en la historia del estudio del comportamiento animal. ¿Por qué? Porque el canon incorpora el criterio, todavía influyente, de que la objetividad y el antropomorfismo se excluyen mutuamente. Con referencia a la afirmación de L.H Morgan en 1868, de que los castores dominan la tecnología de la ingeniería, el etólogo Aubrey Manning escribe, “Hoy en día, nosotros tenemos mayor conocimiento, y seguimos a otro Morgan, Lloyd, cuyo “canon” nos exhorta a nunca interpretar el comportamiento usando procesos psicológicos complejos cuando los más sencillos nos sirven”. Después de Morgan y su canon, los observadores objetivos han invocado, siempre que ha sido posible, procesos cuasimecánicos, tales como el aprendizaje por prueba-y-error y la imitación, antes de hablar de comprensión y de planeación con un propósito dirigido al explicar cómo los animales llegan a actuar de manera aparentemente inteligente. Lo que Morgan llamó “razón” es considerado ausente de la mente de los animales hasta que se demuestre lo contrario.
 
 
Detrás del escepticismo de Morgan acerca de la razón animal se hallaba una doctrina de Friedrich Max Müller, estudiante de sánscrito en Oxford. De acuerdo con Müller, el lenguaje y la razón van juntos y pertenecen únicamente a los humanos. El canon de Morgan convirtió este tema central de la filología comparada de Müller en una regla metodológica para la psicología comparada. Según Morgan, el canon era necesario porque los animales, al carecer de lenguaje, probablemente carecían de razón. Sin embargo, en agosto de 1893, un año después de haber propuesto su canon, Morgan escribió en la conclusión de su libro Los límites de la inteligencia animal, que el caso en contra de la razón animal estaba cerca del colapso:
 
“He expresado mi opinión de que en las actividades asombrosamente inteligentes de los animales como a veces son, no existe evidencia de esa percepción real de las relaciones que es escencial para la razón. Pero ésta es simplemente una opinión y no una convicción establecida. No estaré en lo más mínimo avergonzado de mí si cambio de opinión antes de que termine este año. La distinción entre inteligencia y razón permanecerá exactamente igual aun si pasado mañana se comprueba que los animales son seres racionales”.
 
¿Qué prueba de la razón animal se hacía sentir desde el futuro cercano? Se trataba de una prueba fonográfica del lenguaje de los monos. Cuando Morgan escribió el párrafo anterior, el naturalista americano Richard Lynch Garner (1848-1920) se hallaba en el Congo, donde pensaba capturar el “habla” de gorilas y chimpancés de vida libre (los eslabones perdidos del lenguaje) en los cilindros del fonógrafo de Edison. Garner aceptó el razonamiento de Müller de que el lenguaje y la razón van juntos. Lo que no aceptó fue que los humanos fueran los únicos que poseen ambos. Desde el punto de vista de Garner, un cilindro de fonógrafo en donde se grabase el lenguaje de los monos, podía probar que los monos eran “ racionales”.

El canon de Morgan

Cuando Morgan presentó su canon, había estado trabajando sobre psicología comparada durante 10 años. Su carrera científica comenzó en la Escuela Real de Minas en Londres, donde se capacitó como ingeniero minero al finalizar la década de 1860 y a principios de la de 1870. Una noche que cenaba con el profesor más famoso del colegio, Thomas Henry Huxley, Morgan logró impresionarlo tanto que obtuvo una invitación a trabajar como su ayudante de investigación después de su graduación.
 
Un año en el laboratorio de Huxley lo llevó a una serie de trabajos de docencia e ingeniería. En 1884, después de una larga estancia en Sudáfrica, Morgan aceptó un puesto de profesor de geología y zoología en el University College en Bristol, sitio donde permanecería a lo largo de su carrera y del que llegó a ser director en 1887.
 
Como zoólogo y geólogo, Morgan no fue “más que un empleadillo tolerablemente responsable”. En cambio, dedicó por completo su interés y sus habilidades a la psicología comparada. Durante la década de 1880, trabajó para hacer suya la nueva ciencia.
 
 
Morgan desarrolló por vez primera sus puntos de vista sobre la mente animal en una serie de artículos que publicó entre 1882 y 1886, principalmente en respuesta al trabajo del fisiólogo y psicólogo George John Romanes. Romanes había afirmado que los animales tenían pensamientos abstractos: que el concepto de “bueno para comer” por ejemplo, pasaba por la mente de un perro al tiempo que éste olía una galleta. Contra esto, Morgan señaló que, una autoridad nada desdeñable como Locke, había escrito que “el hecho de tener ideas generales es lo que permite distinguir al hombre de las bestias, y se trata de una excelencia que las facultades de las bestias de ninguna manera alcanzan”. Esta cita había sido la pieza clave del argumento sobre el origen del lenguaje en el muy leído libro de Müller Lecciones sobre la ciencia del lenguaje en 1861 y 1863. Para la década de 1880, Müller había llegado a ser uno de los hombres de ciencia más distinguidos del mundo de habla inglesa. Sus opiniones eran bien conocidas: que el lenguaje y la razón se implicaban mutuamente; que sólo los humanos las tenían; que esta distinción marcaba una diferencia de clase entre humanos y otras especies; y que ningún puente evolutivo cruzaba la brecha entre los gritos irracionales de los animales y las raíces racionales del lenguaje, puesto que estos irreducibles átomos del lenguaje eran completamente conceptuales, y debieron ser así desde el principio. “No existe pensamiento sin palabras, así como no hay palabras sin pensamiento”, era la máxima que Müller repetía y defendía incansablemente.
 
Después de comparar los criterios de Romanes con los de Müller, Morgan distinguió entre diferentes clases de abstracción. La diferencia más importante que hizo fue entre abstracción por eliminación y abstracción por aislamiento.
 
Morgan sostuvo entonces que cuando un perro ve una galleta, la imagen impresa en su mente inmediatamente dispara expectativas asociadas con el olfato y el gusto. El resultado es una construcción perceptual en la cual las características visuales, olfativas y gustativas de la galleta dominan de tal modo a las otras, que prácticamente las eliminan. La mente del perro ha ejecutado abstración por eliminación, y el perro llega a creer que la galleta es efectivamente “buena para comer”, pero ¿puede un perro reflexionar sobre la cualidad de “bueno para comer” de manera aislada, independientemente de un objeto que aparentemente es bueno para comer? La respuesta de Morgan fue negativa. La abstración por aislamiento era un privilegio de la mente humana, porque solamente los humanos tienen el lenguaje que les permite aislarse. “Por medio del lenguaje, y solamente del lenguaje, ha sido posible la existencia del pensamiento humano”, escribió Morgan. Esto es lo que ha forjado tan enorme brecha entre la mente humana y la del perro… A través del lenguaje ha sido posible el pensamiento abstracto más elevado”.
 
Por lo tanto, fundar una ciencia sobre la mente animal no era posible porque, careciendo del lenguaje, sería imposible que los animales reportaran sus propias introspecciones. Ningún animal podría verificar las inferencias “eyectivas” (esto es, inferencias basadas en la vida mental humana) de un pretendido psicólogo animal; no se podría desarrollar una descripción cogniscible confiable de la mente animal a partir de dichas inferencias. Peor aún, como escribió Morgan, “ es tal la extraordinaria complejidad de la mente humana (una complejidad principalmente debida al uso del lenguaje), que nosotros perfectamente podemos suponer que cualquier concepción que nos formemos de la conciencia animal está sumamente lejos de ser una concepción verdadera”. Tales consideraciones auspiciaron un gran escepticismo acerca de la mente de los animales.
 
Ese punto de vista, sin embargo, carecía de sustento mientras uno aceptase, en otros terrenos, que los humanos y otras especies tuvieran un parentesco evolutivo. Bajo la perspectiva de Morgan, los evolucionistas creían justificadamente que los animales eran conscientes porque habían heredado estructuras cerebrales similares en muchos aspectos a las que el hombre posee; así mismo no había ninguna razón para suponer que en ellos no existían estados mentales (psicoses) funcionando paralelamente, o que fueran idénticos a sus estados cerebrales (neuroses). Mientras los animales manifiesten aprendizaje asociativo, el evolucionista hasta podría pretender saber un poco acerca del contenido de la conciencia animal.
 
Pero, inferir más que esto sobre las mentes de criaturas en las que “la relación entre los sentidos” era frecuentemente muy lejana de la humana, era un asunto sumamente riesgoso. Un investigador suficientemente cuidadoso podría vislumbrar en la mente humana los vestigios mentales de los animales inferiores, pero la ciencia verdadera de la psicología comparada necesitaba fundamentos diferentes.
 
En su libro Vida animal e inteligencia, Morgan volvió al ejemplo del perro y la galleta. Afirmó que mientras la mente animal tenía seguramente el poder de construir un “predominante”, esto es, “una construcción perceptiva en la que predominara lo comestible”, la ausencia del lenguaje en los animales ponía fuera del alcance de su mente “el concepto aislado o la idea abstracta de lo comestible”. Morgan agregó que “esta capacidad de análisis, aislamiento y abstracción constituye en la mente de quien la posee (es decir, los humanos) un nuevo punto de partida mental, que puede ser descrito no meramente como una diferencia específica sino como una diferencia genérica entre las actividades mentales menores. El autor explicaba que prefería usar la frase “diferencia genérica” y no la familiar “diferencia de clase”, para indicar su creencia de que las características originales como el lenguaje y la abstracción eran ni más ni menos que el producto de los procesos evolutivos normales.
 
“Reitero pues que la introducción del proceso de análisis me parece construye un rumbo nuevo y diferente en la evolución psicológica; que dicho proceso difiere genéricamente del proceso de construcción perceptual. Y sostengo que siendo así, deberíamos señalar la diferencia de todos los modos posibles. Yo lo señalo al establecer una restricción del uso de la palabra “inteligencia” a las inferencias formadas en el campo de la percepción; y del uso de la palabra “razón” para cuando el análisis conceptual sobreviene. Debo dejar a otros la decisión de si esto está justificado o no; de si los usos que propongo son o no legítimos. Pero si se adopta este uso, no encuentro fundamentos suficientes para creer que la conducta de los animales, maravillosamente inteligente como es sea racional, bajo las instancias por mí conocidas”.
 
Al otro lado del océano, por el mismo tiempo que Morgan escribía estas palabras, Garner comenzaba la investigación que forzaría la sorprendente nota precautoria de esta conclusión.

El fonógrafo de Garner

Morgan era un filósofo casi tan profesional como hombre de ciencia era. Garner no era ninguna de las dos cosas. Creció en el suroeste de Virginia y en el noreste de Tennessee, cerca de los montes Apalaches. Su educación no fue muy amplia, aunque tuvo cierta preparación en medicina. Después de la guerra, el antiguo soldado confederado se mantuvo como maestro de escuela y como hombre de negocios a veces exitoso. Lo que Garner sabía sobre evolución probablemente lo aprendió de libros, periódicos y revistas durante la “moda de Spencer” que arrasó en la Época Dorada de Norteamérica. Más tarde, Garner citó a Müller entre las autoridades que creían, usando el fraseo de Müller, que el lenguaje era “la gran barrera entre el hombre y las bestias”. En 1884, Garner confirmó, en el zoológico de Cincinnati, sus grandes dudas acerca de dicha barrera. Afirmó que después escuchar por un rato el parloteo de un grupo de monos, él era capaz de predecir el comportamiento de un mandril que compartía la jaula. Sin embargo, sus intentos por afinar las traducciones no resultaron y pronto abandonó el proyecto. Dirigió entonces su atención a los orígenes de la escritura, en particular al enigma de los glifos mayas, que examinó en el Museo Smithsoniano en Washington en un viaje de negocios. Probablemente, en alguno de esos viajes reconoció por primera vez, en el omnipresente cilindro del fonógrafo, una posible solución a sus problemas con el lenguaje de los monos. En 1891, Garner volvió a las jaulas armado con su nuevo instrumento científico.
 
Los resultados de esta investigación fonográfica elevaron al desconocido Garner al grado de celebridad científica internacional. Sus afirmaciones de 1892 eran ambiciosas. “Me doy cuenta de que es una herejía dudar de los dogmas de la ciencia tanto como de las sectas religiosas, pero apoyado en pruebas demasiado fuertes para ser ignoradas, no temo provocar la ridiculización del sabio, o el desprecio de los fanáticos, al aseverar que el “habla con sentido” prevalece entre los primates inferiores, y que contiene los rudimentos a partir de los cuales el lenguaje de los humanos podría desarrollarse fácilmente; me parece bastante posible poder encontrar pruebas que muestren que ese es el origen del lenguaje humano.”
 
Garner usó el fonógrafo para tres tareas básicas: la primera, aprender los sonidos y significados de las emisiones de los simios; la segunda, explorar la variación entre las lenguas de diferentes especies (puesto que había tantas “lenguas simiescas” como especies de monos y changos); y en tercer lugar, para comparar estas lenguas y ordenarlas en una serie jerárquica. Con fines de traducción, Garner grabó las emisiones frecuentemente rápidas y sutilmente moduladas de los monos; después las repetía en el fonógrafo, o con mucha práctica, incluso con su propia boca, y observaba el efecto de estos sonidos en otros monos. Garner describió así cómo había logrado traducir las palabras del mono capuchín, para comida, bebida, enfermedad, tormenta y alarma. También dio instrucciones detalladas sobre la pronunciación de dichas palabras (que resultaban estar compuestas principalmente de vocales). Una oportunidad para ir más allá de la traducción y analizar la variación se presentó en el zoológico del Central Park de Nueva York, en diciembre de 1891: Garner estaba ahí haciendo experimentos cuando llegó un cargamento de changos macacos del extranjero. A petición de Garner dichos changos fueron mantenidos separados para asegurarse de que no hubiera comunicación entre ellos y los macacos locales. Cuando Garner grabó la palabra de los locales para decir “saludos” y las repitió ante los changos nuevos, la reacción de emoción que mostraron, lo hizo pensar que dicha palabra era usada por ellos también. Para las afirmaciones evolucionistas de Garner, resultaba muy importante la tarea de hacer comparaciones. Discutía que toda la vida podría ahora ser vista como una gran cadena expresiva con “un ininterrumpido trazo tangente a cada círculo de vida, desde el hombre hasta el protozoario, en el lenguaje, la mente y la materia”. Para Garner todas las criaturas tenían los medios para expresarse, proporcional al grado de su desarrollo físico y mental (por ejemplo, las capacidades expresivas de los mamíferos se correlacionaban íntimamente con características tales como el “ángulo craneofacial” y el del “índice de la quijada”), y con las exigencias que su forma de vida les imponía. Garner había descubierto que el lenguaje de los monos araña era “casi tan inferior respecto al de los capuchinos morenos, como el de éstos respecto al de los chimpancés; de la misma manera, el de estos últimos parece estar en la misma proporción por debajo del más bajo de los lenguajes humanos.”
 
Pero, ¿eran esos lenguajes simios realmente lenguajes mucho menos ancestrales que los lenguajes humanos? Garner justificó sus afirmaciones con un argumento escueto: “Para razonar, [los simios] deben pensar, y si es cierto que el hombre no puede pensar sin palabras, debe ser igual para los monos: así que ellos deben formular sus pensamientos en palabras y las palabras son las exponentes naturales del pensamiento”. Desde el punto de vista de Garner, si los humanos y los changos estaban relacionados, si la evolución era uniformemente progresiva y si el habla y la razón iban juntas, entonces los changos deberían hablar y razonar en un grado menor que los humanos. Para satisfacción de Garner, por lo menos el fonógrafo mostraba que él estaba en lo correcto. Él había encontrado en los “monófonos” del lenguaje de los monos —en el que “cada idea parece estar contenida en una sola palabra de una sílaba; y casi hasta de una letra”— los rudimentos homogéneos que más tarde se diferenciaban, primero en un grupo de pocas palabras” y en “un pequeño grupo de sonidos” en las lenguas de los salvajes, y después en todo el grupo heterogéneo de las lenguas de los pueblos civilizados. Mientras que los humanos más avanzados usaban sonidos complejos para transmitir ideas complejas entre mentes complejas, los changos usaban sonidos sencillos para transmitir ideas sencillas entre mentes sencillas. Para cada grupo, las palabras servían básicamente para la misma función. Las palabras de los simios no eran de una naturaleza diferente de las humanas.
 
Garner realizó casi todo su trabajo experimental en los Estados Unidos con changos cautivos. Para probar sus afirmaciones acerca de las zonas intermedias en la cadena del lenguaje, decidió adoptar un atrevido plan de acción. “Estoy tratando de organizar un viaje al interior de África para visitar a los trogloditas en sus regiones salvajes nativas”, escribió Garner en noviembre de 1891, “y si mis planes (que son todos realizables) se llevan a cabo, estoy dispuesto a dar al mundo una revelación que hará cimbrar los huesos secos de la filología bajo una nueva luz”. Agregó que el inventor del fonógrafo, Thomas Edison le estaba ayudando a modificar su invento (“la única cosa que hace que estas investigaciones sean posibles”) para su próxima expedición. En diciembre, aparecieron más detalles en un artículo de la revista Harper’s Weekly sobre los experimentos de Garner en el Central Park. Los lectores supieron que una jaula cuadrada de siete pies con barras de metal sería la casa silvestre de Garner, en la que se sentaría con su fonógrafo y su cámara para obtener un registro completo del lenguaje y los hábitos de gorilas y chimpancés en la selva. “ Si partimos de que he llegado al fondo del asunto del habla de los changos, mi tarea estaría sólo a la mitad”, le dijo Garner al reportero de Harper’s. “He fabricado únicamente un eslabón de la cadena. Quiero otro. Me propongo atacar el lenguaje de las razas humanas más inferiores: los pigmeos, los bosquimanos… y los cascareos y chasquidos de los hotentotes.
 
En el verano de 1892, por el tiempo en que Garner dejaba Nueva York para ir a Inglaterra y al Congo, se publicó su libro El habla de los changos. En él recurría a la máxima de Müller sobre la palabra y el pensamiento. Pero Garner insistía también en que el lenguaje y el pensamiento de los changos eran ahora hechos probados experimentalmente. Los experimentos con el fonógrafo de Garner eran el futuro de la psicología comparada. “Su habla es la única puerta hacia sus mentes,” escribió refiriéndose a los changos, “a través de ella debemos pensar si hemos de conocer sus pensamientos secretos, y de medir la distancia entre mente y mente”. Aun sin el fonógrafo, ya se había aprendido mucho sobre las capacidades mentales de los changos. A partir de varios experimentos psicológicos, Garner afirmaba haber mostrado que los changos tenían las ideas de número, color y cantidad, ideas abstractas, al menos en “el grado más débil”. Es más, reportaba observaciones que mostraban que los changos ejercían la razón, que para Garner, era la capacidad de “pensar metódicamente y hacer juicios a partir de los hechos presenciados”. Para buscar probar el uso de la razón en animales, según Garner, sólo había que dejarlos con sus propios recursos bajo circunstancias nuevas. Un chango que logra deducir cómo escapar de su jaula, ejercita un tipo de razón que no difiere de la del hombre. “Donde quiera que la razón haya empezado en la escala natural , no debe haber estado muy por debajo del plano ocupado por los changos,” concluyó Garner.
 
El canon y el fonógrafo se encuentran

Garner llegó a Inglaterrra a finales de julio de 1892. Poco después, fue invitado a hablar en la reunión de la Asociación Británica para el Avance de la Ciencia en Edimburgo. Fue precisamente ahí, en la primera semana de agosto, cuando los caminos del canon de Morgan y del fonógrafo de Garner se cruzaron por primera vez. No existe evidencia de que ambos hombres, responsables de estos métodos, se encontraran en persona alguna vez. La mañana del 4 de agosto, Garner se presentó en los salones de la sección antropológica, únicamente para enterarse de que su exposición sobre el lenguaje de los changos había sido programada no para ese día (jueves) sino para el siguiente lunes. Garner explicó que no podía esperar porque tenía otros compromisos. Ofreció dejar su trabajo por escrito para que se discutiera en su ausencia, pero los responsables de la sección se negaron y Garner regresó a Londres con su ponencia en la mano. Sin embargo, su nombre permaneció en el programa y una gran multitud se reunió el lunes para escucharlo. Como él no se presentó, se levantaron sospechas. Garner permaneció en Inglaterra el resto del verano, preparando su viaje y llevando a cabo experimentos psicológicos con orangutanes en el Regent’s Park, y a mediados de septiembre, abordó un vapor en Liverpool con destino al Congo.
 
Un día después de las pláticas fallidas de Garner en Edimburgo, Morgan leyó un trabajo ante la sección zoológica; había defendido los puntos centrales unos días antes en Londres en el Segundo Congreso Internacional de Psicología Experimental, donde había presentado su nueva regla metodológica. El antiguo razonamiento del abismo entre la bestia y el hombre, basado en el lenguaje y la razón, era ahora replanteado en los términos marcados por su colega evolucionista William James, en su libro Principios de Psicología, publicado casi al mismo tiempo que Vida animal e Inteligencia, del propio Morgan. Cambiando ligeramente la famosa metáfora del torrente de James, Morgan hablaba ahora de una “ola de conciencia”, con su cresta de conciencia plena o “focal”, y su valle de conciencia “marginal”. Alegaba que eso que James llamaba un “margen de relación”, rodea cada objeto que nosotros los humanos aprehendemos en el curso de “la sencilla vida psíquica de la percepción exterior”. Al tiempo que movemos nuestra atención de objeto en objeto, las relaciones entre los objetos (relaciones espaciales, relaciones de similitud y de disparidad, y así sucesivamente) se registran fugazmente en los márgenes de la conciencia. Para Morgan, este “sentir o percibir las relaciones” era crucial para las habilidades prácticas en humanos, e igualmente en los animales, pero insistía en que hay “una gran diferencia en la experiencia práctica entre una relación sentida débilmente y una relación percibida o conocida”.
 
 
Enfocar la conciencia en las relaciones parecía requerir del uso de la introspección y de la reflexión, y no había pruebas que éstas estuvieran a disposición de los animales. La nueva distinción entre tener conciencia de las relaciones y percibir las relaciones reproducía cabalmente la antigua distinción entre construcción perceptual y aislamiento conceptual. Como se había dicho antes, para citar las palabras de Morgan en Edimburgo, “es bueno restringir el uso de las palabras razón y racional al proceso humano más alto y exclusivo. Los animales son ciertamente inteligentes; y puede que sean racionales”, afirmaba. El papel central del lenguaje fue remarcado en una carta de Morgan publicada en Nature pocas semanas después de la reunión de la Asociación Británica, a comienzos de septiembre.
 
“La capacidad de conocer relaciones de reflexión e introspección, me parece que marca un nuevo cambio de rumbo en la evolución. Pero si esto ocurrió como estoy hoy dispuesto a sostener, por la contribución del lenguaje coincidente con o subsecuente a la fase de la evolución humana; o si como otros observadores y pensadores creen, ocurrió o está ocurriendo en los mamíferos inferiores o en otros animales, es un asunto para dirimirse a través de discusiones tranquilas e imparciales, fundamentadas hasta donde sea posible, en experimentos decisivos y observación precisa”.
 
¿Quiénes eran esos “otros observadores y pensadores?” La aparición en Nature, un mes después de la reseña de Morgan “El lenguaje de los changos”, sugiere que Garner era uno de ellos. Morgan deplora el “estilo anecdótico” del libro; muchas de sus afirmaciones, escribió, “rezuman del parloteo de un salón de té, más que de una sobria discusión acerca del estudio”. Cuando Garner sostenía, por ejemplo, que “todos los mamíferos razonan por los mismos medios y para el mismo fin pero no en el mismo grado”, y que era solamente el “canto de sirena de su propia vanidad” lo que impedía a los hombres admitir esta verdad, demostraba, a juicio de Morgan, su completa falta de una adecuada formación en psicología. Solamente a través de esa capacitación podría Garner obtener “el derecho a emitir una opinión científica sobre esta difícil cuestión. “Morgan argumentó después que los resultados de Garner mostraban que los changos tenían mucho menos equipo mental del que él afirmaba. Los elementos de la lengua de los simios no eran más impresionantes que los sonidos de los polluelos que el mismo Morgan había estado investigando recientemente. Morgan reportó que dentro de la primera semana, los polluelos poseen un repertorio de cinco sonidos: un “chip” de contento; un “chur” de peligro; y así sucesivamente. Él aceptaba que estos sonidos son emitidos intencionalmente por los pollitos, y que unas veces transmitían a los otros algún tipo de “indicio” de un estado emocional interno, y otras, de un objeto externo. Según Morgan, el reporte detallado de Garner de sus dificultades para traducir las palabras de los changos mostraba que éstas carecían del más mínimo “valor sugestivo”. La palabra del capuchín para comida, por ejemplo, parecía “principalmente expresión de antojo por algo”. El resto de la lengua de los simios parecía también ser de “naturaleza emocional”. A pesar de hacerlo con ineptitud, a juicio de Morgan, Garner “trabajaba en la dirección correcta, es decir, haciendo experimentos y observaciones en contacto directo con los fenómenos” y deseó al viajero de los monos, “todo el éxito en la continuación de sus investigaciones”.
 
Mientras tanto, estando Garner en el extranjero, Morgan llevó a cabo sus propios experimentos y observaciones. Los experimentos con pollos que él reportó en su artículo “Los Límites de la Inteligencia Animal”, en 1893, mostraron cómo una simple inteligencia de prueba y error “con la atención siempre sobre las posibles variaciones afortunadas de actividad, y sobre los golpes de suerte de ciertas respuestas motoras”; podría generar efectos que para un observador casual dieran la apariencia de una acción razonada derivada de una clara percepción que involucra una relación. A pesar de la evidencia de suficiencia de tal aprendizaje asociativo, Morgan terminó su artículo con la sorprendente nota precautoria a la que me refería antes, y con la que asoció el inminente retorno de Garner cargado con los cilindros de su fonógrafo. Como hemos visto, Morgan había empeñado el éxito de su reforma de la piscología comparada en la doble ausencia del lenguaje y de la razón animales. Si los gorilas y los chimpancés en la selva resultaban tener lenguajes no muy distantes de los de los salvajes, el caso a favor de dicha reforma se colapsaría. Con su nota precautoria de 1893, Morgan trató de salvar sus distinciones conceptuales independientemente del destino de sus afirmaciones sobre la razón animal. Poco después de su publicación de 1893, mientras terminaba su libro de texto Introducción a la Psicología Comparada, Morgan dio un paso adelante al reformular su alegato en favor de la reforma por completo, de modo que su nueva regla apareciera ahora desconectada del todo de sus puntos de vista sobre el lenguaje y la razón animal.
 
Este libro le dio al canon de interpretación de Morgan (como lo llamaba ahora), una audiencia mucho mayor. Después de enunciar el canon, Morgan distinguía tres concepciones de la evolución ligadas a tres “métodos” interpretativos. De acuerdo a Morgan, si la evolución agrega siempre facultades mentales superiores montándolas sobre las inferiores, mientras éstas se mantienen constantes, entonces el método interpretativo correcto es “el método de niveles” según el cual, en palabras del propio Morgan, “el perro es como yo, pero sin mis facultades superiores”. Si la evolución lo único que hace es incrementar la dotación de las facultades que están ya presentes en la misma proporción en todas las criaturas, entonces el método correcto es el “método de reducción uniforme” según el cual “el perro es igual a mí, sólo que de ningún modo tan altamente desarrollado”. Pero si la evolución tiene las manos libres para efectivamente agregar nuevas facultades superiores, así como para ajustar la proporción de las ya presentes, entonces el método correcto será el “método de variación”, según el cual el perro puede no ser nada parecido al hombre. “De estos tres métodos”, escribió Morgan, “ el de variación es el menos antropomórfico y por tanto, el más difícil”. Este método de interpretación era el promovido en el canon de Morgan. El canon era necesario no porque (como lo hubo alguna vez) hubiera un caso primafacie para la ausencia de razón animal ni porque la explicación más sencilla fuera la más factible de ser la verdadera (Morgan hizo notar que la hipótesis de razón animal conducía a menudo a explicaciones más parsimoniosas de la conducta animal), sino porque la evolución tenía la capacidad de modelar las mentes animales sin constreñimientos. Aun así Morgan no ofrecía fundamento alguno para creer que la evolución disponía de tal capacidad (capacidad de impedir que la mente animal se pareciera mínimamente a la mente humana). Al cierre de su Introducción, admitió que su defensa del canon lo había dejado vulnerable frente acusaciones de dogmatismo.
 
Aunque Morgan ahora presentaba su canon sin referencia al lenguaje y la razón animales, en otras partes del libro hacía una descripción del desarrollo de éstos tan contorsionada como la argumentación del nuevo canon. Los lectores aprendieron que había tres niveles básicos de desarrollo mental y linguístico. En el más bajo nivel estaban las bestias, quienes inmersas en el mundo de la experiencia sensorial, tenían poco que comunicar, aparte de sus propios estados emocionales y de los objetos que son llevados con eficacia sobre las olas de la conciencia producto de relaciones marginales. Morgan elogió “el trabajo pionero del señor Garner con el fonógrafo y los changos, que ayudó a establecer que tal “comunicación indicativa” iba aparejada con la simple aprehensión de las relaciones.” Por encima de las bestias, en un nivel medio, estaban aquellos protohumanos desaparecidos entre los que “la intercomunicación descriptiva” iba aparejada con la percepción de relaciones. Encima de todos, estaban los humanos modernos, entre los cuales la intercomunicación explicativa se acompañaba de la concepción de relaciones. Solamente aquí podía emerger la razón puesto “que sólo es racional quien es capaz de enfocar el por lo tanto”. Una vez más, y tal como Müller había sostenido, el lenguaje y la razón estaban íntimamente ligados y eran exclusivamente humanos, pero ahora la brecha abierta entre lenguaje y razón tenía una amplitud suficiente como para neutralizar cualquier cosa que Garner descubriese en el Congo. Incluso si se probaba que los monos tenían capacidades descriptivas y que por lo tanto percibían relaciones, Morgan dejaba claro que tal prueba no serviría por sí misma como evidencia del uso de la razón de los monos.

La canonización de la psicología comparada

Al final, el reto de Garner a Morgan fracasó independientemente de la maniobra intelectual de Morgan. Garner nunca pudo obtener el permiso de la notoriamente turbia empresa de fonógrafos en Inglaterra para llevar estos aparatos al Congo, mucho menos fonógrafos modificados para sus fines. Ultrajado, el 4 de noviembre de 1892 Garner escribió a Edison desde Libreville, diciendo que sin ese instrumento “me veo forzado a omitir uno de los más importantes aspectos de mi trabajo”. Algo peor estaba por venir. Cuando Garner rergesó a Inglaterra un año después y, en el invierno de 1894, comenzó a dar conferencias sobre sus experiencias, fue acusado de fraude.
 
Después de la primera y desastrosa expedición al Congo, Garner regresó muchas veces, algunas como coleccionista para instituciones como el Smithsonian y la Sociedad Zooógica de Nueva York. Continuó el resto de su vida siendo un experto en primates, pero ni él ni su trabajo volvieron a captar la atención de la ciencia profesional. Mientras el escándalo menoscabó la credibilidad de Garner y de sus ideas, la visión de Morgan de una reforma en la psicología comparada gozó de éxito e influencia crecientes. Un notable seguidor de su causa fue el joven Edward Thorndike. Poco después de que Morgan dictó las prestigiosas conferencias Lowell en Harvard, en enero de 1896, este estudiante de Harvard inició un crucial programa de investigación sobre la mente animal. En las famosas “cajas de acertijos” de Thorndike (con puertas que los animales aprendían a abrir), el canon de Morgan encontró una tardía encarnación instrumental. Usando las cajas de acertijos, Thorndike fue capaz de cuantificar por primera vez el ejercicio de la “inteligencia” como lo defendía Morgan, al graficar el tiempo de solución de pruebas consecutivas; inventó la curva de aprendizaje, cuyo uso pronto se generalizó. El trabajo de Thorndike sentó las bases para muchas investigaciones subsecuentes en los recientes departamentos de psicología en los Estados Unidos. Para el cambio de siglo, la victoria del canon de Morgan sobre el fonógrafo de Garner era prácticamente total. Después de la aparición, en 1908, del libro de Margaret Floy Washburn’s, La mente animal, varias generaciones de estudiantes aprendieron como un hecho indiscutible que “los animales no tienen lenguaje con el que puedan describirnos su experiencia”. “Lo cual era una pena,” agregó Washburn’s, “pues los vertebrados superiores podrían darnos una buena noción de lo que pasa en sus mentes si tan sólo pudieran hablar”. La posibilidad de que tal noción pudiera estar al alcance de la mano (o mejor dicho del oído) a través de asiduos trabajos experimentales con el fonógrafo, no volvió a mencionarse nunca. El canon de Morgan sería la guía. Chivi57
Referencias Bibliográficas
 
Morgan C.L. 1892. “The limits of Animal Intelligence”en International Congress of Experimantal Phsycology, second session, Londres.
R. Harris (ed.). 1996. The Origin of Language, Bristol. Este volumen contiene varios de los artículos citados de Garner, Müller, y Morgan.
Morgan, C.L. 1893. “The limits of Animal Intelligence” en Fortnightly Review, 54.
Romanes, G. J. 1879. “Intellect in brutes”, Nature, 20.
Romanes, G. J. 1881. Animal Intelligence, London.
Romanes, G.J. 1883. Mental Evolution in Animals, London.
Müller. 1861, 1863. “The theoretical stage, and the origin of language”, en Lectures on the Science of Language, 2 vols. London.
Müller, 1873. “Lectures on Mr. Darwin’s philosophy of language”, Fraser’s Magazine, 7.
Huxley, T. H. 1862. Our Knowledge of the Causes of the Phenomena of Nature, 6 vols. Londres.
Huxley T. H. 1863. Evidence as to Man’s Place in Nature, London.
Morgan, C. L. 1890-1.  Animal Life and Intelligence, London.
Garner, R. L. 1891.  “The simian tongue [I]”, New Review 4. 1891. “The simian tongue [II]”,  New Review, 5, 1892. “The simian tongue [III]”, New Review , 6.
Garner, R. L. 1892. The Speech of Monkeys, London and New York.
Morgan, C. L. 1892. “The limits of animal intelligence”, Nature, 46.
Morgan, C. L. 1892. Review of R. L. Garner’s The Speech of Monkeys, Nature, 46.
Morgan, C. L. 1894. An Introduction to Comparative Psychology, London.
Washburn, M. F. 1908. The Animal Mind: A Textbook of Comparative Psychology, New York.
Nota
Este ensayo ganó “Society’s Singers Prize” en 1998. Una versión más extensa será publicada en marzo de 2000 en el British Journal for the History of Science.
Gregory Radick
Departamento de Historia y Filosofía de la Ciencia,
Universidad de Cambridge.

Traducción.
Mónica Benítez.

_______________________________________________________________
 

como citar este artículo

Radick, Gregory y (Traducción Benítez, Mónica). (2000). El canon de Morgan y el fonógrafo de Garner, el lenguaje y la razón. Ciencias 57, enero-marzo, 44-53. [En línea]
 
 

 

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
La primera cátedra de Ecología
 
Carlos Vázquez Yanes
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.


En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.

Referencias.
1. Para obtener más información acerca de la vida y obra de Enrique Rioja Lo Bianco es muy recomendable la lectura del artículo de Cifuentes Lemus, J. L. 1994. “Enrique Rioja Lo Bianco (1895-1963)”. Revista Universidad de México.
2. Margalef, R. 1974. Ecología. Ediciones Omega, Barcelona.
3. Para conocer más de este científico es recomendable la lectura del artículo de Franco Baqueiro, M. 1994. “Faustino Miranda González (1905-1964)”. Revista Universidad de México.
Carlos Vázquez-Yanes†.
Instituto de Ecología,
Universidad Nacional Autónoma de México.
flechavolver58
 
Regresar al índice artículo siguiente

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
De ratones, hombres y elefantes:
El tamaño sí importa
 
Héctor T. Arita, Pilar Rodríguez y Leonor Solís.
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La belleza depende del tamaño y de la simetría. Ningún animal muy pequeño puede ser bello, ya que mirarlo toma una porción tan pequeña de tiempo que la impresión sobre él es confusa. Tampoco un animal muy grande puede ser bello ya que no se puede tener una visión completa de él en un vistazo, y no hay unidad ni integridad.

Aristóteles


Nada de lo que nos lastima puede considerarse pequeño: por las eternas leyes de la proporción, el que una niña pierda una muñeca o el que un rey pierda la corona son eventos de la misma magnitud.

Mark Twain
Las diferencias de tamaño son un hecho de la vida. Ya sea que, como Aristóteles, queramos ver todo desde la limitada perspectiva que nuestro tamaño biológico nos impone o que, como Twain, comprendamos la importancia de las proporciones, nuestro entorno es un universo de tamaños y escalas que determinan las pautas de nuestra vida. Entre los zoólogos, uno de los hechos más interesantes es que especies tan disímiles como una musaraña de apenas dos gramos y una ballena azul de cerca de 190 toneladas compartan toda una serie de características morfológicas y fisiológicas que muestran claramente que ambos animales pertenecen al mismo grupo biológico, el de los mamíferos.
La diminuta musaraña y su gigantesco primo marino que pesa 100 millones de veces más tienen el mismo diseño anatómico básico compartido por las 4 600 especies de mamíferos del mundo. Tanto la musaraña como la ballena, así como los ratones y los elefantes o los murciélagos, son vertebrados endotermos que presentan metabolismos relativamente altos para mantener constante su temperatura corporal. Todos ellos poseen pelo en alguna etapa de su vida y sus hembras presentan glándulas mamarias que producen leche con la que alimentan a las crías. Con muy pocas excepciones, los mamíferos chicos y grandes son vivíparos y todos ellos presentan además otras características morfológicas que los distinguen del resto de los vertebrados.
Si de alguna manera tuviésemos la oportunidad o la posibilidad de inventar un mamífero ideal, ¿cómo sería?, ¿qué tamaño elegiríamos y qué características podríamos darle para asegurar su óptima sobrevivencia? Lograr un diseño eficiente implicaría trabajar a la manera de los ingenieros o los arquitectos, tomando en cuenta las dimensiones de nuestra construcción para darle forma, estructura y función a nuestra creación, para lo cual deberíamos considerar todas las leyes físicas y químicas de nuestro mundo. Esa difícil tarea de diseño avanzado la ha realizado la naturaleza desde hace millones de años, generando una gran variedad de organismos que son capaces de sobrevivir bajo muy distintas condiciones ambientales, además de mantener las características básicas que los hacen mamíferos. Sabemos que como seres humanos todavía estamos muy lejos de poder crear el hipotético mamífero ideal y debemos limitarnos a sorprendernos ante la maravillosa diversidad de soluciones que la naturaleza ha encontrado al problema de ser mamífero y no morir en el intento.

La fierecilla fosilizada y el rinoceronte cuellilargo

Todos los seres vivos están sujetos a una serie de leyes físicas que establecen límites para el tamaño que pueden adquirir. Por ejemplo, se ha calculado que el medio acuoso en el interior del ser vivo más pequeño que se conoce, el Mycoplasma, consiste apenas de dos iones de hidrógeno. También se ha calculado que los dinosaurios más grandes que existieron, los saurópodos, estuvieron muy cerca del tamaño máximo teórico permitido por las leyes de la biomecánica para un animal terrestre.
Otras restricciones biomecánicas y fisiológicas determinadas por las características propias de los mamíferos establecen límites específicos de tamaño. Así, de acuerdo con algunos cálculos fisiológicos, el límite inferior absoluto para un vertebrado endotérmico sería de alrededor de 2.5 gramos. La teoría, propuesta por el mastozoólogo Oliver Pearson en 1948, toma en cuenta el balance que existe entre la energía que se produce por el metabolismo y aquella que se pierde hacia el entorno. La cantidad producida depende de la tasa metabólica y la masa absoluta del animal, mientras que la energía que se disipa depende de la temperatura ambiental y la superficie expuesta del individuo (el área completa de piel a través de la cual se da la pérdida de calor). Ahora bien, dado que la masa de un animal varía en proporción al cubo de la longitud mientras que la superficie lo hace en proporción al cuadrado, los animales de tamaño pequeño tienen superficies expuestas mucho más extensas en proporción a su peso que los animales más grandes y por lo tanto pierden más velozmente el calor. Ésta es la misma razón por la que los cubos de hielo pequeños se derriten mucho más rápidamente que un bloque grande. Para poder mantener una temperatura interna constante, las aves y los mamíferos muy pequeños necesitan mantener tasas metabólicas relativas (por unidad de peso) mucho más altas que los animales grandes. Los animales pequeños necesitan quemar proporcionalmente más combustible para mantener el “fuego de la vida,” en palabras del fisiólogo Kleiber. Pearson calculó que un mamífero o un ave de menos de 2.5 g sería incapaz de generar la suficiente energía como para contrarrestar la pérdida. Otra consecuencia de la inexorable ley de las proporciones es que los endotermos muy pequeños tienen que ser de naturaleza muy activa para poder conseguir suficiente alimento para mantener vivo su intenso fuego interno. Esa es la razón por la que las musarañas, que se cuentan entre los mamíferos más diminutos, viven vidas muy intensas y son hiperactivas, por lo que son consideradas “fierecillas”, como la fierecilla domada de la comedia de Shakespeare.
De hecho, la musaraña europea (Suncus etruscus) se considera el mamífero terrestre más pequeño del mundo y es afamada por su fiereza. El colibrí abeja de Cuba (Mellisuga helenae) es el ave más chica que se conoce, mientras que el murciélago abejorro de Tailandia (Craseonycteris thonglongyai) es el mamífero volador más diminuto. Estos tres campeones de la pequeñez tienen masas corporales muy cercanas al límite teórico calculado por Pearson. Los adultos de la musaraña europea pesan cerca de 2.5 gramos, mientras que los murciélagos abejorro son aún más pequeños, con un peso de cerca de 2 gramos, por lo que se les considera los mamíferos vivientes más pequeños. Sin embargo, aun estos pigmeos resultarían gulliveres comparados con la liliputiense ranita Eleutherodactylus iberia, descubierta en Cuba en 1996 y que mide apenas poco más de un centímetro de longitud, es decir una tercera parte de lo que mide el murciélago abejorro. Evidentemente, la ranita cubana, al no ser endoterma, “escapa” a las restricciones fisiológicas descubiertas por Pearson y puede alcanzar un tamaño sorprendentemente pequeño.
Un descubrimiento reciente, una fierecilla fosilizada, parece echar por tierra la validez de la teoría energética del tamaño mínimo. La descripción de la musaraña Batodonoides vanhouteni, el mamífero más pequeño de todos los tiempos, fue sacado a la luz en 1998. Esta musaraña fósil del Eoceno temprano (hace 55 millones de años) tenía una longitud de tan sólo un poco más de 2 centímetros y pesaba cerca de 1.3 gramos, más o menos lo que pesa un billete y casi la mitad de lo que pesa la musaraña europea. Evidentemente, la teoría de Pearson no podría explicar la existencia de esta miniatura de animal. En 1977, Tracy, desarrolló un modelo alternativo al de Pearson, que podría salvar el prestigio de las predicciones fisiológicas ante la evidencia de la musaraña del Eoceno. Del mismo modo que años después otros fisiólogos como Calder, Tracy se basó en los mismos principios que Pearson, pero planteando que la pérdida de energía depende no sólo de la superficie expuesta sino de la temperatura ambiente promedio. Asimismo, la capacidad de generar energía internamente estaría limitada principalmente por la capacidad de un animal de conseguir suficiente comida para alimentar el fuego metabólico. Así, en un ambiente con una temperatura externa constante y relativamente alta, un mamífero realmente diminuto (como Batodonoides) podría sobrevivir si fuera altamente eficiente en la obtención de alimento.
Otro fisiólogo, Schmidt-Nielsen, ha argumentado que el límite inferior de tamaño para un vertebrado endotérmico no está determinado por el equilibrio energético, sino por otro factor limitante: la capacidad del corazón para bombear sangre oxigenada a todo el cuerpo. Debido a las altas tasas metabólicas por unidad de masa, el corazón de los vertebrados pequeños necesita trabajar a velocidades más altas que el de los animales más grandes. Se ha medido que el corazón de algunas musarañas trabaja al impresionante ritmo de 1 200 latidos por minuto. Para darnos una idea de lo increíble que resulta esta cifra, basta calcular que el ritmo equivale a 20 latidos por segundo, lo que implica que en un lapso no mayor de 50 milisegundos el corazón de una musaraña debe completar un ciclo completo, relajar el músculo y quedar listo para el siguiente ciclo. Se ha demostrado que el ritmo cardiaco varía en proporción a la masa corporal elevada al exponente (–0.25). Con este dato es fácil calcular que si la musaraña del Eoceno tenía una masa corporal de la mitad de la de una musaraña actual pequeña, el corazón de la especie fósil debió haber trabajado a un ritmo 1.19 veces más rápido, es decir a una tasa de alrededor de 1425 latidos por segundo, muy sorprendente pero dentro de los límites creíbles para el músculo de un vertebrado (de hecho, el corazón de algunos colibríes trabaja a ese ritmo). Si Schmidt-Nielsen tiene razón y es el ritmo cardiaco lo que determina el tamaño mínimo de un vertebrado, entonces es perfectamente explicable la existencia de la musaraña Batodonoides, con su minúsculo tamaño.
En el otro extremo del espectro de tamaños, el mamífero terrestre viviente más grande es el elefante africano (Loxodonta africana). El individuo más grande que haya sido medido bajo condiciones controladas pesó cerca de siete y medio toneladas, es decir tres millones de veces el peso de la musaraña europea. Los mayores mamíferos terrestres que han existido jamás fueron los hyracodóntidos, parientes de los rinocerontes actuales, pero mucho más grandes, carentes de cuernos y con el cuello alargado, que vivieron en Asia y Europa durante el Oligoceno (entre 23 y 34 millones de años atrás). El Baluchitherium, que medía 8 metros de largo y 5.5 de alto, se disputa con su pariente el Indricotherium el título del mamífero terrestre más grande de la historia. Según diferentes cálculos, estos goliats de los mamíferos pesaban entre 15 y 30 toneladas, es decir, entre 10 y 20 millones de veces más que la musaraña del Eoceno recientemente descubierta.
Algunas de las limitantes biomecánicas y fisiológicas que determinan el tamaño máximo de un vertebrado terrestre se han discutido en otro artículo (ver “Gigantes Jurásicos” en el número 44 de Ciencias), por lo que no entraremos en detalles en el presente. Basta mencionar aquí que los rinocerontes gigantes de cuello largo del Oligoceno, aun con sus veintitantas toneladas, están por debajo de los límites teóricos de tamaño para un vertebrado terrestre. Hay que recordar que los dinosaurios más grandes, los saurópodos, según algunos autores, alcanzaron pesos de 80 toneladas o más. Se ha especulado que el único factor que podría explicar porqué nunca existieron mamíferos del tamaño de un saurópodo es que los mamíferos más grandes son herbívoros, y que la materia vegetal es un alimento energéticamente muy difícil de aprovechar, por lo que el límite superior de tamaño para un vertebrado endotermo estaría determinado por la capacidad de adquirir suficiente alimento a partir de las plantas para mantener en funcionamiento varias toneladas de un organismo altamente demandante de energía, como lo es un mamífero.
Para cerrar esta sección del artículo, podemos concluir que para ser un mamífero y no morir en el intento, se debe tener una masa corporal comprendida entre los 1.3 gramos de la fierecilla fosilizada y las veintitantas toneladas de los rinocerontes cuellilargos. Tenemos amplio campo de acción. Se trata de más de siete órdenes de magnitud comprendidas entre los extremos de tamaño.

Pigmeos voladores y gigantes marinos

El mundo de la ciencia está lleno de excepciones, y el caso del tamaño entre los mamíferos no es una excepción a la regla. Existen dos tipos de mamíferos que, no conformes con la dificultad que representa vivir bajo las condiciones ambientales del medio terrestre, han explotado dos medios adicionales: el aire y el agua. Los murciélagos, junto con las aves y los extintos pterosaurios, son vertebrados voladores que han experimentado cambios sustanciales en su morfología y fisiología para adaptarse al medio aéreo. De igual forma, los mamíferos marinos, particularmente los cetáceos, se han diversificado en el mundo acuático a partir de un grupo de mamíferos terrestres. Tanto los quirópteros como los cetáceos tienen que enfrentar condiciones muy diferentes a las que viven los mamíferos terrestres no voladores, lo que se refleja en el tamaño de las especies de estos dos grupos.
Los murciélagos, por ejemplo, son mamíferos muy pequeños. Desde el murciélago abejorro de 2 gramos hasta el “zorro” volador (Pteropus giganteus) de cerca de un kilo y medio, los quirópteros abarcan menos de tres de las más de siete órdenes de magnitud posibles para un mamífero. ¿Por qué son tan pequeños los murciélagos? La diferencia entre el consumo energético para el vuelo y la capacidad de generar energía establece un límite cercano a los 14 kilogramos para un vertebrado volador. El peso del murciélago más grande es, de todas maneras, diez veces menor al de este límite energético. Es posible que el hecho que los murciélagos sean vivíparos limite en gran medida su tamaño máximo. A diferencia de las aves, los murciélagos hembras al volar deben cargar el peso de un feto; incluso, algunos murciélagos vuelan cargando a las crías durante los primeros días de la lactancia.
Existe la teoría de que la necesidad de maniobrar limita el tamaño en los murciélagos insectívoros. Un murciélago demasiado grande simplemente no podría ejecutar las acrobáticas maniobras necesarias para capturar un insecto al vuelo. Una teoría reciente lleva más allá la idea de una restricción mecánica asociada al vuelo. A principios de los años 90 se descubrió que los murciélagos insectívoros, para ahorrar energía, acoplan el batir de las alas con la producción de los ultrasonidos de ecolocalización que les permite detectar y capturar insectos. Cada movimiento de las alas corresponde a una exhalación respiratoria y la producción de un pulso de ultrasonido. Esta sincronización permite que se minimice el gasto de energía en el vuelo y la ecolocalización, actividades que individualmente son altamente costosas para los murciélagos. Por cuestiones biomecánicas, el batir de las alas es más lento en los murciélagos más grandes y por lo tanto, debido al acoplamiento, el ritmo de producción de ultrasonidos es también más lento. Sin embargo, para un cierto tamaño límite (alrededor de 150 g de peso), el ritmo de producción de ultrasonidos sería demasiado lento como para poder detectar insectos voladores. Un murciélago de más de 150 g podría volar perfectamente, pero su sistema de ecolocalización sería inservible para la detección, seguimiento y captura de insectos voladores. Consecuentemente con la teoría, no puede existir un murciélago insectívoro más grande de 150 g.
En la realidad, la gran mayoría de los murciélagos insectívoros pesa menos de 50 gramos y sólo hay cuatro especies de más de 100 gramos. Los murciélagos de más de 200 gramos no son insectívoros sino frugívoros, que no necesitan un aparato de ecolocalización tan sofisticado como el de los insectívoros. Aparentemente, el tamaño en los murciélagos en general está limitado por la combinación de capacidad de vuelo y la viviparidad. En los insectívoros existe además la limitación biomecánica relacionada con el acoplamiento entre el vuelo y la ecolocalización. Estas restricciones hacen que los murciélagos sean mamíferos pequeños.
El caso de los mamíferos marinos es completamente opuesto al de los murciélagos. Existen dos factores principales que determinan el tamaño de los cetáceos, los únicos mamíferos completamente marinos. Por un lado, los mamíferos marinos no se enfrentan a las limitaciones biomecánicas que establecen el tamaño máximo para un vertebrado en tierra firme. Debido a que los cetáceos pasan toda su vida flotando en el medio marino, sus extremidades no tienen que soportar el peso del cuerpo ni las tremendas tensiones y torsiones asociadas al desplazamiento en tierra firme. Por otro lado, en el medio acuático existe un problema de gran importancia para un mamífero: la tasa de disipación de calor es muy alta, por lo que para mantener la temperatura corporal es preciso contrarrestar ésta de alguna manera. Estos dos factores (la atenuación de las limitaciones biomecánicas y la acentuación del problema de la pérdida de calor) hacen que los mamíferos marinos sean mucho más grandes que los terrestres.
Imaginemos por un momento que existiera una musaraña marina. Su tamaño pequeño, y en particular su gran área de piel expuesta en proporción al peso total, haría que la tasa de pérdida de calor fuera tan alta que se requeriría una tasa metabólica mucho mayor que la de las musarañas terrestres para contrarrestarla. Para mantener un metabolismo tan acelerado, el corazón de esta hipotética fierecilla marina debería trabajar a un ritmo de varios miles de latidos por minuto, hazaña imposible para el músculo cardíaco de un mamífero. Definitivamente podemos descartar la idea de una musaraña marina.
Dejando de lado el mundo de la biología ficción, el mamífero marino más pequeño que existe es la vaquita marina (Phocoena sinus), un cetáceo endémico de los mares mexicanos y que está en peligro de extinción. La vaquita, con su longitud de alrededor de 1.35 metros y su peso de cerca de 45 kilogramos, es mucho más grande que los mamíferos terrestres más pequeños. En el otro extremo tenemos a los verdaderos pesos completos de los mamíferos. La ballena azul (Balaenoptera musculus) es el animal más grande que ha existido sobre la faz de la Tierra. Una ballena azul no demasiado robusta pesa más de 100 toneladas, y el récord mundial lo constituye un individuo capturado en los mares del antártico, cuyo peso se estimó en cerca de 190 toneladas, lo que equivale al peso de más de 2 700 personas de peso promedio o al de más de 600 luchadores de sumo o al de más de 100 millones de murciélagos abejorro.
¿Cómo puede existir un animal de la envergadura de una ballena azul? Además de no tener que enfrentar las limitaciones biomecánicas que enfrentan sus parientes terrestres, la ballena azul puede escapar de otra de las limitantes: su alimentación está basada en el consumo de pequeños crustáceos que son una fuente de nutrimentos mucho más aprovechable energéticamente que el material vegetal que sirve de alimento a los mamíferos terrestres más grandes. Sin problemas de soporte mecánico y con un tipo de alimentación muy eficiente, energéticamente hablando, no existe un límite teórico al tamaño que podría adquirir un mamífero marino.
Para concluir la sección, podemos recalcar el hecho de que el medio aéreo y el marino producen efectos opuestos sobre el intervalo de posibles tamaños que pueden llegar a tener los mamíferos. Murciélagos y ballenas, que comparten las características básicas de todos los mamíferos, enfrentan condiciones completamente diferentes y han respondido en forma opuesta a las presiones ambientales. De esta manera, los mamíferos en estos medios se han convertido en pigmeos voladores y en gigantes marinos.

El mamut más pequeño de la historia

Cuando pensamos en un mamífero grande, probablemente una de las primeras imágenes que llega a nuestra mente es la de un mamut. Efectivamente, casi todos los mamuts (género Mammuthus) fueron animales de gran envergadura. La mayoría de las especies de estos proboscídeos pleistocénicos era al menos del tamaño de los elefantes modernos, y el mamut imperial (M. imperialis) llegó a medir más de cuatro metros de altura a los hombros.
Dada esta imagen de enormidad, resulta sorprendente que la antigüedad de los restos fósiles de estos animales sea de apenas 3 800 años. Es difícil imaginar que existían poblaciones de mamuts lanudos cuando en Mesopotamia y en Egipto se estaban desarrollando ya las primeras grandes civilizaciones.
La población de mamuts en cuestión existió en la isla Wrangler, al norte de Siberia. Se trata de una población que se originó cuando unos pocos individuos quedaron atrapados en la isla como consecuencia de los cambios climáticos que se dieron al final del Pleistoceno, es decir hace unos 10 mil años. Al aumentar la temperatura promedio de la Tierra, el nivel medio del mar subió y creó islas al separar terrenos antes conectados por tierra firme. De esta manera, en Wrangler quedó atrapado un grupo de mamuts que sufrió, como población, un proceso típico en grupos de individuos en islas: la tendencia de las especies de gran tamaño a producir enanos. En unos pocos miles de años, el tamaño de los individuos de la población de mamuts lanudos de Wrangler disminuyó sensiblemente hasta producir los pequeños mamuts cuyos fósiles de 4 mil años se conservan hasta nuestros días.
Existen numerosos casos de poblaciones de animales que al invadir islas experimentan una disminución en el tamaño promedio de sus individuos. En la isla de Cozumel, al este de la península de Yucatán, por ejemplo, se encuentran poblaciones de coatí (género Nasua), de mapache (género Procyon) y de pecarí cuyos individuos son más pequeños que sus contrapartes en el continente. Existe todavía controversia respecto a si estas poblaciones representan o no especies separadas. Parece ser que los primeros pecaríes de Cozumel fueron llevados a la isla por los mayas hace apenas unos cuantos cientos de años, lo que indica que la tendencia hacia el tamaño pequeño puede manifestarse en tiempos evolutivos muy cortos. Otro ejemplo interesante parece ser la fauna de dinosaurios de Rumania de finales del Cretacico, que está representada por formas anormalmente pequeñas. La explicación que se ha dado al diminuto tamaño de estos dinosaurios es que Europa Central hace cerca de 70 millones de años era un archipiélago, y que los fósiles de Rumania provienen de poblaciones que se encontraban aisladas en algunas de las islas, y por lo tanto experimentaron la tendencia al enanismo, tal como las poblaciones insulares actuales.
Un aspecto curioso de la evolución del tamaño corporal en las islas es que mientras las especies de gran tamaño desarrollan formas enanas, los especies pequeñas tienden a formar gigantes. Existen numerosos casos documentados de ratones, tortugas y lagartijas insulares que son más grandes que sus parientes en el continente. El caso extremo es el llamado dragón de Komodo (Varanus komodensis), que con casi tres metros de longitud y un peso de hasta 135 kilos es la lagartija más grande del mundo. Esta especie se encuentra solamente en la isla de Komodo y en otras pequeñas islas del archipiélago de la Sonda pertenecientes a Indonesia.
En la isla Ángel de la Guarda, en la parte norte del Golfo de California, se presenta un caso particularmente ilustrativo de las tendencias evolutivas en las poblaciones insulares. En la isla existen dos especies de serpientes de cascabel, Crotalus mitchelli y Crotalus ruber que también se encuentran en la parte continental de México. En el continente, C. mitchelli es mucho más pequeña que C. ruber, pero en Ángel de la Guarda la relación se ha invertido, de manera que ahí C. mitchelli es casi del doble de tamaño que la otra especie. Ted Case, ecólogo de la Universidad de California en San Diego, explica este fenómeno proponiendo el siguiente escenario: es posible que C. mitchelli (la especie pequeña en el continente) haya llegado primero a la isla y evolucionado hacia individuos de mayor tamaño. Mucho tiempo después, al invadir la isla C. ruber, esta serpiente “tuvo” que evolucionar hacia tamaños pequeños para evitar la competencia con la ahora serpiente grande C. mitchelli.
¿Qué hace que en las islas los gigantes se conviertan en enanos y los enanos en gigantes? Evidentemente, como en otros fenómenos biológicos, no existe una explicación sencilla, sino una combinación de factores. Tal como nos enseña el caso de las víboras de Ángel de la Guarda, la historia y el azar juegan un papel preponderante en estos procesos. Para hacer aún más interesante el misterio de los enanos y los gigantes insulares, existe un patrón muy curioso que fue descrito por Lomolino a mediados de los años 80. En los mamíferos, la tendencia general es que las especies cuyos individuos pesan más de 100 gramos en el continente tienden a hacerse más chicas al invadir islas, mientras que las especies de peso menor a 100 gramos tienden a hacerse grandes. Las especies que en promedio pesan cerca de 100 gramos no presentan cambios morfológicos notables una vez que se establecen en las islas. ¿Qué tiene de especial un peso de 100 gramos en los mamíferos? Para tratar de contestar debemos regresar a la pregunta hipotética que planteamos al principio de este artículo: si pudiéramos diseñar al mamífero ideal, ¿de qué tamaño sería?

El mamífero ideal, ¿existe tal cosa?

En México existen (o han existido en tiempos históricos) 289 especies de mamíferos terrestres, excluyendo a los murciélagos (por ser animales voladores) y a las especies insulares. En este conjunto de especies, el peso varía desde un poco más de 3 gramos en las musarañas más pequeñas, hasta la media tonelada del bisonte o del wapiti. La distribución estadística no es uniforme (aspecto que se discutirá más adelante), por lo que en realidad la gran mayoría de las especies presentan pesos de menos de 200 gramos. La media geométrica del peso de las 289 especies es de 171.5 gramos, que corresponde con la talla de una rata de tamaño grande (género Neotoma) o de una ardilla de tierra pequeña (por ejemplo, Spermophilus mexicanus). Estos animales podrían considerarse los mamíferos mexicanos promedio en cuanto a tamaño. Otra manera de tratar de encontrar un mamífero promedio es determinando el punto medio de la distribución, es decir la mediana. En el caso de los mamíferos terrestres mexicanos, la mediana del peso corporal es de 92 gramos, que corresponde al de una rata canguro de tamaño intermedio (Dipodomys gravipes). Estar situado en la mediana significa para la rata canguro que 144 especies mexicanas pesan menos que ella y 144 especies tienen una talla mayor. Podemos decir que si existe un mamífero promedio para México, tal animal sería un roedor de entre 90 y 180 gramos. Antes de discutir con detalle las implicaciones de este resultado, llamaremos la atención sobre el hecho de que los valores de la mediana y de la media geométrica del peso de los mamíferos de México son bastante cercanos a los 100 gramos que Lomolino encontró como límite para la tendencia hacia el gigantismo o el enanismo en los mamíferos insulares. ¿Casualidad? Algunas teorías recientes parecen indicar que esta concordancia es más que una simple coincidencia.
A finales de los años 50, dos de los más grandes ecólogos de la historia, George E. Hutchinson y Robert MacArthur, recopilaron datos de tamaño para los mamíferos de Michigan y los de Europa. Hutchinson y MacArthur encontraron un patrón común: existen más especies de tamaño pequeño que de tamaño grande. Para los mamíferos, esto significa que hay más tipos de musarañas y de ratones que de carnívoros o de venados, tal como sucede en el caso de los mamíferos de México. La explicación standard de este patrón fue que los animales más pequeños podían dividir el espacio y los recursos en una manera más fina que los de mayor talla, permitiendo así la existencia de más formas chicas que grandes. Las observaciones parecían ajustarse a un modelo definido por la competencia entre las especies y la forma en la que éstas se repartían los recursos.
Estudios posteriores, sin embargo, mostraron patrones más finos e interesantes que contradecían la teoría de Hutchinson y MacArthur. Para empezar, se ha demostrado que la categoría que comprende los animales de tamaño más pequeño no es la más rica en especies. En realidad, hay pocas especies de musaraña y de otros mamíferos diminutos en comparación con el número de especies de ratones y otros roedores, por ejemplo. Los mamíferos más comunes, en términos del número de especies que existe, no son los más pequeños, sino los de aproximadamente 100 a 120 gramos de peso, según datos de Brown y colaboradores. Como ya vimos, este patrón se cumple para la fauna de mamíferos de México, ya que existen sólo 25 especies que pesan menos de 10 gramos, mientras que 119 pesan entre 10 y 100 gramos, y 85 pesan entre 100 gramos y un kilo. En segundo lugar, existen cada vez menos especies a medida que nos movemos hacia tamaños mayores, y hay realmente muy pocas especies de gran talla. Podemos, por ejemplo, contar con los dedos de las manos las especies de mamíferos que pesan más de una tonelada (de hecho en México no existe ninguna de ellas), pero hay algunas docenas que pesan cientos de kilos (en México existen seis) y un número mayor que pesan decenas de kilos (en México hay 14). El número se incrementa siguiendo esta secuencia hasta alcanzar el pico alrededor de las especies de cerca de 100 a 200 gramos. En tercer lugar, la cantidad de especies de las diferentes tallas varía según el tamaño del área estudiada y, por tanto del número total de especies: en continentes completos o grandes regiones se observa el patrón unimodal con el pico en los 100 gramos, pero en regiones pequeñas con menos especies la distribución es más pareja, con un número similar de especies en cada categoría.
¿Cómo se pueden explicar estos patrones? Brown y sus colaboradores propusieron en 1993 un modelo energético que explica la existencia de un tamaño óptimo para un mamífero terrestre. El modelo incluye algunas inferencias complicadas basadas en las relaciones entre el tamaño corporal y diversas funciones fisiológicas, pero, en síntesis, propone una relación directa entre la masa corporal de un mamífero y dos atributos fisiológicos básicos: su capacidad para adquirir energía del medio para sobrevivir y crecer, y su capacidad para la reproducción. Según Brown y sus colegas, los mamíferos demasiado pequeños serían muy eficientes para adquirir energía del ambiente, pero poco eficientes para transformar esa energía en descendientes. Los mamíferos más grandes, en cambio, serían más eficientes para la reproducción, pero su deficiente capacidad de captura de energía les impediría aprovechar al máximo esa capacidad reproductora. Usando varios modelos alométricos, Brown y sus colaboradores concluyen que el mamífero ideal que aprovecharía al máximo la capacidad de adquisición de energía y su transformación en crías debe pesar alrededor de 100 gramos, cifra que coincide con la categoría de tamaño más rica en especies para diferentes faunas de mamíferos y con el límite descubierto empíricamente por Lomolino. Más recientemente, en 1997, Kozlowzki y Weiner, presentaron una teoría diferente en la que no existe un tamaño óptimo general para un mamífero, sino que aquel varía de especie a especie en función de las tasas de asimilación de energía, respiración y mortalidad.
Ambos modelos (el de Brown y colaboradores, y el de Kozlowzki y Wiener), predicen que los factores fisiológicos determinan el tamaño ideal para los mamíferos. La hipótesis de Brown y colaboradores habla de un ideal para todos los mamíferos, mientras que la de Kozlowzki y Wiener propone que el tamaño óptimo varía entre las especies. Las dos teorías predicen que el tamaño ideal debe ser el más rico en especies, mientras que los tamaños más pequeños y más grandes estarían menos representados en las faunas de mamíferos. Aunque ambas teorías siguen siendo acaloradamente debatidas en la literatura científica actual y no han sido universalmente aceptadas, al menos han propuesto un sustento teórico a las observaciones empíricas sobre la distribución de tamaños entre los mamíferos y han desencadenado una discusión muy fructífera entre los científicos interesados en el tamaño corporal como una variable ecológica.

Marcha de caballos fósiles y caída de titanes

Entre las implicaciones de las teorías fisiológicas de un tamaño óptimo para los mamíferos destaca la conclusión de que debe haber mecanismos selectivos de producción de nuevas especies y de extinción para producir el patrón típico de distribución de frecuencias de masas corporales que observamos en la actualidad. ¿Qué nos puede decir la paleobiología sobre este asunto?
Entre las “reglas” biológicas que han intentado explicar los patrones evolutivos de los mamíferos en relación con el tamaño destaca la llamada regla de Cope, que propone la existencia de una tendencia evolutiva hacia el desarrollo de tamaños cada vez más grandes. Se ha invocado esta regla para explicar el enorme tamaño que llegaron a adquirir algunos dinosaurios y se ha aplicado para describir las tendencias evolutivas de algunos grupos de mamíferos. Por ejemplo, todavía en algunos textos se presenta la evolución de los proboscídeos (el orden de los elefantes) como un ejemplo de la regla de Cope, que llevó a este grupo de animales a evolucionar desde el primitivo Moeritherium de finales del Eoceno, que era un proboscídeo relativamente pequeño (de 250 kilos) y más parecido a un hipopótamo que a un elefante, hasta los enormes mamuts del Pleistoceno, que deben haber pesado unas 10 toneladas. Sin embargo, un análisis más cuidadoso de la evolución en este grupo muestra la existencia de una gran variedad de formas y tamaños durante el Oligoceno, Mioceno y Plioceno, incluyendo especies de enormes dimensiones, pero también formas de tamaños intermedios.
Otro ejemplo clásico de la regla de Cope es la evolución de los caballos, desde el primitivo Hyracotherium (conocido también como Eohippus) del Eoceno hasta el moderno Equus, que apareció en el Pleistoceno, y al que pertenecen en la actualidad los caballos, cebras y burros. En la forma tradicional, se entendía la evolución de estos animales como una tendencia hacia la aparición de especies cada vez más grandes, la cual estaba asociada a otros cambios: (1) el paso de un ambiente boscoso a las sabanas abiertas; (2) la transformación de los molares, desde una estructura simple característica de los herbívoros ramoneadores, hasta los dientes grandes y complejos propios de un pastoreador; (3) una tendencia a desarrollar capacidades para correr velozmente y escapar de los depredadores, reflejada en un incremento en la longitud de las patas y en la pérdida de dedos, hasta terminar con la pezuña única, característica de los caballos modernos.
Bruce MacFadden, paleontólogo de la Universidad de Florida, ha analizado con mucho detalle la evolución de los caballos en América del Norte y ha mostrado que existieron largos periodos en los que no existe un aumento notable en el tamaño de las especies, y que los “saltos” reflejados en cambios en la masa corporal coinciden siempre con cambios dramáticos en el clima o el tipo de vegetación. Más recientemente, otros paleobiólogos han mostrado que, en otras partes del mundo, la evolución de los caballos ha producido en diferentes etapas tanto especies pequeñas como grandes. Definitivamente la regla de Cope no explica adecuadamente la evolución de los elefantes ni de los caballos.
Otra supuesta regla es que las especies de mayor talla deben ser más susceptibles a la extinción. Esta suposición parte de la imagen que se tiene sobre las extinciones masivas de vertebrados en tiempos remotos: la extinción masiva de los dinosaurios al final del Cretácico y la de la megafauna de mamíferos de varios continentes al final del Pleistoceno parecen ser ejemplos extremos de la alta vulnerabilidad de las especies de tamaño grande. Sin embargo, existen algunas complicaciones para esta explicación simplista: no hay que olvidar, para empezar, que junto con los enormes dinosaurios que todos conocemos existió toda una colección de dinosaurios de tamaños pequeños y medianos, que también desapareció hace 65 millones de años.
El caso de la megafauna de mamíferos se ha prestado a mayor debate y es posible que la aparición de un nuevo factor haya sido la causa principal de este episodio en la historia de los mamíferos. La evidencia muestra que, en efecto, los mamíferos pleistocénicos de mayor talla, entre ellos los clásicos mamuts, tuvieron una probabilidad mayor de extinción que las formas más pequeñas. Sin embargo, hay evidencias de gran peso que indican que la presencia del hombre pudo haber sido el factor determinante en la desaparición de estas especies. El hecho es que la desaparición de la megafauna coincide en varios sitios con la aparición en esos lugares del hombre. Por ejemplo, la extinción de los canguros gigantes, del león marsupial y de otros mamíferos australianos se produjo hace 35 mil años, justo cuando el hombre primitivo llegó a la isla-continente. Más recientemente, hace 11 mil años, sucedió exactamente lo mismo con la megafauna de mamíferos de América del Norte, al aparecer los grupos humanos correspondientes con los artefactos Clovis. Finalmente, en el último milenio, la extinción de numerosas aves de gran tamaño en Madagascar, Nueva Zelandia y varias islas del Pacífico ha coincidido indudablemente con la llegada de la gente. La conclusión inescapable de esta evidencia es que la extinción masiva de las especies de mayor tamaño en el Pleistoceno y en la época actual es más una consecuencia del efecto negativo del hombre que el de una regla biológica.
Tal parece que, tanto la llamada regla de Cope, como la supuesta tendencia de las especies grandes a ser más susceptibles a la extinción, tienen poco apoyo en la evidencia empírica. De hecho, el paleobiólogo David Jablonski ha llegado a conclusiones semejantes en el caso de los invertebrados, al no encontrar evidencia para ninguna de las dos supuestas reglas en la extensa colección de moluscos fósiles del Cretácico de América del Norte. En suma, es necesario rexaminar la evidencia fósil para dilucidar procesos que puedan explicar los patrones pasados y presentes de la distribución de masas corporales entre los mamíferos.

Implicaciones históricas y sociales

Para concluir, discutiremos dos ideas actuales que tienen que ver con este tema y que pretenden comprender la relación del hombre con los animales. La primera es la especulación que hace Jared Diamond sobre la antigua idea de que la posesión de animales domésticos de gran talla ha constituido una ventaja considerable para grupos humanos que han logrado conquistar a otras culturas. Según algunos antropólogos e historiadores, y más recientemente según Diamond, la combinación de animales domésticos, agricultura avanzada, tecnología militar y resistencia a las enfermedades ha dado a los conquistadores las ventajas suficientes para dominar a sus conquistados. En particular, la posesión de caballos y rumiantes (vacas, ovejas, cabras) por los europeos constituyó una ventaja determinante en la conquista del continente americano, Australia y otras partes del mundo.
No podemos en este artículo entrar en una detallada discusión sobre la validez de los argumentos de Diamond. Sin embargo, el punto relevante en relación al tema del artículo es la especulación de Diamond que establece que la extinción diferencial de la megafauna en diferentes partes del mundo es lo que permitió a los europeos la domesticación de los animales que posteriormente favorecieron la expansión de los grupos humanos del viejo continente a costa de la gente de otros sitios que no poseían animales domésticos de gran talla. Según Diamond, los mamíferos de gran tamaño no se extinguieron en el viejo continente a causa de los humanos, ya que esa fauna ha evolucionado junto con poblaciones humanas por decenas o centenas de miles de años. Por el contrario, las faunas de América, de Australia y de otras partes del mundo eran muy susceptibles a la acción de los humanos, lo que podría explicar las catastróficas extinciones masivas asociadas con la llegada del ser humano a esos sitios. La consecuencia última de la pérdida de los grandes mamíferos fue que todas las especies de gran talla potencialmente domesticables fueron extirpadas de América y de Australia, lo que impidió a los pueblos nativos de estos continentes contar con los equivalentes a los caballos y las vacas. Esto, a su vez, de acuerdo con Diamond, allanó el camino, junto con otros factores, para la conquista del Nuevo Mundo y Australia por los europeos.
Una derivación más actual de los avances recientes en la comprensión de las implicaciones ecológicas y evolutivas del tamaño corporal, es el posible incremento en la susceptibilidad de los animales de mayor talla a la extinción. Además de la evidencia histórica, representada por las extinciones masivas de aves y mamíferos de gran talla ante la presencia humana, hay una serie de correlaciones ecológicas que sugieren que las especies de mayor tamaño deben ser más vulnerables a la extinción. Por ejemplo, los mamíferos más grandes existen en densidades menores que las de las especies más pequeñas. Asimismo, las especies grandes son más longevas y por lo tanto tienen tiempos generacionales más extensos, presentan camadas más pequeñas y más espaciadas en el tiempo y requieren áreas mayores para mantener poblaciones viables. Esta evidencia apunta fuertemente a que, en efecto, las especies de mayor tamaño podrían estar en mayor riesgo de extinción.
Los humanos del siglo xxi no veremos jamás a un mamut vivo, a menos que tengan éxito los intentos recientes por producir mamuts clonados a partir de material genético encontrado en fósiles congelados en Siberia. Tampoco observaremos nunca al perezoso gigante, una especie que desapareció hace apenas algunos miles de años, a menos que el animal sea encontrado en la selva del Amazonas por un científico que afirma tener pruebas de la presencia del perezoso gigante en Brasil. Sería muy triste añadir a esta lista otros representantes de las categorías de tamaño más grande entre los mamíferos. Además de ser, como hemos visto, casos excepcionales de tamaño, los elefantes, los rinocerontes, los hipopótamos y otros megamamíferos constituyen componentes clave de los ecosistemas, y son parte fundamental de la diversidad biológica del planeta.


Referencias Bibliográficas.
Brown, J. H. 1995. Macroecology. University of Chicago Press, Chicago, Estados Unidos.
Diamond, J. 1997. Guns, germs, and steel. The fates of human societies.
Gould, S. J. (ed.). 1993. The book of life. W. W. Norton & Co., Nueva York.
Jablonski, D., D. H. Erwin y J. H. Lipps (eds.). 1996. Evolutionary paleobiology. University of Chicago Press, Chicago.
Quammen, D. 1997. The song of the dodo, island biogeography in an age of extinctions. Simon & Schuster, Nueva York.
Schmidt-Nielsen, K. 1984. Scaling, why is animal size so important? Cambridge University Press, Cambridge Reino Unido.
Wilson, E. O. 1992. The diversity of life. Harvard University Press, Cambridge, Massachusetts.
Se extrajeron algunos datos e información específica del manuscrito:
Arita, H. T. y P. Rodríguez. Macroecología y ecología geográfica. Para el libro Biogeografía (J. J. Morrone, O. Flores y J. Llorente, eds.).

Héctor T. Arita, Pilar Rodríguez y Leonor Solís.
Instituto de Ecología,
Universidad Nacional Autónoma de México.
flechavolver58
 
Regresar al índice artículo siguiente

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
La primera cátedra de Ecología
 
Carlos Vázquez Yanes
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.


En nuestros días, la palabra ecología, bien o mal entendida, está en boca de muchos sabios o ignorantes del mundo. Incluso, hoy por hoy, abundan los que se dicen “ecologistas”, que algunas veces dan la impresión de ser el equivalente en biología a lo que los astrólogos son a los astrónomos: los primeros confunden el pensamiento mágico con el científico. Este auge de la ecología es relativamente reciente; no hace mucho tiempo, el tema en nuestra universidad no era siquiera objeto de un curso especializado de la carrera de biólogo.
Veamos algunos aspectos del origen de este curso de acuerdo a mi propia experiencia durante mis estudios para obtener el título de biólogo. Cuando cursaba el tercer año de la carrera, en 1965, me di cuenta que entre las materias optativas ofrecidas por la Facultad se encontraba la de ecología. En esos tiempos, la impartía el Dr. Arturo Gómez Pompa, quien tenía fama entre sus discípulos de 1964 de dar un excelente curso, muy actualizado, pues acababa de regresar de una larga estancia en la Universidad de Harvard, en donde había disfrutado de una de las prestigiosas becas Guggenheim durante 1963. Actualmente, el Dr. Gómez Pompa es uno de esos valiosos cerebros mexicanos que trabajan en el extranjero, en la Universidad de California, en Riverside.
Por dificultades con el calendario escolar, no pude inscribirme en la materia durante 1965 y la dejé para mi último año de estudios. En 1966, el Dr. Gómez Pompa dejó el curso de Ecología para impartir la clase de Botánica iv a nuestra generación. La  materia  de Ecología quedó vacante, así que un grupo de alumnos interesados en ella, le pedimos al Dr. Juan Luis Cifuentes Lemus que la impartiera. El profesor Cifuentes, como todos los que fuimos sus agradecidos alumnos le llamamos todavía, aceptó gentilmente, evitando así que nos quedásemos sin tomar la materia, pero nos advirtió que nosotros tendríamos que preparar muchas de las lecciones, lo cual aceptamos gustosamente.
Gracias al profesor Cifuentes pudimos enterarnos del origen de la materia en la Facultad de Ciencias. Ésta fue introducida al plan de estudios de la carrera de biólogo por sugerencia del Dr. Enrique Rioja Lo Bianco,1 a mediados de los años cincuenta. El profesor Rioja era un exiliado español especializado en zoología de invertebrados marinos e hidrobiología, que llegó a México después de la Guerra Civil en España. En Europa había llegado a ser director de la prestigiada Estación Zoológica de Nápoles, Italia, en donde tuvo contacto con el trabajo de reconocidos pioneros de la ecología, como Vito Volterra, famoso por sus modelos ya clásicos en ecología de poblaciones de peces. En México, el Dr. Rioja fue investigador del Instituto de Biología de la unam e impartió la materia de Ecología en el posgrado de biología, y posteriormente en la licenciatura, hasta que enfermó gravemente en 1963. Su muerte ocurrió ese mismo año.
Así, vemos que la enseñanza de la Ecología como una disciplina independiente en la Facultad de Ciencias de la unam, sólo se inició hasta los años cincuenta. No he recabado información precisa del año en que el Dr. Rioja comenzó a impartir la cátedra de Ecología, aunque tengo noticia que esto ocurrió a partir del cambio del curriculum que tuvo lugar durante los 50. ¡Antes de esa época no existía la clase!
Durante la escritura de esta nota, me comuniqué vía correo electrónico con el Dr. Arturo Gómez Pompa a Riverside, California. Transcribo aquí, en sus propias palabras, algunos fragmentos de la comunicación que me envió:“Durante los años 50, el Dr. Rioja impartía cursos de ecología en el doctorado. Yo tomé dos cursos con él y tuve la oportunidad de tener una magnífica relación. En ese tiempo yo empezaba mis estudios en la ecología de las dioscóreas, asesorado por el Dr. Faustino Miranda.
”Lamentablemente, el Dr. Rioja enfermó gravemente, y ya desde el hospital, me mandó llamar para invitarme a que lo sustituyera dando la clase de Ecología. Me dio terror la idea de sustituir sus increíbles clases llenas de sabiduría, al estilo de los grandes naturalistas académicos europeos. Él me animó y me dijo que podía venir a discutir con él al hospital cada vez que yo quisiera. Así lo hice, y de él aprendí muchísimo. En especial, a controlar el nerviosismo de dar la clase. Recuerdo que una vez le platiqué de mi nerviosismo, y que en las noches antes de la clase casi no podía dormir. Él me dijo que era buena señal que me preocupara, ¡que con el tiempo eso se corregía! ¡Que a él también le temblaban las piernas cuando caminaba rumbo al salón! No sé si me dijo la verdad, pero a partir de ese momento me tranquilicé. Algo más que hice  para tranquilizarme fue, entre otras cosas, llevar a los estudiantes al campo y mostrarles lo que yo hacía”.
Algunos de mis compañeros y yo tuvimos la fortuna de conocer personalmente al Dr. Rioja durante el primer año de la carrera, aunque desgraciadamente esto ocurrió en 1963, cuando ya se encontraba internado en el Hospital Español, transitando penosamente por la etapa terminal de su enfermedad. El profesor Cifuentes fue quien nos sugirió la idea de visitarlo y nos acompañó a verlo. Él pensaba que al Dr. Rioja le daría un gusto muy grande el saber que ya contaba con nietos académicos en cuya cabeza rondaba la idea de estudiar ecología. Al salir de su habitación todos pensamos que efectivamente así fue.

Referencias.
1. Para obtener más información acerca de la vida y obra de Enrique Rioja Lo Bianco es muy recomendable la lectura del artículo de Cifuentes Lemus, J. L. 1994. “Enrique Rioja Lo Bianco (1895-1963)”. Revista Universidad de México.
2. Margalef, R. 1974. Ecología. Ediciones Omega, Barcelona.
3. Para conocer más de este científico es recomendable la lectura del artículo de Franco Baqueiro, M. 1994. “Faustino Miranda González (1905-1964)”. Revista Universidad de México.
Carlos Vázquez-Yanes†.
Instituto de Ecología,
Universidad Nacional Autónoma de México.
flechavolver58
 
Regresar al índice artículo siguiente

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
El proyecto del genoma humano
 
Ricardo Noguera Solano y Rosaura Ruiz Gutiérrez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A principios de la década de los ochentas mapear y secuenciar el genoma humano en su totalidad era una idea prácticamente insoñable. Sin embargo, estas ideas se formalizaron en 1990 en uno de los proyectos más grandes de cooperación internacional, el proyecto genoma humano, el cual nos ha forzado a reflexionar no sólo en problemas técnicos y científicos, sino también en problemas éticos y morales. A pesar de los distintos enfoques en los que se puede abordar este asunto, nuestro objetivo será reflexionar sobre algunos eventos y factores que dieron forma a esta empresa internacional que en realidad es un conjunto de proyectos de muchos laboratorios alrededor del mundo que persiguen la misma finalidad: el conocimiento de nuestro genoma.
 
El surgimiento del proyecto genoma humano se sustenta en razones científicas, económicas y políticas. Desde el punto de vista científico el conocimiento del genoma humano, además de ser interesante en sí mismo, tiene un interés médico; desde el económico los avances en la biotecnología han resultado un gran negocio para las grandes transnacionales farmacéuticas, y desde el político, en el terreno internacional, Estados Unidos tiene un papel de potencia mundial no sólo por el avance del conocimiento del genoma humano, sino por la competencia con otros países, en especial con Japón. Incluso internamente en Estados Unidos vemos esta competencia política por parte del Departamento de Energía y los Institutos Nacionales de Salud por conseguir la dirección y los recursos del proyecto.
 
Antes de los avances tecnológicos el proyecto era inviable, por ello Victor A. Mckusick señalaba en 1971 la dificultad y lentitud de mapear genes humanos, por lo que hasta ese entonces no existía la intención de mapear todos. Durante muchos años sólo se mapearon genes relacionados con desórdenes genéticos, con la intención de contar con herramientas para diagnosis temprana de algunas enfermedades hereditarias. No obstante, el desarrollo de esta tradición no fue el motivo de inspiración para mapear todo el genoma humano.
 
La idea de secuenciar el genoma a gran escala se planteó en Estados Unidos en 1984, en una conferencia en Alta Utah realizada para evaluar los análisis directos de los efectos genéticos de los descendientes de japoneses que sobrevivieron a las bombas atómicas en 1945. En esa conferencia, auspiciada por el Departamento de Energía de Estados Unidos, Robert Shinsheimer (biólogo molecular y entonces rector de la Universidad de California) planteó la idea de fundar un instituto en Santa Cruz para secuenciar el genoma humano.
 
Después de la conferencia de Alta Utah la idea fue promovida por dos grupos independientes. El primero, liderado por Charles de Lisi, director de la Oficina de Investigación Sanitaria del Departamento de Energía, y el segundo, por Robert Sinsheimer.
 
De Lisi se inclinó por los mapas genéticos y propuso que esa institución aumentara su participación en las investigaciones del genoma; principalmente porque llevaba mucho tiempo interesado en la genética humana y tenía programas para examinar los efectos de la radiación y la contaminación ambiental sobre el cuerpo humano, así como proyectos para determinar la frecuencia de mutaciones en los descendientes de Hiroshima y Nagasaki, como parte de los programas de seguridad nacional de Estados Unidos. La creación de un proyecto para mapear y secuenciar el genoma parecía justificar, continuar y expandir las investigaciones genéticas en el Departamento de Energía, que también contaba con programas de investigación sobre cromosomas. La proposición de Charles de Lisi ha hecho pensar que el origen del proyecto se encuentra en los programas de salud del Departamento de Energía. Incluso en ese departamento las investigaciones sobre el genoma se titulan “Iniciativa del Genoma Humano”. Sin embargo, como ya señalamos, la propuesta que motivó la discusión surgió de Robert Sinsheimer, un científico que no era de esa institución y que tenía otros intereses.
 
Robert Sinsheimer, quien estaba al frente del segundo grupo, convocó en mayo de 1985 a una conferencia sobre genética molecular, invitando a participar a los mejores biólogos moleculares de Estados Unidos. En esa conferencia se propuso secuenciar el genoma humano completo, se consideraron los aspectos técnicos para su realización y se discutió la manera de llevar a cabo el proyecto. La conferencia no resultó como Sinsheimer pretendía (formalizar el establecimiento de un instituto para secuenciar el genoma humano y atraer inversiones a la Universidad de California), pues de dicha sesión lo que surgió fue la idea de un proyecto de grandes proporciones que estaba en la mente de algunos biólogos, como Walter Gilbert, quien más tarde se convirtió en un apasionado impulsor del proyecto. En una publicación que favorecía la realización del proyecto, Sinsheimer declaró, usando un lenguaje científico supuestamente neutro para ocultar su interés económico, que el genoma debía estudiarse porque estaba aquí, de la misma forma que estudiamos al sol o a las estrellas porque están aquí.
 
Otro factor que motivó a científicos y políticos estadounidenses, entre ellos personas relacionadas con el Departamento de Energía, fue el conocimiento de que Japón había iniciado desde 1981 un plan modesto para mejorar la tecnología de secuenciación del ácido desoxirribonucleico. Temiendo el triunfo japonés, en Estados Unidos se lanzaron a conseguir el mismo objetivo y uno más ambicioso: obtener mapas genéticos y físicos completos del genoma humano. Como veremos enseguida, no fue casual que ese departamento tomara la iniciativa con el pretexto de aprovechar las instalaciones de informática de sus proyectos militares.
Ya en el marco de una discusión abierta, en mayo de 1986 el Departamento de Energía organizó un taller en Santa Fe, Nuevo México, para discutir un proyecto de mapeo y secuenciación. En esa reunión volvieron a plantearse los problemas técnicos y los costos, dos aspectos fundamentales que se discutieron acaloradamente a favor y en contra del proyecto.
 
En ese mismo mes un nuevo evento abrió una perspectiva diferente para las investigaciones. Renatto Dulbecco, entonces presidente del Salk Institute, publicó en Science su artículo “A turning Point in Cancer Research: Sequencing the Human Genome”, en el cual defendía la secuenciación del genoma argumentando que la secuencia podría ser útil en las investigaciones del cáncer. Con esa publicación el proyecto recibió el apoyo de una parte de la comunidad médica, debido a que la información de mapas y secuencias humanas puede ser útil para la predicción, diagnóstico, prevención y terapia de cerca de cuatro mil enfermedades hereditarias, y en menor medida para las enfermedades que son resultado de la interacción del material genético y el ambiente.
 
Después de estos intentos la propuesta de mapear y secuenciar el genoma humano tomó forma en Cold Spring Harbor en 1986, pues durante el “Simposium sobre la biología molecular de Homo sapiens” Walter Gilbert y Paul Berg coordinaron una sesión titulada “Proyecto Genoma Humano”. En ese encuentro hubo escepticismo entre algunos científicos, principalmente por los costos y la carencia de una tecnología adecuada. También se cuestionó si era apropiado que el Departamento de Energía dirigiera un programa de esa naturaleza, principalmente porque el interés se había desplazado hacia el terreno médico.
 
En otra de las sesiones de ese simposio, Eiichi Soeda, científico japonés, señaló los planes de su país y de compañías como Hitachi y Fuji de invertir juntas para mejorar la tecnología de secuenciación a gran velocidad en el Instituto Riken en Tokio.
 
El interés de las compañías biotecnológicas en las investigaciones del genoma fue uno de los factores importantes que aceleró las discusiones y la decisión a favor de realizar las investigaciones tanto en Estados Unidos como en Europa. Para fortalecer esta idea, señalamos un par de ejemplos donde se muestra que tanto en el origen como en la creación y en la actual realización del proyecto hay una decisiva participación de intereses económicos.
 
Primero, la industria privada japonesa y las compañías privadas como Nippon Steel Corporation y Kawasaki, entre muchas otras, y varios bancos locales, destinan recursos económicos para estas investigaciones por la posibilidad de desarrollar máquinas de diagnóstico para el mercado médico y para cualquier empresa interesada en aplicar pruebas genéticas.
 
Segundo, a partir de 1987 se ha dado un aumento notable en el número de empresas biotecnológicas tanto en Estados Unidos, Europa y Japón. Esto ha beneficiado al proyecto pues se cuenta con mayores recursos, pero al mismo tiempo genera una serie de problemas. Muchas de estas empresas tienen acuerdos con universidades e instituciones públicas para financiar parte de las investigaciones a cambio de la comercialización de la información obtenida; como consecuencia esto restringe la libre circulación de la información y plantea el dilema de si realmente habrá un beneficio social.
 
Estas compañías tienen tal influencia en las investigaciones del genoma que algunos empresarios, entre ellos Frederick Bourke (empresario norteamericano), han considerado a la industria biotecnológica como la segunda revolución industrial. Esta influencia ha provocado fuertes discusiones, pues existe el intento de empresas e investigadores, como Craig Venter, de patentar genes humanos. Este asunto ha sido tan polémico que Watson tuvo que renunciar en 1992 a la dirección del proyecto, pues se vio involucrado en problemas de patentes de genes. Watson fue reemplazado por Francis S. Collins, quien es director actual del proyecto.
Otra de las figuras principales que impulsaron el proyecto es Renatto Dulbecco, quien ha justificado los altos costos de la medicina moderna señalando que las empresas de alguna manera deben recuperar el dinero invertido en las investigaciones.
 
En un nuevo intento por conseguir la dirección de las investigaciones, poco tiempo después del “Simposium sobre la biología molecular de Homo sapiens”, De Lisi propuso que se realizaran mapas completos del genoma antes de iniciar la secuenciación.
 
Pese a que no había una decisión oficial el Departamento de Energía inició en 1987 los trabajos para conseguir mapas de todos los cromosomas humanos, con objeto de quedarse con la dirección de las investigaciones; para ello se argumentó que dicho departamento contaba con mejores instalaciones para desarrollar el proyecto. Sin embargo, los dirigentes de los Institutos Nacionales de Salud de Estados Unidos, entre ellos James Watson, se habían convencido de que el proyecto era posible, pero no podía dejarse en manos del Departamento de Energía, sino que tenía que estar dirigido por otro grupo de científicos. A Watson le parecía que el Departamento de Energía estaba lleno de físicos y pocos biólogos, en cambio en los institutos de salud había una mayor cantidad de médicos y biólogos.
 
En un ambiente de escepticismo y competencia las ideas y propuestas del proyecto llegaron al Consejo de la Academia de Ciencia e Ingeniería en agosto de 1986. El Consejo inmediatamente convocó a una reunión en Wood Hole Massachusetts, de la que surgió un comité (Comité del Genoma Humano) con plenos poderes para examinar y decidir sobre estas investigaciones. Mientras el grupo de científicos concluía su informe, el gobierno federal decidió financiar la investigación a través de los Institutos Nacionales de Salud.
 
En febrero de 1988, después de catorce meses de estudio, el comité para analizar las propuestas propuso que se hicieran las investigaciones en un reporte de ciento dos páginas titulado “Mapeo y secuenciación del genoma humano”.
 
Posteriormente, el Consejo de la Academia de Ciencia e Ingeniería discutió las ideas del comité y propuso como primer paso hacer los mapas genéticos, al parejo de los mapas de organismos modelo, y como segunda etapa conseguir la secuenciación de los genes. Recomendó un presupuesto de doscientos millones de dólares anuales durante un periodo de quince años. Y designó el papel principal para los Institutos Nacionales de Salud en Bethesda. Ante esta decisión una parte de médicos y biólogos de los institutos de salud mostraron su oposición al proyecto, pensando que quizás no valía la pena desviar fondos hacia el proyecto descuidando otras investigaciones biológicas, principalmente con el argumento de que una secuenciación a ciegas no tenía ningún sentido.
 
Parte de la discusión entre hacer mapas genéticos (lo que querían los dirigentes del Departamento de Energía) y hacer mapas físicos (lo que querían los biólogos moleculares, como Gilbert, Watson y Sinsheimer) encierra en el fondo dos visiones encontradas de dos tradiciones científicas diferentes: la biología molecular, por un lado, que se centra en detalles particulares, y la genética, que trabaja con elementos que se puedan seguir en una población. Los genetistas apoyaban la realización de los mapas porque sostenían que los marcadores genéticos han sido más útiles para la diagnosis de desórdenes hereditarios que las secuencias mismas. En la actualidad los mapas genéticos están casi terminados, mientras que la cantidad del genoma humano secuenciado es alrededor de 85%.
 
Después de cuatro años de discusiones, en marzo de 1988 James Wyngaarden, director general de los Institutos Nacionales de Salud, anunció la creación del Instituto Nacional para las Investigaciones del Genoma Humano, y al mismo tiempo invitó a Watson a dirigir la investigación. Watson fue nombrado director asociado del Instituto Nacional de Investigaciones del Genoma el 1 de octubre de 1988. Un año después (octubre de 1989) inició su función con un grupo de asesores para organizar los trabajos. Ese mismo día, representantes del Departamento de Energía y de los Institutos Nacionales de Salud firmaron un memorándum de entendimiento, mediante el cual ambas instituciones se comprometieron a cooperar en la investigación.
 
 
Bajo estas condiciones se formó un comité integrado por miembros de las dos instituciones y por otros expertos cuyo fin era elaborar un programa para el proyecto. El comité se reunió en Cold Spring Harbor y emitió un informe conjunto que se envió al Congreso de la Nación en febrero de 1990. En él se establecían objetivos concretos que la investigación debería cumplir. El programa fue aprobado por el Congreso, destinándose doscientos millones de dólares anuales durante quince años, a partir de octubre de 1990 y hasta el 30 de septiembre del año 2005, aunque en la última modificación del plan general se propuso terminar en el año 2003 para que la fecha coincida con el cincuenta aniversario del descubrimiento de la estructura del adn en 1953.
 
La información genética que determina el desarrollo del ser humano se encuentra en los cuarenta y seis cromosomas que se hallan en el núcleo de sus células. Cuarenta y cuatro de éstos son llamados autosomas para diferenciarlos de los dos cromosomas que determinan el sexo. Cada cromosoma está formado por una larga cadena de adn consitutida por aproximadamente ciento treinta millones de pares de bases, enrrollada y empaquetada por medio de una serie de proteínas, entre las que predominan las histonas. Prácticamente toda la actividad de regulación y síntesis de proteínas está regida por estas estructuras. Sin embargo hasta hace veinte años era casi imposible establecer con precisión el cromosoma en que se encontraban los genes.
 
Los métodos para distinguir un cromosoma de otro no permitían ir muy lejos en la ubicación de los genes. El mapeo de genes ligados establece la posición de un gen en relación a otro; por medio de las proporciones fenotípicas que produce una cruza dihíbrida es posible saber si dos genes comparten un mismo cromosoma o están en dos distintos; y por su tasa de recombinación es posible estimar qué tan cerca se encuentra uno de otro, y cuando son más de dos genes, establecer sus posiciones relativas, mas no su ubicación física. Los mapas de ligamiento son un método muy útil para el estudio de genes que codifican exclusivamente una característica que varía y que ha permitido entender la transmisión de ciertas enfermedades, pero con grandes limitaciones para establecer distancias en pares de bases así como la localización precisa de genes.
 
El advenimiento de la biología molecular revolucionó por completo el estudio de la genética y muy pronto aparecieron nuevas técnicas para su desarrollo. El descubrimiento de las enzimas de restricción y el desarrollo de las técnicas de adn recombinante abrió las puertas a las elaboración de mapas de ligamiento más precisos, de mapas físicos y al conocimiento de la secuencia del adn que constituye los genes.
 
La geografía genética
 
El estudio de la secuencia de las bases de adn humano mostraba que en ella había una gran variabilidad. Al comparar el adn de un individuo con el de otro se podía observar que si bien hay zonas que se mantienen iguales, una enorme cantidad de ellas variaba aunque fuera muy ligeramente. A estas porciones se les denominó adn polimorfas. Sin embargo, las variaciones que presentaban muchas de estas regiones eran bastante estables, es decir, que en una población, de una generación a otra, sólo variaban de manera bastante limitada. El diseño de sondas de adn permitía detectar estas secuencias con cierta facilidad, lo que hizo de ellas marcadores para ubicar estas regiones en el genoma y puntos de referencia en general. Debido a que son obtenidas por medio de enzimas de restricción, se les llamó Restriction Fragment Length Polymorphisms.
El uso de estos marcadores para elaborar mapas de ligamiento resultó ser de gran utilidad, ya que hacían posible establecer la distancia génica entre un marcador y un gen que codificara para alguna caracaterística fenotípica, entre dos marcadores, o determinar con precisión la ubicación de un marcador en un cromosoma. Así, por ejemplo, si en un mapa de ligamiento se estableciera que un gen determinado se encuentra entre dos marcadores, entonces es posible conocer su ubicación analizando la tira de adn que va de un marcador a otro.
 
El primer objetivo de la fase inicial del programa es la elaboración de mapas de ligamiento de cada uno de los cromosomas humanos, que contengan marcadores de adn polimorfos a una distancia de dos a cinco centimorgan, lo que corresponde aproximadamente a distancias físicas de dos a cinco millones de pares de bases. El fin es contar con una serie de puntos de referencia para poder localizar genes de interés, en pocas palabras, que los investigadores puedan tener puntos bien establecidos que les permitan transitar de manera más accesible por la intrincada geografía de los cromosomas.
 
Aun cuando la precisión de este tipo de mapas debe llegar a ser de un marcador por cada micromorgan de distancia —objetivo contemplado en la segunda fase del programa—, la elaboración en paralelo de un mapa físico, esto es, en el que la distancia entre dos puntos se expresa en número de pares de bases, permite la sobreposición de uno al otro, asociando cada uno de los locus marcados en el mapa de ligamiento a un locus específico del mapa físico, con lo cual se gana en información y exactitud.
 
En la elaboración de un mapa físico de un cromosoma se emplean por lo tanto distancias absolutas y no relativas, y éste debe estar compuesto por la cadena de adn completa que lo constituye, de principio a fin, esto es, cerca de ciento treinta millones de pares de bases. El mapa físico del genoma humano debe comprender la cartografía completa de los veinticuatro cromosomas lo que permitirá cualquier gen de cualquier cromosoma con extrema precisión.
 
Este tipo de mapas se consituyen a partir de la fragmentación de los fragmentos de adn contenidos en las bibliotecas génicas. Así, es posible tomar el adn de alguna parte de un cromosoma, copiarlo por medio de un vector (una bacteria o un virus), aplicarle una enzima de restricción y después pasar los fragmentos por electroforesis, con lo cual se obtienen los llamados fragmentos de restricción. La distancia entre cada uno de los sitios de restricción es dada en pares de bases. Cada uno de los fragmentos se sobrepone a aquél con el que comparte una porción similar o varias. De esta manera se llega a formar un fragmento de adn de mayor tamaño, que a su vez se puede unir a otro u otros más, dando un fragmento final en el que, por medio de marcadores, es posible ubicar genes y finalmente conocer la secuencia de sus nucleótidos con precisión.
Tal vez una de las limitantes para obtener mapas completos por este método es que, con mucha frecuencia, quedan huecos que no son fáciles de llenar, a pesar de las técnicas desarrolladas para ello. En el caso del genoma humano, cuyo adn contiene elementos muy repetitivos, la sobreposición resuta aún más difícil, ya que estos fragmentos llegan a perderse en el proceso de clonación.
 
Uno de los recursos inventados para hacer frente a estos problemas son los marcadores sts (Sequenced-Tagged-Sites), que consisten en una pequeña porción de adn (de doscientos a trescientos pares de bases) cuya secuencia no se encuentra en ninguna otra parte del genoma. Usados como promotores en pcr, es posible obtener largas cadenas de adn flanqueadas por dos sitios de fácil ubicación por su secuencia única. Al aplicar una sonda con esta secuencia a fragmentos de adn unidos por medio de enzimas de restricción, se pueden llenar los huecos que quedaban, ya que, por su longitud y sitio preciso, es posible lograr la unión de varios fragmentos. El empleo de sts en la elaboración de mapas de ligamiento y en mapas físicos es una parte central de la primera fase del proyecto genoma humano.
 
Objetivo final: secuenciación total
 
Una vez que se ha completado el mapa físico de alguna región de un cromosoma, el largo fragmento de adn se corta, se procede a una nueva clonación o subclonación con un vector, y se copia varias veces para proceder a su secuenciación base por base. Este procedimiento ordenado de secuenciación región por región, juntando trozos para reconstituir el orden de un cromosoma y luego de otro, hasta eventualmente secuenciar la totalidad del genoma, es muy preciso, pero es un proyecto laborioso y largo.
 
En 1998, Craig Venter, propuso una nueva metodología y retó a los investigadores del proyecto genoma humano, diciendo que su compañía, armada de secuenciadores automáticos y computadoras, terminaría antes la secuenciación total. Su estrategia consiste en secuenciar fragmentos aleatorios de adn —en contraposición al empleo de bibliotecas de genes ordenadas en mapas físicos— y utilizando algoritmos, recomponer el orden. Este método fue muy criticado en un inicio pues dada la conformación del genoma había muchas posibles fuentes de error. Sin embargo, para corroborar su información, Venter cuenta también con la información generada por el proyecto genoma humano vertida en una base de datos pública, llamada el GenBank. De esta manera, le es posible cotejar sus datos con aquellos generados por el proyecto, y lo que parecía imposible, gracias a las computadoras y las bases de datos, ha resultado ser una metodología rápida y eficaz.
El estudio del genoma humano
En el plan de trabajo de Estados Unidos se establecieron varios centros para llevar a cabo la investigación, tanto en laboratorios nacionales como en universidades de todo el país y desde luego en las instalaciones del Departamento de Energía en los Alamos, Nuevo México, y en el Instituto Nacional de Investigaciones del Genoma Humano en Bethesda, Maryland.
 
De esta manera el Proyecto Genoma Humano en Estados Unidos quedó como una investigación coordinada, con el objetivo de producir en detalle el mapa genético y físico de cada uno de los veintidós cromosomas humanos y los cromosomas sexuales (x/y).
 
La participación de otros países
 
La comunidad científica internacional mostró interés en participar en las investigaciones, por lo que en 1990 trescientos científicos de treinta y cinco países se reunieron en París, Francia, en la sede central de la unesco, para discutir la importancia de una cooperación internacional en el proyecto genoma humano. En esa reunión Watson aclaró que los costos podían reducirse si había una cooperación internacional. Además, no consideraba adecuado que los datos se compartieran con naciones que no participaran en la medida de sus economías. En esto había una amenaza dirigida principalmente a los científicos japoneses, quienes tenían planeado seguir con sus programas de perfeccionamiento de tecnología de secuenciación.
 
La iniciativa de Estados Unidos fue seguida por otros países desarrollados, como el Reino Unido, Japón, los Países Bajos, Escandinavia, Rusia, Suecia, Canadá, Francia, Italia, Alemania, Hungría, Suiza, Portugal, España, Dinamarca y Canadá, que estaban motivados principalmente por la preocupación de no quedar rezagados en las investigaciones, sobre todo por la desventaja biotecnológica y económica que esto implica.
 
En 1991 la Comunidad Europea lanzó una propuesta para la región, buscando abatir el costo de las investigaciones a través de una mayor colaboración, cooperación y coordinación. Para conseguir esto se propuso que la Fundación de Ciencia Europea coordinara las investigaciones en este continente.
 
Antes de 1991 algunas naciones europeas habían iniciado sus programas de investigación. Por ejemplo, el Reino Unido desarrolló una propuesta en 1986 sugerida por Walt Bodmer y Sydney Brenner, dos biólogos moleculares de Inglaterra que estuvieron presentes en el “Simposium sobre la biología molecular de Homo sapiens” y en otras conferencias realizadas en torno al tema. Su propuesta consistía en un programa que involucraba al Consejo de Investigación Médica y a la Fundación Imperial para las Investigaciones del Cáncer.
 
Por su parte, Francia decidió en 1990 crear su propio programa de investigación, logrando una participación importante en las investigaciones del genoma humano a través del Centro de Estudio del Polimorfismo Humano, en colaboración con Estados Unidos. También cuenta con industrias privadas como el Centro Généthon.
 
En Italia la discusión en torno a un programa de investigación sobre el genoma inició en 1987 promovida por Renatto Dulbecco a través del Consejo de Investigación Italiano. El proyecto italiano fue pensado para una colaboración de varias unidades de este centro y diferentes universidades e institutos a lo largo de Italia.
 
Alemania, por su parte, participa en las investigaciones del genoma humano principalmente a través del Centro de Investigación del Cáncer de Alemania, en Heidelberg. Esta institución funciona como un centro de coordinación en la comunidad europea, debido a que cuenta con una base de almacenamiento de datos de secuencias.
 
Japón, como mencionamos anteriormente, ha trabajado desde principio de los ochentas en la fabricación de tecnología de secuenciación. Sin embargo, fue uno de los últimos países industrializados en establecer un programa nacional coordinado de investigación sobre el genoma humano, debido en parte a que los científicos japoneses no mostraban mucho interés en hacer mapas genéticos y físicos del genoma. Como ya mencionamos anteriormente, las industrias japonesas estaban interesadas en invertir sólo en la tecnología de secuenciación. Este interés era compartido por algunos científicos japoneses, entre ellos Akiyoshi Wada, de la Universidad de Tokio, quien propuso establecer una fábrica de secuenciación de adn en Japón. Wada estaba convencido de que esta actividad no era propia de científicos, sino de técnicos y mecánicos bien entrenados.
 
Para terminar la visión de lo que fue en su origen y la posterior difusión de la idea de conseguir mapas genéticos y físicos completos del genoma hasta llegar a consolidarse como una empresa internacional, mencionaremos dos organizaciones involucradas en la organización y coordinación de las investigaciones entre los países participantes.
 
La primera es la Organización Internacional del Genoma (Hugo), creada como un foro internacional en la primera conferencia de Cold Spring Harbor sobre el mapeo y la secuenciación, que se llevó a cabo el 29 de abril de 1988.
 
La segunda es la unesco, pues su director general, el doctor Federico Mayor, reunió en octubre de 1988, en Valencia, España, a un grupo de asesores científicos para considerar el papel de la unesco en el proyecto genoma humano; la primera conferencia sobre este tema se celebró en París en febrero de 1989. En ella los participantes acordaron que la unesco ayudaría facilitando la cooperación internacional; particularmente hacia los países en desarrollo, en donde era más apremiante.
 
El proyecto en América Latina
 
Debido a que la unesco no podría cubrir los programas de muchos grupos y países, se pensó agruparlos por regiones, en grandes programas. Uno de ellos es el Programa Latinoamericano del Genoma Humano, fundado bajo la iniciativa de la Red Latinoamericana de Ciencias Biológicas durante el simposium “Genética molecular y el proyecto genoma humano: perspectivas para América Latina”, realizado en junio de 1990 en Santiago de Chile.
 
Este proyecto está integrado por Chile, Brasil, México, Venezuela, Costa Rica, Colombia, Cuba y otros países de la región. Con este mecanismo de programas regionales se evitan traslapamientos con otros proyectos; además, permite una comunicación eficaz entre la unesco y los países en vías de desarrollo.
 
Bajo este interés, la unesco ha promovido investigaciones sobre el genoma en China, India y Sudáfrica.
 
A pesar de los esfuerzos de la unesco existe una evidente y tremenda asimetría entre las investigaciones de los países desarrollados y los subdesarrollados. Estos últimos participan en las investigaciones aportando acervos de información genética de poblaciones que presentan problemas de enfermedades hereditarias, con datos obtenidos a través de análisis de genealogías y en una mínima porción de secuenciación de genes.
 
Las aristas del proyecto
 
Para terminar esta breve descripción del origen del proyecto señalaremos tres asuntos que han estado en el centro de los debates: los beneficios médicos, el presupuesto destinado a estas investigaciones y los temores sobre el uso de la información genética que podría servir para justificar la discriminación en proporciones inimaginadas.
 
Desde el punto de vista científico representa un gran avance en la comprensión de la naturaleza de los seres vivos, pero es en la medicina donde habrá mayores beneficios. La medicina tradicionalmente se basa en la prevención, detección y cura de la enfermedad. La medicina moderna, influida profundamente por la biología, está encaminada a enfrentar las enfermedades genéticas por medio de la predicción. Una de las promesas de los programas de investigación sobre el genoma es mejorar la habilidad para comprender las enfermedades genéticas y obtener conocimientos para tratar pacientes con esas anormalidades. Actualmente existen algunos tratamientos en el terreno experimental.
 
La información de mapas y secuencias humanas será útil principalmente en la predicción, diagnóstico, prevención y terapia. En la predicción, la información de los mapas puede ser utilizada para predecir el riesgo individual de heredar una enfermedad genética. En el diagnóstico, un gran número de enfermedades genéticas puede ser detectado mediante pruebas genéticas. En la terapia o tratamiento la identificación de genes que provocan enfermedades y sus proteínas puede posibilitar la creación de terapias efectivas. El conocimiento de estos genes y sus proteínas ayudará a perfeccionar las medidas preventivas, basadas sobre todo en dietas o administración de sustancias que retarden o bloqueen los efectos de genes causantes de enfermedades. Un caso ilustrativo que se ha conseguido es poder transplantar médula a niños a los que se les ha detectado el gen ada, causante de 30% de los casos de la enfermedad de immunodeficiencia severa combinada; la efectividad es de 90%.
 
Por otra parte, es indudablemente un gran avance que se puedan detectar genes deletéreos o anormalidades cromosómicas en embriones de corta edad, lo que permite a los padres tomar la decisión de interrumpir el embarazo. Además de errores grandes como la trisomía 21 o el síndrome de Turner, hoy se pueden detectar genes como el de Huntington; el gen que provoca la galactosemia; el gen causante de la acondroplasia, y muchos más. Un gran problema es que toda esta medicina tiene un costo altísimo, pues tan sólo para la detección de genes de alguna enfermedad el costo es de varios miles de dólares; esta situación ha llevado a considerar que el beneficio social es muy limitado, sobre todo si nos damos cuenta de que el costo del mapeo y de la secuenciación de genoma humano será aportado principalmente por presupuesto público (tanto en los países desarrollados como en los países en vías de desarrollo) y en menor grado por la iniciativa privada .
 
Una de las grandes objeciones a este proyecto fue si tenía sentido secuenciar todo sin conocerlo, pensando que el argumento de beneficio médico era solamente utilizado para desviar fondos de investigaciones o programas sociales de atención y beneficio médico que tienen un impacto más inmediato. Sin embargo, pese a que este proyecto tiene un costo demasiado elevado y una utilidad práctica que no resulta nada sencillo aplicar, para muchos defensores del proyecto no existía tal desvío tremendo de fondos, contrargumentando, por ejemplo, que el proyecto costará aproximadamente de tres mil a cinco mil millones de dólares, mucho menos que otras investigaciones científicas como la estrategia de defensa nacional de Estados Unidos, que recibió tan sólo en 1993 un presupuesto de tres mil ochocientos millones de dólares, mientras que la asignación para el proyecto en ese mismo año fue de ciento setenta y un millones de dólares. La misma situación se repite en muchos países donde los recursos destinados a proyectos o programas militares supera en mucho los recursos destinados a las investigaciones del genoma humano.
 
Por último, ha surgido un fuerte temor de problemas sociales relacionados con la discriminación, debido a la presencia de una ideología reduccionista en el marco general de las investigaciones del genoma humano; una visión que no sólo se percibe dentro de la comunidad científica, sino que trasciende hacia la sociedad. Esta ideología ha surgido porque la metodología de investigación utilizada en la biología molecular (el reduccionismo metodológico o explicativo, que abarca cuestiones referentes a la estrategia de investigación y a la adquisición de conocimientos) se ha convertido en una forma de “reduccionismo genético”, al afirmar que todas las propiedades biológicas de un organismo pueden ser explicadas y determinadas únicamente por sus genes.
 
De esta forma las explicaciones reduccionistas como una estrategia de investigación han sido transformadas en una ideología por los proponentes del proyecto. El empleo del reduccionismo en la ciencia en casos como el que nos ocupa ha sido traducido en una visión metafísica, pues, por ejemplo, algunos biólogos moleculares han dicho que todos los problemas biológicos son mejor enfocados con el estudio de los genes. Muchos dirigentes de la revolución en biología molecular han reivindicado todo papel explicativo para la genética y muchos de ellos están asociados con el inicio del proyecto. El problema es creer que en las secuencias genéticas está la clave para construir un ser humano, pero un ser humano es resultado de una fina interacción de un genoma y un ambiente determinado. Así como habrá diferencias si cambia el genoma las habrá si cambia el ambiente; lo más importante es entender que a un ser humano no lo define solamente su estructura física, lo define, ante todo, su manera de pensar, su manera de actuar, su forma de ser humano. Si no se toma en cuenta lo antes señalado existe el riesgo de problemas sociales de graves consecuencias. La información actual sobre el genoma humano nos ha dado las bases para una nueva práctica médica; de la misma manera nos ha dado las bases para argumentar, justificar y aumentar la discriminación, por ejemplo, en la contratación de empleados o en la venta de seguros médicos que podrían negarse a personas con aparentes problemas genéticos.
 
La información de las secuencias puede tener un impacto positivo en la ciencia, en la práctica médica y en el terreno biotecnológico con aplicaciones en la agricultura y en la cría de animales de importancia económica. Sin embargo, no debemos olvidarnos de las lecciones de la historia sobre el mal uso que a veces se le da al conocimiento científico, debido a que la información obtenida puede usarse inadecuadamente en contra de sectores de la población humana (principalmente contra los grupos que por su raza o clase social siempre han sufrido discriminación).
 
La razón de este temor es, por un lado, la existencia de una concepción equivocada del genoma; la creencia de que el conocimiento de la información genética es suficiente para explicar y definir todo lo que un ser humano representa, biológica, estructural, intelectual y emocionalmente. Por otro lado, la causa que originó y que le ha dado impulso a estas investigaciones no es precisamente el convencimiento de un beneficio social, sino en gran medida es consecuencia de la competencia económica y comercial, en donde las partes que intentan salir mejor beneficiadas son las industrias biotecnológicas de los países desarrollados donde se realiza la mayoría de la investigación.
Referencias bibliográficas
 
Bishop, Jerry. 1992. Genoma: la historia de la aventura científica más asombrosa de nuestro tiempo, el intento de trazar el mapa genético del cuerpo humano. Plaza & Janes 401 pp.
Engel, L. W. 1993. “The Human Genome Project: History, Goals and Progress to Date”, Arch. Pathol. Lab. Med., 117, pp. 459-465.
Haq, M. M. 1993. “Medical Genetics and the Human Genome Project: a historical review”, Texas Medicine/the journal, 89(3), pp. 68-73.
Keleher, Cynthia. 1993. “Translating the genetics library: The goal, metods and applications of the Human Genome Project”, Bull. Med. Libr. Assoc., 81(3), pp. 277-277.
Leder, Phillip. 1990. “Can The Human Genome Project Be Saved From its Critics... and Itself?”, Cell, 63, pp. 1-3.
Lee, Thomas F. 1994. El Proyecto Genoma Humano. Gedisa, Barcelona.
Noguera Solano, Ricardo y Lucia Ramírez Escobar. 1998, El proyecto genoma humano: una aproximación histórica. Tesis de Licenciatura, Facultad de Ciencias, unam, 85 pp.
Oliva, Virgil Rafael. 1996. Genoma humano. Barcelona, 224 pp.
Watson, J. D. 1990. “The Human Genome Project: Past, Present and Future”, Science, 248, pp. 44-48.
Watson and Cook-Deegan. 1991 “Origins of the Human Genome Project”, faseb, J 5, pp. 8-11.
Wilkie, Tom. 1993. El conocimiento peligroso: el proyecto genoma humano y sus implicaciones. Faber and Faber.
Ricardo Noguera Solano
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
 
Rosaura Ruiz Gutiérrez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
flechavolver58   Regresar al índice artículo siguiente

You are here: Inicio Búsqueda Titulo revistas revista ciencias 57 El canon de Morgan y el fonógrafo de garner