|
|||||
Las metapoblaciones en la naturaleza, ¿realidad o fantasía?
|
|||||
María Teresa Valverde Valdés
conoce más del autor
|
|||||
|
← Regresar al índice ⁄ artículo siguiente → | ||||
Cuando estudiamos la dinámica de una población ecológica (entendida ésta como un grupo de organismos de la misma especie que coexiste en un espacio común) generalmente nos centramos en el análisis de los parámetros demográficos básicos, a saber, las tasas de natalidad, de mortalidad y de migración. Sin embargo, es muy común que este último término sea ignorado (i.e., la migración) y que se parta de la base de que los únicos procesos que determinan los cambios numéricos de una población son los nacimientos y las muertes de los individuos. La teoría metapoblacional se encuentra fincada en el hecho de que la migración entre las poblaciones de una misma especie no siempre es despreciable, sino que por el contrario, con frecuencia es de gran importancia, pues determina la dinámica espacial de los conjuntos de poblaciones de una misma especie a través del tiempo. Esta idea nos lleva directamente a la definición del concepto de metapoblación: las diferentes poblaciones de una especie no se encuentran aisladas en la naturaleza, sino que mantienen cierto contacto entre ellas a través de la migración de individuos; a estos conjuntos o grupos de poblaciones de una misma especie, interconectados por la migración de individuos entre ellas, se les conoce como metapoblaciones.
Una de las ideas implícitas en el concepto metapoblacional es la suposición de que las poblaciones que forman una metapoblación (llamadas “poblaciones locales”) no son eternas, sino que pueden extinguirse por diversas causas. De la misma forma, algunos de los sitios o “parches” del ambiente susceptibles de ser colonizados por la especie pueden encontrarse vacíos y la migración de individuos hacia ellos puede dar lugar a la formación de nuevas poblaciones. De esta manera, una metapoblación puede concebirse como un sistema dinámico en el que constantemente ocurren la formación y la extinción de poblaciones locales. Así, de manera análoga al estudio de una población, cuya dinámica se explica con base en las tasas de natalidad y mortalidad, el estudio de la dinámica de una metapoblación se basa en el conocimiento de las tasas de colonización y extinción de poblaciones locales en un contexto regional, y en el análisis de las condiciones que permiten un equilibrio entre ambos procesos. Dado que las especies que forman metapoblaciones se encuentran sujetas a altos riesgos de extinción de sus poblaciones locales, su permanencia a nivel regional depende del balance entre colonizaciones y extinciones. Surge el concepto metapoblacional Al analizar la historia del concepto metapoblacional, aparentemente nuevo en ecología, causa sorpresa encontrarse con el hecho de que dicho concepto data de finales de la década de los sesentas. De hecho, la idea básica de lo que en la actualidad se conoce como una metapoblación se encuentra ya en textos ecológicos clásicos, como el de Andrewartha y Birch, incluso anterior a esas fechas. Sin embargo, no es sino hasta finales de los sesentas que Richard Levins, un entomólogo interesado en el control de plagas, “bautiza” a las metapoblaciones y formaliza el concepto mediante, de la propo sición del primer modelo metapoblacional, que posteriormente daría pie al desarrollo de lo que ahora conocemos como teoría metapoblacional. Es interesante analizar el contexto histórico en el que Levins propone, por vez primera, la existencia de metapoblaciones en la naturaleza: desde los años treintas y hasta finales de la década de los cincuentas se dio una controversia importante y de consecuencias muy fructíferas entre los ecólogos poblacionales, que tenía que ver con la discusión sobre los factores que regulan el tamaño de las poblaciones en la naturaleza. En esa época existían dos escuelas principales de pensamiento: a) una que sostenía que los factores reguladores del tamaño poblacional eran de naturaleza biótica (depredación, parasitismo, competencia) y que por lo tanto se manifestaban con mayor intensidad en poblaciones con densidades altas, y b) otra que planteaba que eran principalmente los factores abióticos (tormentas, perturbaciones, heladas, etcétera) y, por lo tanto, independientes de la densidad poblacional, los que mantenían a las poblaciones alrededor de ciertos valores de densidad. Una tercera alternativa que recibió poca atención en ese momento planteaba que los mecanismos de regulación poblacional no son tan eficientes como se suponía, y que si se seguía a una población por un tiempo suficientemente prolongado se observaría que, a la larga, tendería a la extinción. Entonces, la permanencia a nivel regional de especies con este tipo de comportamiento numérico debía estar determinada por un balance entre la extinción de poblaciones locales y la formación de poblaciones nuevas (a través de la migración) al interior de un “ensamble” de poblaciones locales efímeras.
No es coincidencia que haya sido precisamente Levins, un entomólogo especializado en el control de plagas, el que desarrolló esta idea y la plasmó en el modelo metapoblacional básico (que se presenta más adelante), pues si analizamos el desarrollo regional de cualquier plaga nos daremos cuenta de que ésta se comporta como metapoblaciones: las plagas no tienen mecanismos eficientes de control poblacional, sino que llegan a un lugar, consumen todos los recursos disponibles y posteriormente desaparecen. El hecho de que a pesar de estas extinciones muchas plagas sean tan difíciles de erradicar es un reflejo de que su permanencia está dada por un balance entre las extinciones y la formación de nuevas poblaciones a través de la colonización de sitios suceptibles de ser explotados. Algunos de los grandes aciertos de Levins al proponer el concepto metapoblacional son, por un lado, la descripción de esta dinámica mediante del planteamiento de un modelo matemático sencillo y, por otro lado, la sugerencia implícita de que posiblemente muchas otras especies, además de las plagas, presenten este tipo de dinámicas espacio-temporales, detectables únicamente por encima del nivel de análisis estrictamente poblacional. La propuesta de Levins El modelo de Levins considera especies que muestran patrones de distribución espaciales a manera de “parches” discretos y bien definidos en los que la especie puede vivir inmersa en una “matriz” de hábitat formada por ambientes no colonizables. El modelo considera únicamente los parches en los que la especie puede establecerse (por ejemplo, los árboles hospederos de una planta epífita en un bosque, o las charcas de agua que se forman en las praderas y que son colonizadas por ciertas especies de ranas), y describe el estado de la metapoblación en un momento dado en términos de la proporción de estos parches que se encuentran realmente ocupados por la especie y la proporción de parches que se encuentran vacantes. El modelo estima el cambio en la proporción de parches ocupados a través del tiempo, tomando en cuenta la tasa de colonización de parches (formación de poblaciones locales nuevas) y la tasa a la que las poblaciones locales se extinguen (ver recuadro).
Es importante hacer notar que el modelo metapoblacional de Levins es prácticamente idéntico en su forma a algunos de los modelos desarrollados en epidemiología para describir la dinámica de las infecciones por parásitos. Esto es reflejo de que, en ambos casos, se concibe a una especie (el parásito, en el caso de los modelos epidemiológicos) que va “infectando” ciertos ambientes colonizables mientras es erradicada de otros, generando la dinámica de colonización–extinción que caracteriza a ambos sistemas.
El modelo metapoblacional de Levins está basado en varios supuestos fundamentales: 1) la extinción sucede y, por lo tanto, la permanencia de una especie en una región debe depender de la colonización; 2) todos los parches disponibles tienen la misma probabilidad de ser colonizados, es decir, no hay un efecto significativo de la distribución espacial o del nivel de aislamiento de los parches; 3) la tasa de colonización es proporcional a la fracción de parches ocupados; 4) todas las poblaciones tienen la misma probabilidad de extinguirse, pues no hay un efecto del tamaño, la longevidad o la dinámica interna de las poblaciones locales, y 5) la probabilidad de extinción de cada población es independiente, ya que no ocurren extinciones correlacionadas.
Es claro que estos supuestos no se cumplen en las metapoblaciones que encontramos en la naturaleza, pero también es cierto que la mayoría de ellos pueden relajarse sin necesidad de hacer modificaciones conceptuales significativas al modelo. En realidad, utilizar un modelo metapoblacional con estas características no es muy distinto de la forma en la que se utiliza el concepto de “población” en biología poblacional: ninguna población real satisface cabalmente los criterios de ser una entidad panmíctica (en donde la reproducción puede darse entre todos los individuos que la conforman) y cerrada (sin migración), y a pesar de todo el concepto poblacional es útil e ilustrativo para abordar el estudio de una parte importante de la naturaleza viva. De la misma forma, el concepto de metapoblación ofrece una concepción particular sobre la estructura espacial de las especies en la naturaleza, que nos habla de la existencia de poblaciones locales discretas, conectadas a través de la migración de individuos entre ellas. Esta concepción, en sí misma, es de gran valor, pues considera una escala espacial (regional) que no había sido abordada por la ecología poblacional; enfatiza procesos que se dan en una escala temporal y espacial que no siempre es obvia para el ojo humano, y, además, constituye un salto desde la ecología descriptiva, que señala la existencia de patrones en la naturaleza, hasta la ecología analítica, que se preocupa por describir los procesos que dan lugar a dichos patrones. Extinción y tipos de metapoblaciones El concepto metapoblacional y, consecuentemente, toda la teoría que se desprende de él, dependen de la idea de que la extinción de las poblaciones locales ocurre (y de ahí la importancia de la migración para permitir la recolonización). En efecto, en la literatura se encuentran reportados un gran número de casos en los que se ha documentado la extinción de poblaciones locales de diversas especies de animales y plantas, lo cual sugiere que las dinámicas de colonización–extinción podrían ser importantes en algunos sistemas naturales. Las causas que han provocado estas extinciones pueden ser de tipo estocástico (es decir, debidas al azar) o de naturaleza determinística. Las extinciones estocásticas tienen que ver con tres tipos fundamentales de procesos azarosos: 1) aquellos que ocurren a nivel ambiental (tales como las variaciones en las condiciones climáticas, las heladas severas, las tormentas, los deslaves, los ciclones, los incendios, etcétera); 2) los que toman lugar a nivel de la dinámica interna de las poblaciones locales (i.e., “estocasticidad demográfica”, dada por variaciones aleatorias en el orden y magnitud de los nacimientos y muertes de individuos al interior de una población), y 3) los que tienen que ver con las características genéticas de las poblaciones (i.e., “estocasticidad genética”, en donde los procesos de deriva génica pueden provocar pérdida de variabilidad genética y depresión endogámica y llevar a una población a la extinción).
Las extinciones determinísticas (es decir, ocasionadas por procesos no azarosos) también parecen ser relativamente frecuentes. Éstas ocurren como producto de cambios direccionales en las condiciones del medio que poco a poco provocan que el parche ocupado por una especie se transforme en un sitio inhabitable. Esto ocurre, por ejemplo, en los hábitats de carácter efímero o temporal, tales como una fruta que cae al suelo en un bosque y se convierte en un parche susceptible de ser colonizado por larvas de insectos, hongos, etcétera, pero que a la larga desaparecerá. Otro tipo de extinciones determinísticas son las que se dan en especies que ocupan hábitats sucesionales tempranos dentro de algunas comunidades. Por ejemplo, muchas especies de plantas colonizan los claros que se forman en los bosques cuando ocurre una pequeña perturbación, como la caída de un árbol o una rama grande; estos claros se convierten en parches que pueden ser colonizados por especies de plantas que requieren de este tipo de condiciones ambientales para establecerse, sin embargo, al irse cerrando el claro a causa del crecimiento de la vegetación adyacente (proceso conocido como sucesión secundaria), el parche se convierte poco a poco en un sitio inhabitable y la población local que lo haya ocupado estará destinada a la extinción. Basada en la relevancia a nivel regional de los procesos de colonización–extinción para diferentes especies, Harrison propone la existencia de cuatro tipos de metapoblaciones: a) Metapoblaciones tipo isla-continente. Son aquellas en las que existe una población grande que funciona como la fuente principal de colonizadores de los parches pequeños cercanos a ella. En este tipo de metapoblaciones las extinciones se dan únicamente en las poblaciones pequeñas (las “islas”), mientras que la población grande (el “continente”) es prácticamente inmune a la extinción. Consecuentemente, sí existe una dinámica de colonización–extinción, pero ésta no determina la permanencia de la especie a nivel regional. Este tipo de metapoblaciones se han observado en algunas especies de mariposas. b) Metapoblaciones tipo mosaico. Son aquellas en las que la especie presenta, en efecto, una distribución a manera de parches discretos, pero entre los cuales la migración de individuos es tan generalizada que no se puede considerar a cada parche como una población local relativamente independiente. El conjunto de parches forma, en realidad, una entidad demográfica única e integrada y el alcance tan generalizado de la migración no permite la extinción. Algunas especies sucesionales, como las que se describieron en el párrafo anterior, parecen tener este tipo de estructura metapoblacional. c) Metapoblaciones no equilibradas. Muchas especies que originalmente no presentaban una estructura metapoblacional se han visto recluidas, en las últimas décadas, a pequeños fragmentos de hábitat natural rodeados de ambientes alterados, como los campos de cultivo o los pastizales de uso ganadero. Estas especies presentan ahora muchas de las características propias de las metapoblaciones, tales como la existencia de parches colonizables rodeados de una matriz de hábitat no colonizable y la alta ocurrencia de extinciones locales. Sin embargo, la re-colonización de los parches vacantes se ve limitada por la baja capacidad de migración de los individuos y, por lo tanto, la tasa de extinción excede a la tasa de colonización. Así, este tipo de metapoblaciones se presentan en el contexto de una disminución generalizada en la abundancia de muchas especies, determinada por el deterioro paulatino del hábitat. Muchas especies de mamíferos grandes, comoalgunos felinos y osos, presentan este tipo de metapoblaciones. d) Metapoblaciones clásicas. Son aquellas que se acercan en mayor medida a la idea de metapoblación propuesta en el modelo original de Levins. En estos sistemas existe un balance real entre colonizaciones y extinciones, que es lo que determina la permanencia de la especie a nivel regional. Se han documentado muy pocos casos que cumplan estrictamente con estas características; uno de los más notables corresponde a un sistema de charcas que son colonizadas por una especie de rana y en donde son frecuentes tanto la extinción de poblaciones locales como la formación de poblaciones nuevas. Metapoblaciones y conservación El concepto metapoblacional propuesto por Levins no tuvo mucho eco en la comunidad de ecólogos en su momento, sino que pasó prácticamente inadvertido hasta ya bien entrada la década de los ochentas, cuando se retomó y se comenzó a elaborar poco a poco para dar paso a la actual teoría metapoblacional. Los temas de interés entre los ecólogos poblacionales de los sesentas eran hasta cierto punto distintos de los que ahora constituyen el foco de atención de los ecólogos contemporáneos, y la visión de Levins no adquirió la generalidad necesaria como para llamar la atención en un círculo amplio de investigadores. En contraste, uno de los temas de vanguardia de la ecología contemporánea es precisamente la dinámica y la estructura espacial de los sistemas ecológicos. Es quizá por esta razón que la teoría metapoblacional parece haber encontrado su nicho natural en la ecología moderna, al ofrecer una visión particular de la dinámica espacial entre grupos de organismos de la misma especie. La teoría metapoblacional actual va incluso más allá del nivel exclusivamente uni–específico y aborda el área de las interacciones ecológicas, como la competencia y la depredación, planteando la forma en la que ciertos sistemas de pares de especies (competidoras y depredador–presa) pueden coexistir en equilibrio gracias a la existencia de estructuras metapoblacionales. Sin embargo, más que en el ámbito de la ecología tradicional, la teoría metapoblacional ha tenido un impacto importante en el área de biología de la conservación. Quizá el auge de esta disciplina en tiempos recientes es otra de las razones que han determinado el resurgimiento de la teoría metapoblacional. Un hecho que bien da cuenta de esta asociación entre la biología de la conservación y la teoría metapoblacional es que esta última aborda formalmente el tema de la extinción; además, al analizar la dinámica espacial de especies de interés particular, ofrece una serie de criterios ecológicos sólidos para apoyar el diseño de reservas, corredores ecológicos, áreas protegidas y demás. Respecto de este último punto, es interesante notar que durante la década de los años setenta el paradigma de la biología de la conservación, sobre todo en lo referente al diseño de reservas, fue la teoría de biogeografía de islas, planteada por MacArthur y Wilson en 1967, mientras que ahora es la teoría metapoblacional la que generalmente se invoca para ofrecer criterios ecológicos en la toma de decisiones sobre áreas protegidas. Para entender las causas que han determinado este cambio de paradigmas es necesario analizar la contribución particular de cada una de estas dos teorías a la biología de la conservación.
Uno de los aspectos más importantes de la teoría de biogeografía de islas que posteriormente fue retomado por la biología de la conservación, fue la idea de que existe una relación entre el área ocupada por una cierta comunidad ecológica y el número de especies que puede mantener. Además, MacArthur y Wilson analizaron la relación entre la distancia a la que una “isla” (un fragmento aislado de hábitat colonizable) se encuentra del “continente” (es decir, de la fuente de colonizadores), y la tasa de llegada y desaparición de especies de esa isla, sugiriendo que el número de especies presentes en ella llegaría a un cierto equilibrio, dado precisamente por el área de la isla. Estas ideas parecían enfatizar el uso de determinadas estrategias, relacionadas con el tamaño, forma y disposición de las áreas protegidas, destinadas a maximizar el número de especies que albergarían. A partir de esto, los conservacionistas comenzaron a manejar una serie de “reglas” para el diseño de reservas que, incluso, a la fecha, se asocian con la teoría de biogeografía de islas. Algunas de estas “reglas” son, por ejemplo, la noción de que un área grande puede albergar una mayor diversidad que un área pequeña, o que áreas contiguas conectadas por corredores presentan más especies que áreas aisladas de tamaño equivalente. Nótese que a pesar de que existe una cierta similitud en el contexto en que se plantean las teorías metapoblacional y de biogeografía de islas (pues ambas visualizan el ambiente como un conjunto de parches colonizables rodeados de una matriz de ambiente no colonizable, además de que enfatizan el análisis de las tasas de colonización y extinción), éstas abordan aspectos muy diferentes de la ecología. La teoría de biogeografía de islas tiene que ver con la dinámica de conjuntos de especies y con el análisis de los factores que determinan la riqueza específica al interior de los parches colonizables presentes en una cierta área. La teoría metapoblacional, por su parte, analiza la dinámica espacial de una especie en particular y estudia las condiciones que afectan los cambios en el número de parches ocupados por dicha especie. Dicho en otras palabras y de manera un tanto simplista, la teoría metapoblacional forma parte de la ecología de poblaciones, mientras que la teoría de biogeografía de islas es claramente parte del ámbito de la ecología de comunidades. En resumen, estas dos teorías buscan respuestas a preguntas esencialmente diferentes y, por lo tanto, su contribución a la biología de la conservación, sobre todo en lo relacionado con el diseño de reservas, no es ni siquiera comparable, pues abordan aspectos distintos de la ecología. La teoría metapoblacional ofrece elementos para establecer criterios útiles para la creación de reservas, pero no desde la óptica de la diversidad de la comunidad en su conjunto, sino de la permanencia de especies particulares a nivel regional a través del conocimiento de la dinámica espacial de sus poblaciones. El cambio de paradigmas al que se ha hecho referencia con anterioridad parece tener varias causas. Una de ellas está relacionada con el hecho de que, como era de esperarse, no se han encontrado suficientes evidencias empíricas que apoyen las predicciones derivadas de la teoría de biogeografía de islas. Por otro lado, la biología de la conservación parece estar dando un giro del enfoque comunitario al poblacional en los últimos años (en el cual puede incluirse el reciente interés por los aspectos genéticos de las poblaciones), lo cual ha favorecido el auge de la teoría metapoblacional. Además, la adquisición de un enfoque metapoblacional ha permitido analizar los paisajes naturales como “redes” o sistemas de reservas, y no tanto como reservas aisladas, haciendo énfasis precisamente en las dinámicas espaciales de los sistemas naturales, que constituyen una de las preocupaciones fundamentales de la ecología moderna. ¿Por qué este enfoque? La breve exposición hecha en los párrafos anteriores sobre la importancia de la teoría metapoblacional en ecología de la conservación no es exhaustiva, ni pretende serlo; sin embargo, sí señala algunos de los aspectos de mayor relevancia que permiten explicar su utilidad desde el punto de vista teórico y conceptual. Ahora, es necesario tomar en cuenta que las metapoblaciones, como entidades reales en la naturaleza, pueden ser muy difíciles de delimitar, estudiar, o sencillamente observar, pues no nada más se presentan a escalas espaciales generalmente difíciles de manejar, sino que, además, prácticamente nunca cumplen con los supuestos del modelo metapoblacional original. Por otro lado, el movimiento de individuos entre poblaciones de una misma especie puede ser extremadamente difícil de cuantificar y describir, lo cual es una limitación muy seria si se toma en cuenta que la migración es una de las condiciones básicas del concepto metapoblacional. Todo esto ha llevado a ciertos autores, como Susan Harrison, a cuestionar la utilidad del concepto en su forma original un tanto rígida, a causa de la falta de evidencia empírica que lo apoye. De ahí el título del presente artículo, que hace referencia precisamente a esta crítica. Para responder en alguna medida a la crítica de Harrison, me gustaría retomar la relación entre los conceptos teóricos de población y de metapoblación, con relación a que ninguno de ellos refleja realmente ningún sistema natural en el sentido estricto de la palabra y que, a pesar de todo, ambos nos han sido útiles para describir y estudiar una parte importante de la naturaleza viva. Esta analogía, además, enfatiza uno de los puntos que me parece importante comentar en el presente artículo: el hecho de que los conceptos ecológicos no tienen que reflejar la realidad al cien por ciento para sernos útiles o para que los escojamos como una representación válida de algún aspecto de la realidad. Muchos de estos conceptos representan modelos de la realidad y, como tales, no la reflejan (ni pretenden hacerlo) en toda su magnitud y complejidad, sino que constituyen versiones simplificadas de los sistemas, fenómenos o procesos que nos interesa abordar; el único objetivo de esta simplificación es ofrecer una mayor accesibilidad al objeto de estudio en cuestión. En el caso del concepto metapoblacional, lo que es importante rescatar es esta concepción de que los grupos de poblaciones locales discretas de una especie, conectados a través de la migración de individuos entre ellas, pueden ser analizados a una escala espacial regional, por encima de la escala poblacional. Quizá no sea tan importante determinar con exactitud cuánta migración hay entre las poblaciones de algún sistema que nos interese estudiar, ni qué alcance espacial tiene esta migración, sino más bien decidir si al utilizar una visión metapoblacional vamos a alcanzar una mejor comprensión de ciertos procesos ecológicos que pasaríamos por alto si nos limitaramos a una visión exclusivamente poblacional. Desde un punto de vista poblacional o demográfico, nos podríamos formular la siguiente pregunta: ¿es válida la suposición de que las poblaciones son sistemas cerrados en donde el efecto de la migración puede ignorarse? Siempre que la respuesta a esta pregunta sea no, entonces podemos estar seguros de que el uso de una visión metapoblacional enriquecerá sustancialmente nuestra comprensión del sistema bajo estudio. |
|||||
Referencias bibliográficas
Andrewartha, H. y L. Birch. 1954. The distribution anda abundance of animals., Chicago, University of Chicago Press.
Hanski, I. y D. Simberloff. 1997. “The metapopulation approach, its history, conceptual domain, and application to conservation”, en Hanski, I. y M. E. Gilpin, eds., Metapopulation biology. Nueva York, Academic Press Inc., pp. 5-26. Harrison, S. 1991. Local extinction in a metapopulation context: an empirical evaluation. Biological Journal of the Linnean Society, 42 pp. 73-88. Levins, R. 1969. Some demographic and genetic consequences of environmental heterogeneity for biological control. Bulletin of the Entomological Society of America, 15, pp. 237-240. Levins, R. 1970. Extinction. Lectures on Mathematics in the Life Sciences, 2, pp. 75-107. MacArthur, R y E. Wilson. 1967. The theory of island biogeography., Princeton, Princeton University Press. |
|||||
María Teresa Valverde Valdés
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________ como citar este artículo →
Valverde Valdés, Maria Teresa. (1999). Las metapoblaciones en la naturaleza, ¿realidad o fantasía? Ciencias 53, enero-marzo, 56-63. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Genes ¿para qué?
|
|||
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
|
|||
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
|
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Manuel Sandoval Vallarta y la física en México
|
|||
Alfonso Mondragón
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
En el otoño de 1932, Manuel Sandoval Vallarta, un físico que impartía cátedra en el Instituto Tecnológico de Massachusetts (mit), propuso en Chicago la idea de un experimento decisivo para determinar la naturaleza de la radiación cósmica. Unas semanas después, en la ciudad de México, Luis W. Álvarez llevó a cabo el experimento y descubrió que la radiación cósmica primaria está constituida principalmente por protones y núcleos atómicos. En los años siguientes, un grupo dirigido por Sandoval Vallarta y por Georges Lemaître formuló y desarrolló la teoría de los efectos geomagnéticos en los rayos cósmicos, lo que le valió un amplio reconocimiento mundial. Años después, Manuel Sandoval Vallarta, junto con sus colaboradores, fue nominado al premio Nobel.
A pesar de vivir en el extranjero, Sandoval Vallarta ejerció directa e indirectamente una fuerte influencia en la organización y desarrollo de la física mexicana. En colaboración con Alfredo Baños, su alumno en el mit, organizó en 1937 el primer grupo de mexicanos dedicado a la investigación de la física moderna. De este modo, la fundación de la Facultad de Ciencias, en 1938, y de los Institutos de Física, en 1939, y de Geofísica, una década después, quedó indisolublemente asociada a la investigación teórica y experimental de la radiación cósmica con la que se inició el desarrollo contemporáneo de la física en México.
Manuel Sandoval Vallarta nació el 11 de febrero de 1899 en la ciudad de México. Su padre, Pedro Sandoval Gual, licenciado en derecho, fue director de la Lotería Nacional. Su madre, Isabel Vallarta Lyon, era hija del distinguido jurista y político liberal Ignacio L. Vallarta. Sandoval Vallarta pasó su infancia y adolescencia en el seno de esa antigua y distinguida familia de la alta burguesía mexicana, en la que se entremezclaban las tradiciones conservadoras y liberales con el amor a la ciencia y a la cultura. En 1912 ingresó a la Escuela Nacional Preparatoria, que en aquellos años era uno de los baluartes de la educación positivista en México. El profesor de física era don Juan Mancilla y Ríos, y el de cosmografía don José de las Fuentes. Estos dos excelentes profesores despertaron el interés del joven Sandoval Vallarta por los estudios de la física. Fue, sin embargo, el profesor de matemáticas, don Sotero Prieto, quien influyó de manera decisiva para definir la vocación de Sandoval Vallarta. El genuino interés que Sotero Prieto tenía por las matemáticas y por la física teórica lo llevaron a organizar seminarios y grupos de estudio con sus alumnos. Ahí se presentaban y discutían algunas de las ideas más novedosas y avanzadas de la física teórica de su tiempo, que por su nivel quedaban fuera del programa del curso regular.
A los dieciséis años Sandoval Vallarta decidió ir a estudiar con sir Joseph Larmor en la Universidad de Cambridge, Inglaterra. Sin embargo, no pudo hacer el viaje porque entre 1916 y 1917 la Primera Guerra Mundial estaba en su apogeo y la travesía por el Atlántico era una aventura muy arriesgada. Después de consultar con varios amigos, su padre le aconsejó que fuera a estudiar a la Universidad de Harvard o al Instituto Tecnológico de Massachusetts, ambos ubicados en la ciudad de Boston. Así, en agosto de 1917, realizó los exámenes de admisión en el Instituto Tecnológico, donde, después de aprobar el plan de estudios de la carrera de Ingeniería Eléctrica, obtuvo el grado equivalente a la licenciatura en 1921. Posteriormente se inscribió en el Doctorado de Ciencias en la especialidad de Física Matemática, obteniendo el grado de doctor en 1924, con una tesis titulada El modelo atómico de Bohr desde el punto de vista de la relatividad general y el cálculo de perturbaciones, que fue escrita bajo la supervisión del profesor H. B. Wilson.
En 1923, mientras era candidato a obtener el grado de doctor, fue nombrado ayudante del profesor Vannevar Bush. En ese puesto, inicialmente hizo un estudio experimental de la transmisión de corrientes de alta frecuencia en conductores, pero muy pronto dirigió su atención a los problemas teóricos. En conexión con la teoría necesaria para explicar los experimentos, Bush, desde 1921, le había sugerido que investigara el fundamento matemático del cálculo operacional de Heaviside, que aprendían los ingenieros como una receta práctica para encontrar la solución de las ecuaciones diferenciales asociadas a los circuitos eléctricos. Sandoval Vallarta demostró, en forma matemáticamente rigurosa, que el método era correcto y lo utilizó para calcular el estado transitorio de una línea de transmisión con circuitos terminales; un problema que, al igual que sus investigaciones experimentales, estaba dirigido a mejorar la transmisión de mensajes telegráficos y telefónicos por un cable submarino. Este método también aplicó al estudio de las oscilaciones mecánicas de sistemas complejos. Simultáneamente desarrollaba su ambicioso proyecto de investigación en física teórica, cuyo tema general abarcaba los problemas más importantes de esta ciencia en esa época: la Teoría General de la Relatividad de Einstein y el estudio de la estructura atómica y la interacción de la materia con la radiación electromagnética. Los resultados de esos trabajos fueron publicados en 1925 y 1926 en el Journal of Physics and Mathematics y The Physical Review. La calidad de sus trabajos, publicados antes de que cumpliera veintisiete años de edad, le dieron fama como uno de los investigadores jóvenes más brillantes, rigurosos y objetivos de su tiempo.
En 1927, Manuel Sandoval Vallarta ganó una beca de la fundación Guggenheim, situación que le permitió ir a la Universidad de Berlín, centro mundial de la física en esa época. Los profesores de física eran Albert Einstein, Max Plank, Erwin Schrödinger y Max von Laue. Con Einstein tomó el curso de relatividad y con Plank el de teoría electromagnética. Schrödinger enseñaba la mecánica cuántica, descubierta apenas el año anterior. Además tomó el curso de epistemología que impartía Hans Reichenbach y, como estaba interesado en cuestiones de exégesis, también asistió al curso de von Harnak. En esos años conoció a Johan von Neumann, a Eugen Wigner y a varios de los jóvenes europeos que más tarde llegarían a estar entre los más eminentes físicos teóricos del mundo. En 1928, al terminar los cursos en Berlín, con ayuda de la misma beca fue a Leipzig, en donde estuvo un año. Ahí pudo conocer a Werner Heisenberg, descubridor de la mecánica cuántica en su forma matricial. Heisenberg, que entonces tenía veintisiete años, había sido nombrado profesor de física en ese año. Por su parte, Peter Debye era profesor de teoría molecular. En 1929, Manuel Sandoval Vallarta regresó al Instituto Tecnológico de Massachusetts y fue nombrado profesor ayudante.
El conocimiento profundo de la física atómica y sus técnicas matemáticas le permitieron asimilar fácilmente las nuevas ideas de la mecánica cuántica descubierta apenas entre 1925 y 1926 por Heisenberg y Schrödinger. La serie de trabajos sobre las Condiciones de validez de la macromecánica, La teoría de la parte continua del espectro de rayos X y La teoría relativista de la mecánica ondulatoria, realizados antes del viaje a Alemania, fue seguida de nuevos esfuerzos por encontrar una formulación de la mecánica cuántica compatible con la relatividad especial, llevados a cabo en colaboración con D. J. Struik y Nathan Rosen. Ese trabajo sirvió a Rosen para obtener la Maestría en Ciencias en el Instituto Tecnológico de Massachusetts bajo la dirección de Sandoval Vallarta. Entre 1921 y 1932, este último publicó una serie de artículos dedicados al estudio de la teoría unificada del electromagnetismo y la gravitación propuesta por Einstein en 1918. Manuel Sandoval Vallarta admiraba a Einstein y conocía a fondo la teoría de la relatividad general propuesta en 1916 por ese autor. Sin embargo, fue un severo crítico de los esfuerzos de Einstein en la dirección de un campo unificado. En colaboración con Norbert Wiener hizo notar que era más urgente unificar la relatividad especial y la mecánica cuántica que buscar una teoría unificada de la gravitación y el electromagnetismo. El tiempo les dio la razón, aunque hay que señalar que este último problema sigue siendo una de las metas no alcanzadas de la física teórica. Con el mismo Wiener, y posteriormente él sólo, demostró que el límite estático de las teorías de Einstein de 1928 y 1929 permitían únicamente soluciones triviales y no llevaban a la importante solución de Schwarzschild de las ecuaciones de la relatividad general.
Esos resultados tuvieron una influencia profunda en los trabajos posteriores de Einstein, quien no tardó en encontrar una nueva forma de la teoría, libre de los defectos señalados. Con Nathan Rosen, Sandoval Vallarta analizó la nueva versión de la teoría y encontró que tampoco era satisfactoria. La publicación de ese trabajo sirvió para estrechar la relación personal de Manuel Sandoval Vallarta con Einstein, que ya era cordial y amistosa. Nathan Rosen fue enviado al Instituto de Estudios Avanzados de Princeton a colaborar con Einstein, y de esa colaboración resultó, entre otros frutos, el famoso trabajo de Einstein, Podolsky y Rosen que critica a la mecánica cuántica.
En el verano de 1932, Don Manuel se encontraba en la ciudad de México cuando recibió la visita de Arthur H. Compton, quien venía de un largo viaje por el Pacífico, llevado a cabo con el propósito de medir la intensidad de la radiación cósmica en muchos lugares de diferente latitud. Había salido de California a Hawaii, y de ahí a Nueva Zelanda. Después tocó las costas de Perú y Panamá hasta llegar a México. En su viaje observó que la intensidad de la radiación cósmica cambia con la latitud geomagnética, siendo mínima cerca del ecuador geomagnético. Acompañado por Sandoval Vallarta, Compton realizó nuevas medidas en nuestro país: en Orizaba, Veracruz; en la ciudad de México, y, finalmente, en el Nevado de Toluca. De ese modo, don Manuel se enteró del descubrimiento de Compton: la observación del efecto de latitud indicaba que la radiación cósmica está constituida por partículas cargadas de electricidad que llegan a la Tierra desde el espacio exterior moviéndose a gran velocidad. Don Manuel mostró un gran interés en los resultados de Compton, pues en éstos vio la posibilidad de encontrar la confirmación observacional de las ideas sobre el origen y la expansión del Universo formuladas por su amigo y condiscípulo Georges Lemaître un año antes. Lemaître había descubierto que las ecuaciones de la relatividad general de Einstein tienen una solución en la que toda la masa y toda la energía del Universo están inicialmente concentradas en una región muy pequeña del espacio. De acuerdo con esto, propuso la hipótesis del átomo primigenio, según la cual la explosión de éste había dado origen al Universo en expansión que observan los astrónomos. La gran explosión inicial estaría acompañada de la emisión de fotones y partículas cargadas y neutras, cuya energía decrecería gradualmente con la expansión del Universo. Si se pudiera calcular el efecto del campo magnético terrestre, los rayos cósmicos darían información que podría comprobar la teoría de Lemaître.
Al final del verano de 1932, Sandoval Vallarta regresó a Massachusetts y de inmediato se puso a trabajar con Lemaître en el desarrollo de una teoría cuantitativa del movimiento de una partícula cargada de electricidad en el campo magnético terrestre. En noviembre de 1932, la teoría ya estaba lo suficientemente desarrollada como para conducir a un resultado importante: las partículas cargadas de electricidad que, moviéndose a gran velocidad, se acercan a la Tierra desde el espacio exterior, son desviadas de la dirección original de su movimiento por el campo magnético terrestre, de tal manera que llegan al observador como si entraran por un cono o embudo que se abre hacia un lado y no hacia arriba. Si las partículas tuvieran carga positiva, el cono se abriría hacia el oeste, en tanto que si las partículas tuvieran carga negativa el cono se abriría hacia el este.
En una conferencia dictada en la Universidad de Chicago en noviembre de 1932, Manuel Sandoval Vallarta propuso que se midiera el efecto de asimetría este-oeste. También sugirió que la observación se hiciera en la ciudad de México por su latitud magnética baja y por su gran altura sobre el nivel del mar. Arthur H. Compton recogió la sugerencia y envió a uno de sus discípulos, Luis W. Álvarez, quien años más tarde ganaría el premio Nobel por sus trabajos en otro campo, a que se encargara del experimento. En la azotea del Hotel Géneve, de la ciudad de México, Álvarez armó los contadores Geiger en la tapa de una caja de madera colocada en una carretilla de albañil; fijó la posición de la tapa de tal modo que los contadores apuntaran a un cierto valor del ángulo cenital e hizo girar la carretilla de manera que primero midiera del lado oriente y después el occidente. El resultado fue que la intensidad del occidente era 10% mayor que la del oriente. La conclusión indicó que la radiación cósmica primaria está constituida principalmente por partículas positivas, esto es, protones o núcleos atómicos, y no electrones.
En enero de 1933 fue publicado un artículo de Lemaître y Saldoval Vallarta con los resultados básicos de la teoría. Además del efecto de asimetría este-oeste, la teoría indicaba que si la carga eléctrica de las partículas de la radiación cósmica es predominantemente positiva, la intensidad medida en la dirección norte debería ser mayor que la medida en la dirección sur en el mismo ángulo cenital. El primero que sometió esta deducción teórica al experimento fue Thomas H. Johnson. Primero en Copilco, en el Distrito Federal, y después en el Nevado de Toluca, Johnson logró comprobar la existencia del efecto de asimetría norte-sur.
Estos experimentos cruciales tuvieron enorme resonancia, pues al determinar el signo de la carga eléctrica de las partículas se pudo identificarlas con precisión, es decir, se pudo comprender la naturaleza de la radiación cósmica.
Mientras Sandoval Vallarta y Lemaître trabajaban en su teoría, en varios países muchos otros científicos buscaban también la solución del problema.
En 1932, W. Heisenberg, en Alemania, a partir de un argumento puramente cualitativo, había hecho notar la posibilidad de que ocurriera una asimetría este-oeste en la intensidad de la radiación cósmica.
En el mismo año, Enrico Fermi y Bruno Rossi, del Instituto de Física de Florencia, en Italia, hicieron un estudio teórico en el que, como Sandoval Vallarta y Lemaître, encontraron que el uso del teorema de Liouville simplifica el análisis de los efectos geomagnéticos en la radiación cósmica.
Animado por este resultado y por los obtenidos en trabajos anteriores, Rossi trató de hallar una prueba experimental de la naturaleza de la radiación cósmica. En la hermosa colina de Arcetri, a corta distancia de la villa donde Galileo había pasado los últimos años de su vida como exiliado político, Rossi intentó detectar la asimetría este-oeste en un experimento sin éxito. Al analizar los resultados, Rossi se dio cuenta de que el efecto sería más pronunciado en un lugar con una latitud más baja y a una gran altura sobre el nivel del mar. De inmediato empezó a hacer planes para una expedición a Asmara, en Eritrea, que se encuentra a 11° 30’ de latitud norte y a dos mil trescientos sesenta metros de altura sobre el nivel del mar. Sergio de Benedetti, quien años más tarde se distinguiría como físico nuclear, se unió a la empresa. Los preparativos les tomaron un buen tiempo; cuando finalmente se encontraban dispuestos para emprender el viaje recibieron una desagradable sorpresa. El propio Rossi, después de cincuenta años, lo relata así: “Aquí, debo admitir que sufrimos una dolorosa decepción cuando encontramos que por unos meses habíamos perdido la prioridad de este importante descubrimiento. Ocurrió que, cuando ya estábamos listos para salir en nuestra expedición, leímos en The Physical Review dos artículos, uno escrito por Thomas Johnson, y otro, por Luis Álvarez y Arthur Compton, en los que se daba cuenta de la observación hecha en la ciudad de México y en una montaña cercana llamada Nevado de Toluca, del efecto de asimetría este-oeste”.
A pesar de no tener ya el aliciente de ser los primeros, pues Álvarez, Compton y Johnson se les habían adelantado, Rossi y De Benedetti prosiguieron con sus planes. En el otoño de 1933 llegaron al África Oriental y montaron su experimento en una cabaña ubicada en una colina cerca de Asmara. Pronto encontraron que la intensidad de los rayos cósmicos en la dirección occidental era considerablemente mayor que en la dirección oriental, confirmando así que la radiación cósmica primaria está constituida, por lo menos en parte, de partículas cargadas eléctricamente, y que la carga de estas partículas es positiva. Ese resultado, que ratificó el hallazgo de Álvarez, Compton y Johnson, sorprendió a Rossi y a De Benedetti, quienes, al igual que muchos otros físicos, esperaban que la radiación cósmica primaria estuviera formada principalmente de electrones, cuya carga eléctrica es negativa.
Las predicciones teóricas de Sandoval Vallarta y Lemaître, y su inmediata confirmación experimental llevada a cabo por Álvarez, Compton y Johnson, ponían a los físicos estadounidenses a la cabeza de una reñidísima competencia en la que participaban los mejores científicos de los países avanzados de Europa, América y Asia: C. Powell, J. G. Wilson y H. Elliot, de la Gran Bretaña; P. Auger y Le Prince-Ringuet, de Francia; E. Fermi, B. Rossi y S. Benedetti, de Italia; W. Bothe, W. Kolhörster, W. Heisenberg y su grupo, de Alemania; J. Clay y H. P. Berlage, de Holanda; C. Störmer, de Noruega; H. Yukawa y S. Kikuchi, de Japón, y muchos otros.
En el verano de 1932, el descubrimiento del efecto de latitud había sido presentado en México por Compton en una sesión combinada de las tres sociedades de ciencias mexicanas. La Sociedad Alzate, la Sociedad de Geografía y Estadística y la Sociedad de Ingenieros y Arquitectos, que así gozaron de las primicias de este hallazgo. Al año siguiente, en 1933, Sandoval Vallarta explicó en la Sociedad Alzate la teoría del efecto de latitud y la predicción de las asimetrías este-oeste y norte-sur, que se observarían en la intensidad de la radiación cósmica. En el verano de 1934 vino a México Thomas H. Johnson, quien en compañía de Manuel Sandoval Vallarta midió nuevamente la asimetría este-oeste en la ciudad de México, en Veracruz y en San Rafael (en la Caja de la Cuesta), confirmando los resultados de las medidas de Álvarez. En 1934, Johnson, Fussell y Sandoval Vallarta midieron la asimetría norte-sur en Copilco y en el Nevado de Toluca. Los resultados de estas últimas mediciones resolvían en favor de la teoría de Lemaître y Sandoval Vallarta la polémica planteada por el célebre físico teórico noruego Carl Störmer en una carta a Nature de 1933.
Durante las vacaciones de verano en la ciudad de México, Manuel Sandoval Vallarta, cuidadoso de no perder el contacto con los estudiosos de la física y las matemáticas de México, visitó a don Sotero Prieto, su antiguo maestro de matemáticas. En esos días Sandoval Vallarta presentó los resultados de sus trabajos en el Seminario de Física y Matemáticas que Prieto presidía en la Escuela de Altos Estudios. En ese seminario se presentaron y discutieron las predicciones y los resultados de la teoría de Sandoval Vallarta y Lemaître, así como la confirmación de los efectos de asimetría de la radiación cósmica y su verificación observacional. Sandoval Vallarta también asistió a las sesiones de la Sociedad Científica José Antonio Alzate, en donde presentó los resultados de sus investigaciones. Ahí ofreció, en conferencias formales, sus trabajos tanto de la teoría de la relatividad como de la mecánica ondulatoria. De esa manera, proporcionó a los investigadores y alumnos mexicanos una visión de los problemas de la física teórica de interés en ese momento con la profundidad y la actualidad propias del investigador de la máxima calidad académica que participa con éxito en su solución. Las pláticas de Sandoval Vallarta avivaron extraordinariamente el interés ya existente por el estudio de la física teórica, pero, sobre todo, su ejemplo vivo entusiasmó a algunos de sus miembros más jóvenes a convertirse en científicos profesionales como él. En ese grupo estaban, entre otros, Carlos Graeff Fernández, Nabor Carrillo y Alberto Barajas.
No es, pues, sorprendente, que en ese año de 1934 Sandoval Vallarta recibiera a Alfredo Baños, su primer estudiante mexicano, quien acudía al Instituto Tecnológico de Massachusetts para hacer un doctorado en Física bajo su dirección, y que, dos años más tarde, en 1935, se presentara el segundo, Carlos Graeff Fernández, que iba, al igual que Baños, a realizar un doctorado de Física bajo su dirección. Ambos se interesaban en contribuir al desarrollo de la teoría de los efectos geomagnéticos en la radiación cósmica.
Mientras tanto, en la Universidad Nacional Autónoma de México las jefaturas de grupo de Física y Matemáticas —que habían estado a cargo de don Basiliso Romo y don Sotero Prieto, respectivamente— habían sido fusionadas, en 1934, en la Facultad de Ciencias Físicas y Matemáticas, que reunía a las Escuelas Nacional de Ingenieros y Nacional de Química con el Departamento de Física y Matemáticas. Después de varias reformas universitaria, el 1 de marzo de 1937, se formó la Escuela Nacional de Ciencias Físicas y Matemáticas, que en 1938 se transformó en la Facultad de Ciencias. En 1938 se fundó el Instituto de Física y Matemáticas, cuya vida fue efímera, pues en noviembre de ese mismo año se disoció en un Instituto de Física y en otro de Matemáticas. El 1 de febrero de 1939 se aprobó oficialmente la formación del Instituto de Física de la UNAM, y se designó como su primer director a Alfredo Baños, quien había regresado a México ese año después de obtener el grado de doctor en Ciencias en el Instituto Tecnológico de Massachusetts, bajo la dirección de Manuel Sandoval Vallarta. En ese Instituto, Baños, con la colaboración de Héctor Uribe, Manuel L. Perusquía y Jaime Lifshitz, continuó las investigaciones sobre la dinámica del movimiento de las partículas cargadas en el campo magnético terrestre que había iniciado con Manuel Sandoval Vallarta. Ese grupo empezó de inmediato a llevar a efecto el programa de colaboración científica que Baños había formulado con el grupo del Instituto Tecnológico de Massachusetts que encabezaba Sandoval Vallarta. En el programa de colaboración se preveía la construcción y el montaje de un sistema detector de cuatro trenes de contadores Geiger-Müller para la medición del efecto azimutal y la distribución de la energía de la radiación cósmica primaria por el método propuesto por Sandoval Vallarta. Además, Baños, Lifshitz y Uribe estudiaron algunos problemas de la teoría del movimiento de partículas cargadas en el campo de un dipolo magnético y su aplicación a la teoría de los efectos geomagnéticos en los rayos cósmicos.
En febrero de 1942 fue inaugurado el Observatorio Astrofísico Nacional de Tonantzintla, Puebla y el mismo día se iniciaron ahí los trabajos del xvii Congreso Interamericano de Astrofísica, en donde Baños presentó los primeros resultados de las mediciones de la variación azimutal de la intensidad de la radiación cósmica a varios ángulos cenitales. Jaime Lifshitz y Héctor Uribe presentaron sus repectivos trabajos sobre la dinámica de las órbitas periódicas simétricas de las partículas cargadas en el campo mágnético terrestre. A ese congreso asistieron un buen número de científicos de primera línea, algunos de los cuales, como H. Shapley, S. Lefshetz y G. D. Birkhoff, tendrían una influencia duradera en el desarrollo de la física y las matemáticas en nuestro país.
De 1932 a 1939 los esfuerzos de Manuel Sandoval Vallarta, en colaboración con Georges Lemaître y los numerosos alumnos de ambos, habían estado encaminados a desarrollar la teoría de los efectos geomagnéticos en la radiación cósmica, confirmando así la teoría con numerosísimas observaciones. Esta es mundialmente conocida como la teoría Lemaître-Vallarta de la radiación cósmica.
En 1939, Manuel Sandoval Vallarta fue nombrado profesor titular de Física en el Instituto Tecnológico de Massachusetts, cargo que desempeñó hasta 1946.
En 1943 se inició lo que podría llamarse la época mexicana de Sandoval Vallarta como investigador científico. En ese año, el presidente Ávila Camacho formó la Comisión Impulsora y Coordinadora de la Investigación Científica con el propósito de atraer a México a don Manuel, al nombrarlo presidente y vocal físico-matemático de esta institución. Los viajes de Sandoval Vallarta a la ciudad de México se hicieron más frecuentes y sus estancias en esta capital más prolongadas. La participación de Estados Unidos en la Segunda Guerra Mundial trajo como consecuencia la reorientación de una fracción muy considerable de la organización científica de ese país hacia proyectos bélicos; en especial, el laboratorio del integrador diferencial de Vannevar Bush —la máquina de cómputo más avanzada de ese tiempo— fue dedicado a proyectos militares, lo que interrumpió el activísimo programa de cálculo de las órbitas de los rayos cósmicos que realizaba don Manuel con sus alumnos. Así fue como, en 1943, se inició en la ciudad de México, con la supervisión de Sandoval Vallarta, un programa de experimentos con un aparato diseñado, construido y calibrado por A. Baños y M. L. Perusquía. Este consistía de cuatro trenes de contadores Geiger-Müller dispuestos para registrar eventos a ángulos zenitales de 0, 20, 40 y 60 grados. Los contadores habían sido fabricados en el laboratorio de R. D. Evans en el Instituto Tecnológico de Massachusetts y estaban en la azotea del viejo Palacio de Minería, colocados en un cuarto muy pequeño llamado pomposamente la Torre del Contador, el cual operaba automáticamente y registraba fotográficamente el número de eventos cada treinta y dos minutos. Se tomaron lecturas en corridas ininterrumpidas que duraban por lo menos cien días, de julio de 1943 a mayo de 1946. El análisis estadístico de los datos fue hecho por Juan B. de Oyarzábal y la interpretación de éstos por Sandoval Vallarta, quien mediante un procedimiento semejante, años más tarde interpretó los resultados de las primeras medidas de la radiación cósmica hechas fuera de la atmósfera por Van Allen, con cohetes, en 1949. Al grupo de investigadores teóricos, en ese mismo año se agregó Ruth Gall.
No hay duda de que Manuel Sandoval Vallarta fue quien con su ejemplo atrajo hacia la investigación científica en la física teórica y experimental a quienes formaron los primeros grupos serios que trabajaron en México en este siglo. No hay duda, tampoco, de que fue él quien organizó, orientó y condujo a los éxitos iniciales a los primeros grupos teóricos y experimentales que lograron hacer buena investigación científica en física en México. Sin embargo, en la tarea de crear un nuevo paradigma del científico, reiniciar la tradición científica y echar andar de nuevo la física en México, hizo una labor aún más importante. Durante veintinueve años presidió el Seminario de física más importante del país. En 1948, en las instalaciones de la Comisión Impulsora y Coordinadora de la Investigación Científica, se volvió a reunir el Seminario de Física Teórica que había suspendido sus sesiones en 1935 por la muerte de Sotero Prieto, su principal animador. El único miembro del seminario de Prieto que participaba en el nuevo seminario fue don Manuel Sandoval Vallarta.
Todos los viernes, a las 17:15 en punto, después de presentar al orador en turno, se sentaba en el fondo del salón para poder seguir con atención la exposición y la discusión sin perder detalle. Al final hacía una resumen conciso y, con frecuencia, un comentario. Sus extensas relaciones personales permitieron que por el Seminario desfilaran los mejores físicos del mundo. Ponía el mismo interés y cuidado en seguir la exposición de un premio Nobel que la de un estudiante graduado que presentaba los resultados de su tesis. Casi todos los trabajos de física que se hicieron en México en esa época fueron presentados, discutidos y criticados en ese seminario, sobre todo en los primeros años. Fue ahí donde con sus comentarios, siempre comedido y cortés, Sandoval Vallarta fijó las normas de calidad académica que ahora rigen. En don Manuel, la amabilidad y la cortesía no estaban reñidas con el rigor científico y un agudo sentido crítico que le permitían hacer un juicio certero y exacto formulado en palabras breves y precisas, que, cuando era negativo, tenían un efecto demoledor. De igual modo era parco en los elogios, que aun siendo pocos y breves, eran siempre recibidos con agrado y satisfacción. Se puede afirmar, sin ninguna exageración, que la mayor parte de la física seria que se hizo o se hace en el país no hubiera podido realizarse si no se hubieran fijado oportunamente los estrictos criterios de calidad científica que estableció don Manuel a través de su seminario. El seminario, que se reunió primero en la Comisión Impulsora y Coordinadora de la Investigación Científica, luego en el Instituto Nacional de la Investigación Científica, después en el Instituto Nacional de la Investigación Científica, y más tarde en la Comisión de la Energía Nuclear y en el Instituto Nacional de Energía Nuclear, se reúne desde 1978 en el Instituto de Física de la unam, el mismo día y a la misma hora. El seminario lleva por nombre: Manuel Sandoval Vallarta.
|
|||
Alfonso Mondragón
Instituto de Física,
Universidad Nacional Autónoma de México.
|
|||
Recuadro. Simposio de rayos cósmicos en la Universidad de Chicago en 1939.
En esa época los mejores físicos del mundo tenían puesta la vista en la radiación cósmica. Antes de la década de 1940 no había aceleradores de partículas que pudieran dar información sobre la estructura interna de la materia. La única información sobre colisiones de alta energía, y por lo tanto de la composición de la materia, se podía obtener de las observaciones de los rayos cósmicos. Los datos que se obtenían a partir de los estudios de los rayos cósmicos únicamente pudieron ser interpretados a partir de la formulación de la teoría de Lemaître-Vallarta, que permitió el signo de la carga y el espectro de enrgías de las partículas primarias. En la radiación cósmica o asociada a ella se descubrieron el positrón (e+), el muión (m), los piones (p+,p-), las partículas cargadas y muchas otras. Además del interés en la estructura de la materia, la radiación cósmica era interesante por sí misma, por la información astrofísica que podía dar, por los efectos geomagnéticos y su relación con la geofísica y por muchas otras razones. Así pues, interesaba por igual a los físicos experimentales, así como teóricos, a aquellos interesados en la estructura de la materia (Heisenberg, Fermi, Wheeler y otros), astrofísicos, geofísicos y otros curiosos. En la primera fila, 2º de izquierda a derecha, Alfredo Baños, primer director del Instituto de Física y Jefe del Departamento de Física de la Facultad de Ciencias. En la tercera posición (12), Manuel Sandoval Vallarta. Entre los participantes se encuentran algunas de las figuras más notables de la física, tanto teórica como experimental, de este siglo: 1. Hans Bethe, premio Nobel, de los fundadores de la Física Nuclear, formuló las bases de la Astrofísica Nuclear y formuló el ciclo (de y Bethe) de reacciones nucleares que dan calor al sol y la luz. 4. Arthur Holy Compton, premio Nobel por el efecto que lleva su nombre, la dispersión de fotones por partículas cargadas. 5. E. Teller, Premio Nobel, desarroló la física básica de la función nuclear y participó en el diseño de la bomba H. 8. S. Goudsmit, físico holandés que junto con Uhlenheck descubrió el spin del electrón, por lo que recibieron el premio Nobel. 11. J. R. Openheimer, encabezo el grupo de físicos que desarrolló la bomba atómica en Los Alamos. Además contribuyó de manera importante al desarrollo de la física de las partículas elementales y la teoría del campo cuántico. 12. Carl D. Andersen ganó el premio Nobel por el descubrimiento del positrón en una observación de la radiación cósmica. 15. Victor Hess, descubridor de la radiación cósmica por lo que recibió el premio Nobel. 17. Brunno Rossi, discípulo de Enrico Fermi, confirmó junto con Sergio de Benedetti el descubrimiento del efecto latitud que habían hecho Clay y Compton. Dedicó su vida a la investigación experimental y teórica de la radiación cósmica. 18. Wilhelm Bothe ganó el premio Nobel por sus contribuciones a la Física y a la Química Nuclear. Hizo el experimento crucial que sugirió que la radiación cósmica podría estar compuesta de partículas cargadas de electricidad. 19. Werner Heisenberg ganó el premio Nobel por el desarrollo de la mecánica cuántica en su formulación matricial. 20. Pierre Auger descubrió los chubascos de partículas en la radiación cósmica secundaria. 23. J. Clay de Amsterdam descubrió, simultáneamente a A. H. Compton, el efecto de latitud en la radiación cósmica. Hizo sus observaciones en Indonesia y el Pacífico sur. |
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Genes ¿para qué?
|
|||
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
|
|||
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
|
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
T. S. Kuhn y la “naturalización” de la filosofía de la ciencia
|
|||
Ana Rosa Pérez Ransanz
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Hoy día se acepta ampliamente que la ciencia es un fenómeno cultural complejo, cuyo desarrollo depende de múltiples factores: biológicos, psicológicos, sociales, económicos, técnicos, legales, políticos, ideológicos, etcétera. De aquí que la empresa científica se preste a ser analizada desde perspectivas teóricas muy diversas y en función de distintos objetivos e intereses. Tal parecería, entonces, que la reflexión sobre la ciencia no puede ser tarea de una sola disciplina.
Consideremos, por ejemplo, el hecho de que las teorías científicas son producto de una actividad humana colectiva, la cual se desarrolla en determinadas condiciones y estructuras sociales. Si esto es así, el estudio de las instituciones y de las comunidades donde se lleva a cabo esa actividad, o del impacto que tienen sus resultados en nuestras formas de vida, cubre aspectos importantes de la ciencia en tanto que fenómeno social. Por otra parte, la ciencia, como conjunto de prácticas y resultados, está sujeta a un proceso de cambio y evolución. Se trata de prácticas y productos que se generan y desarrollan, modifican o abandonan, a través del tiempo. De aquí que la comprensión de la dinámica científica requiera la información que generan los estudios históricos de las diversas disciplinas. También encontramos que los estudios psicológicos y neurofisiológicos de procesos cognitivos como la percepción, el aprendizaje o la invención, contribuyen a esclarecer ciertas condiciones de la producción y transmisión de conocimientos. Ahora bien, desde la perspectiva de la ciencia como una actividad de resolución de problemas, es decir, como una actividad dirigida al logro de objetivos específicos, cae también bajo el dominio de la teoría de las decisiones. Y en tanto que sistema de procesamiento de información, la actividad científica es analizada por quienes se ocupan del diseño y funcionamiento de dichos sistemas, los teóricos de la inteligencia artificial, y en general por quienes trabajan en el campo de la psicología computacional. Este somero e incompleto recuento permite entrever la amplia gama de investigación científica que hoy día se hace sobre la ciencia misma. Además, hay que destacar el hecho de que las diversas ciencias que se ocupan de la ciencia, las llamadas “metaciencias”, han tenido un desarrollo sin precedentes en las últimas dos décadas. Sin embargo, esta proliferación de estudios metacientíficos ha dado lugar a una intrincada controversia. Si bien actualmente domina la tendencia a considerar que la ciencia debe ser objeto de estudio de un gran programa interdisciplinario de investigación —quizá uno de los más complejos de la ciencia contemporánea—, por otra parte impera un considerable desacuerdo en cuanto al orden de importancia y las relaciones que guardan entre sí los distintos estudios sobre la ciencia. Incluso se destacan algunos grupos que pretenden que su perspectiva teórica tiene un carácter fundamental o privilegiado. A modo de ejemplo consideremos una posición radical, la del grupo de sociólogos del conocimiento que trabajan en el “programa fuerte”, cuyo punto de vista coincide con la opinión que no pocos científicos tienen sobre el papel de la filosofía de la ciencia, opinión según la cual los análisis filosóficos no tendrían nada que aportar en un programa interdisciplinario de estudios sobre la ciencia. Los defensores de dicho programa sostienen, por su parte, que la sociología es el mejor camino para alcanzar una comprensión científica de la ciencia misma. El problema básico, según estos autores, es el problema de explicar las creencias en términos de factores o mecanismos causales, explicación que no necesita tomar en cuenta las propiedades epistémicas de las creencias. Es decir, en la explicación de por qué un grupo de sujetos acepta o rechaza ciertas creencias no son relevantes las consideraciones sobre la justificación, la verdad o la objetividad de las mismas. Y se supone que el mismo tipo de mecanismos causales, como por ejemplo los ejercicios de poder entre los sujetos o grupos involucrados, ha de explicar todo tipo de creencias vigentes en una comunidad, al margen de los criterios epistemológicos para calificar una creencia como conocimiento. Estos sociólogos piensan que hay algo básicamente equivocado en los modelos epistemológicos, según los cuales existen contextos donde las creencias se aceptan con base en razones que son independientes de los intereses personales, posición social e ideología de los sujetos involucrados. Esta pretensión de racionalidad se considera un mito inventado por los filósofos, ya que, según su juicio, todos los casos de aceptación y cambio de creencias, considerados racionales o no, deben ser explicados por su vinculación causal con los factores sociales. De aquí el rechazo de los análisis epistemológicos, y en particular de los análisis filosóficos del conocimiento científico.
Son varias las críticas que un filósofo puede hacer a este tipo de programas de investigación sobre la ciencia, y por razones que van más allá de la mera lucha territorial. Una de las críticas más obvias al “programa fuerte” va dirigida contra su tendencia reduccionista. Los sociólogos de este programa cometen una falacia, pues reconocer que la ciencia es un fenómeno social no implica que la mejor —y menos la única— manera de dar cuenta de la ciencia sea en términos de factores y condicionamientos sociales. El innegable carácter social de esta empresa no justifica semejante pretensión, como tampoco lo haría la innegable dimensión social de una enfermedad como el sida, cuya explicación no se agota en los factores sociales involucrados en su propagación. Esta línea de crítica se aplicaría a cualquier teoría sobre la ciencia que pretendiera tener la perspectiva fundamental o privilegiada. Por otra parte, los sociólogos radicales del conocimiento, al estipular los requisitos que debe cumplir una explicación de las creencias para calificar ella misma como explicación científica, de hecho están adoptando ciertos criterios epistémicos sobre lo que cuenta como una buena explicación y sobre lo que constituye un enfoque científico. Por tanto, resulta incoherente que nieguen la importancia de este tipo de criterios filosóficos, cuando justo son aquello que justificaría sus pretensiones de conocimiento acerca del conocimiento. Todo estudioso de la ciencia —sea del campo que sea— que utilice criterios normativos en su quehacer, pero que a la vez niegue la utilidad o pertinencia de los análisis epistemológicos, caería en una inconsistencia semejante. Esta forma de argumentar en favor de la epistemología, cuyo problema central se podría formular como el problema del control de calidad de nuestras creencias y prácticas cognitivas, supone que existen problemas propiamente filosóficos que no se pueden reducir o asimilar a los planteados en la agenda de otras disciplinas. En el caso del conocimiento existe un área de la filosofía profesional que se ocupa expresamente de analizar los criterios que permiten distinguir aquellas afirmaciones o prácticas que son aceptables, confiables o razonables, de las que no lo son. Y cabe notar que tanto en la vida cotidiana como en la investigación científica, lo tengamos o no presente, hacemos constantemente ese tipo de distinciones y evaluaciones epistémicas. Un crítico de la epistemología podría replicar que él no tiene ningún reparo en aceptar que, en efecto, existen problemas de carácter filosófico en relación con las creencias y prácticas científicas, pero que esos problemas sólo pueden ser abordados seriamente por los mismos científicos. En pocas palabras, la filosofía de la ciencia sólo pueden hacerla los propios científicos. La respuesta a este crítico —que entre otras cosas estaría ignorando la utilidad de la división del trabajo— sería que ciertamente la reflexión filosófica exige un conocimiento a fondo de su objeto de estudio. Ningún filósofo de la ciencia pondría esto en duda. Pero tener un buen conocimiento de un campo de investigación no exige ser un científico practicante. La idea de este crítico, tomada en serio, equivaldría a afirmar que sólo los huicholes son capaces de estudiar sus ritos, o que sólo quienes van a misa y comulgan son capaces de estudiar el dogma católico. Lo cual, en algunos casos, ni siquiera resulta conveniente. Además, el hecho de que alguien sea un científico practicante tampoco garantiza que esté en mejor posición para tratar los problemas filosóficos de su disciplina. El análisis filosófico, como el trabajo científico, requiere de un entrenamiento profesional en el que se adquieren ciertas habilidades, destrezas y herramientas específicas. Sin embargo, por otra parte, también es preciso reconocer que algunas de las objeciones que se han hecho a la epistemología y la filosofía de la ciencia tradicionales tienen un trasfondo de razón. Al respecto, una de las repercusiones de mayor alcance del trabajo de Thomas Kuhn ha sido su contribución a una nueva manera de entender la filosofía de la ciencia, una manera que se ha catalogado como “naturalizada”. Si bien esta orientación tiene antecedentes importantes dentro del mismo campo de la filosofía, uno de los principales motores de este cambio de rumbo se encuentra en la obra más discutida de Kuhn, La estructura de las revoluciones científicas, publicada en 1962. A partir de que la filosofía de la ciencia se constituye como una disciplina académica especializada —alrededor de los años veintes de nuestro siglo— dominó el supuesto de que era posible descubrir y codificar los principios epistemológicos que gobernaban la actividad científica. Pero además se consideraba que dichos principios debían ser autónomos o independientes de la ciencia misma, pues de lo contrario no podrían fungir como fundamento de la evaluación y elección de teorías, ni de las normas del proceder científicamente correcto. Tales principios supuestamente constituían el núcleo de una racionalidad también autónoma -incondicionada y categórica- que estaba por encima de las prácticas y resultados de esta empresa cognitiva. Aunque Kuhn nunca utiliza el término “naturalización” para caracterizar la orientación de sus análisis —término que se vuelve de uso común a partir del trabajo de Quine publicado en 1969, de hecho éstos encierran el núcleo de lo que hoy se entiende por “epistemología naturalizada”. En contraste con el enfoque tradicional, se parte de la idea de que no hay un conjunto de normas o principios autónomos, pues ahora se considera que la epistemología no es independiente de la ciencia. Pero esto —por lo menos en el caso de Kuhn— no significa negar que hay mejores y peores maneras de hacer ciencia, ni rechazar la posibilidad de que el análisis epistemológico permita formular recomendaciones de procedimiento o juicios de valor sobre esta actividad (por ejemplo, sobre el carácter racional de casos concretos de aceptación o rechazo de teorías). Pero sí implica que este tipo de normativa y evaluación crítica se debe contextualizar tomando en cuenta la manera en que los agentes llevan a cabo su quehacer, es decir, lo que para ellos significa “hacer ciencia”, lo cual ciertamente ha variado en las distintas comunidades y periodos históricos. La epistemología tradicional —cuyo principal cuestionamiento ha provenido del análisis de la ciencia— requiere principios autónomos debido a su compromiso con una concepción demasiado estricta de la justificación de creencias, donde ésta debe proceder de manera lineal y en una sola dirección. Esto es, se considera que la justificación debe partir de principios “autoevidentes” o “autojustificatorios”, pues de lo contrario se correría el peligro de caer en un regreso al infinito o en una circularidad viciosa. De aquí que la justificación de las afirmaciones que se hacen en la ciencia deba apelar, en última instancia, a principios que sean por completo independientes de cualquiera de esas afirmaciones. En particular, lo que las teorías científicas digan sobre los procesos de percepción, aprendizaje o procesamiento de información, sobre la evolución de las diversas creencias y prácticas, sobre los grupos donde se generan y avalan los productos de investigación, etcétera, no puede ser tomado en cuenta en la justificación de dichas teorías. En una palabra, aquello que requiere justificación nunca podrá utilizarse para justificar o evaluar. En contraste con esta concepción tradicional, resalta un sentido muy básico en que el modelo de Kuhn del desarrollo científico implica una naturalización de la epistemología: los estándares de evaluación que operan en la ciencia no son del todo autónomos respecto de las teorías sobre el mundo, lo cual se puede generalizar afirmando que los estándares o criterios utilizados en las distintas comunidades científicas se modifican en función de la misma dinámica de la investigación. Kuhn destaca que los cambios de teoría, los cambios en el nivel de las afirmaciones empíricas, han repercutido en el nivel de los criterios de evaluación o justificación. Aquí vale la pena citarlo extensamente: “Lo que puede parecer especialmente problemático acerca de cambios como éstos [cambios en los criterios epistémicos] es, desde luego, que por lo regular ocurren como secuela de un cambio de teoría. Una de las objeciones a la nueva química de Lavoisier era que obstaculizaba el logro de aquello que hasta entonces había sido uno de los objetivos de la química tra dicional: la explicación de cualidades, como el color y la textura, así como el cambio de éstas. Con la aceptación de la teoría de Lavoisier tales explicaciones dejaron de ser, por algún tiempo, un valor para los químicos; la habilidad para explicar los cambios de cualidades dejó de ser un criterio relevante para evaluar una teoría química”. Sin embargo, “la existencia de un circuito de retroalimentación a través del cual el cambio de teorías afecta a los valores que condujeron a tal cambio, no hace que el proceso de decisión sea circular en ningún sentido nocivo”. Este sentido en que Kuhn naturaliza la epistemología, al afirmar que los valores o estándares epistémicos son afectados y modificados por la dinámica de las teorías empíricas, va acompañado de una naturalización del análisis filosófico de la ciencia. Este análisis requiere ahora de la información que generan otros estudios sobre la ciencia, estudios que son de carácter empírico. La naturaleza social, histórica y evolutiva de la empresa científica, la cual se reconoce ampliamente a partir de Kuhn, así como la importancia que éste otorga a los aspectos psicológicos de ciertos procesos cognitivos, descubren una red de relaciones entre las diversas disciplinas donde se toma a la ciencia como objeto de estudio: la filosofía, la historia, la sociología, la psicología cognitiva y, más recientemente, la biología evolucionista. La tarea de establecer la naturaleza de estas relaciones, central para un programa interdisciplinario de estudios sobre la ciencia, apenas está en marcha —se podría decir que arranca en los años setentas—, y como se dijo proliferan las discusiones sobre la primacía de alguna de estas disciplinas frente a las demás. Si bien aquí no es posible entrar en esta intrincada discusión acerca de las relaciones de complementación, presuposición o reducción entre los diversos estudios metacientíficos, vale la pena mencionar las principales posiciones en el campo de la naturalización de la epistemología. La más radical es la posición que afirma que la epistemología debería ser reemplazada o sustituida por una ciencia empírica de los procesos cognitivos, y según se conciban estos procesos se propone a la psicología (como en el caso de Quine), a la sociología (como hacen los sociólogos del programa fuerte encabezados por Bloor), o a la biología evolucionista (como, por ejemplo, propone Campbell).
También encontramos posiciones integradoras que intentan combinar los resultados de ciertas ciencias empíricas con el análisis conceptual o filosófico, considerando que la investigación empírica sobre los sujetos y procesos epistémicos es una condición necesaria para comprender la cognición humana, pero que, recíprocamente, las ciencias empíricas requieren de un análisis y justificación de sus propios presupuestos, esto es, requieren de la epistemología. Esta sería la posición de un autor como Shimony. En esta misma línea encontramos modelos de interacción más dinámicos, donde se argumenta que los cambios en las formas o estrategias de investigación conducen a cambios en los estándares de evaluación, y que a su vez las nuevas consideraciones epistemológicas inciden en los programas de investigación científica planteando nuevos retos o generando nuevas preguntas. El modelo de Kitcher es un buen ejemplo de este tipo de propuesta.
Frente a las naturalizaciones radicales que proponen eliminar la epistemología, conviene insistir en la objeción de que sus programas de investigación sobre el conocimiento no se libran de los problemas epistemológicos tradicionales. Todos ellos parten del compromiso con determinados modelos de explicación, con cierto tipo de entidades teóricas, con alguna noción de verdad, con cierta concepción de la inferencia, etcétera, que son compromisos que requieren ser justificados. Como observa Shimony, si este tipo de teóricos del conocimiento se abstuviera de asumir supuestos normativos, su situación simplemente sería análoga a la de alguien que “deposita toda su confianza en los matemáticos y asume la corrección de sus útiles teoremas, sin revisar las pruebas él mismo”. Pero dado que la mayoría de ellos intentan lidiar con cuestiones normativas, no pueden evitar el problema de la justificación de sus propios postulados. Por otra parte, el reto para los enfoques naturalizados que intentan preservar una función normativa o evaluativa para la epistemología, es en qué sentido y en qué medida pueden dar cuenta de la racionalidad del desarrollo del conocimiento.
Al respecto, cabe decir que la reticencia que se observa en las últimas publicaciones de Kuhn hacia los enfoques naturalizados se explicaría por su rechazo de las versiones extremas o reduccionistas, las cuales chocaban con su inmersión cada vez mayor en el análisis filosófico de la ciencia. El interés creciente de Kuhn en cuestiones como la racionalidad, el relativismo, la verdad y el realismo —temas centrales del libro que no llegó a publicar en vida— tenía que contraponerlo a las propuestas que eliminan como irrelevante a la filosofía de la ciencia.
Sin embargo, está claro que para este autor la racionalidad que opera en la actividad científica no es autónoma ni categórica. Los criterios de evaluación de hipótesis y teorías —criterios como simplicidad, precisión, consistencia, alcance, etcétera—, además de sufrir transformaciones en su interpretación y jerarquía a través del desarrollo de las distintas disciplinas, tienen siempre un carácter condicional o instrumental, esto es, conectan las estrategias de investigación con los objetivos perseguidos. Un científico actúa de manera racional cuando elige y utiliza los medios más efectivos, de entre los disponibles, para alcanzar las metas deseadas. También queda claro que, de acuerdo con el modelo de Kuhn, la tarea filosófica de evaluar la racionalidad de un cambio de teoría requiere la información que proporciona la investigación empírica sobre la ciencia. Es necesario apoyarse en estudios detallados del contexto de investigación y descubrir, en cada periodo del desarrollo de una disciplina, cuáles eran los objetivos, los supuestos, los procedimientos experimentales, las herramientas formales y los criterios de evaluación vigentes, para explicar que los científicos en cuestión hayan considerado una teoría como mejor que otra, y poder juzgar, en su contexto, si ese cambio de enfoque teórico fue un cambio racional o razonable. Esta vinculación entre filosofía e investigación empírica no sólo pone en tela de juicio la idea de que la filosofía de la ciencia se basa en principios autónomos y tiene un carácter puramente normativo. También pone en cuestión la idea de que el epistemólogo que adopta una perspectiva naturalizada se limita a describir lo que los científicos de hecho creen o hacen. Como señala Ronald Giere, una filosofía naturalizada de la ciencia —bien entendida— es semejante a una teoría científica en el sentido de que ofrece algo más que meras descripciones. En ambos casos hay una base teórica que no sólo permite elaborar explicaciones sobre su objeto de estudio, sino que también permite orientar la forma en que se conduce la investigación. Esto es, las teorías, en general, proporcionan una base para formular juicios normativos y evaluativos. Cuando Feyerabend cree detectar en el trabajo de Kuhn una ambigüedad a este respecto, dice: “Siempre que leo a Kuhn, me surge la siguiente pregunta: ¿estamos ante prescripciones metodológicas que dicen al científico cómo proceder, o frente a una descripción, vacía de todo elemento evaluativo, de aquellas actividades que generalmente se llaman ‘científicas’”? La respuesta de Kuhn va justamente en la línea de naturalización recién apuntada: “Si tengo una teoría de cómo y por qué funciona la ciencia, dicha teoría necesariamente tiene implicaciones sobre la forma en que los científicos deberían comportarse si su empresa ha de prosperar”. Esta respuesta no sólo rompe con la dicotomía entre lo prescriptivo y lo descriptivo sino que también revela que los juicios normativos sobre la actividad científica, además de depender de una teoría sobre la ciencia, tienen siempre un carácter condicional o instrumental. El esquema de la posición kuhniana sería como sigue: los científicos se comportan de tales y cuales formas; algunas de esas formas cumplen ciertas funciones básicas (es decir, permiten el logro de ciertos objetivos); en ausencia de formas alternativas que cumplieran funciones similares, los científicos deberían comportarse de tales maneras si su objetivo es hacer avanzar el conocimiento científico. Desde un enfoque naturalizado, ésta es la única clase de prescripciones legítimamente formulables, dado que no hay una racionalidad absoluta (ni autónoma ni categórica) como suponía la mayoría de filósofos de la ciencia anteriores a Kuhn. |
|||
Ana Rosa Pérez Ransanz
Universidad Nacional Autónoma de México. |
|||
Referencias Bibliográficas
Bloor, D. 1976, Knwoledge and Social Imagery, Londres, Routledge Kegan Paul. Feyerabend, P. 1970, “Consuelos para el especialista”, en I. Lakatos y A. Musgrave (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975, pp. 345-389. Giere, R. l989, “Scientific Rationality as Instrumental Rationality”: Studies in History and Philosophy of Science, Vol. 20, No. 3, pp. 377-384. Kitcher, P. 1993, The Advancement of Science. Science without Legend, Objectivity without Illusions, New York, Oxford University Press. Kuhn, T.S. 1962, La estructura de las revoluciones científicas, México, Fondo de Cultura Económica, 1971. Kuhn, T.S. 1970, “Consideración en torno a mis críticos”, en I. Lakatos y A. Musgrave (eds.), La crítica y el desarrollo del conocimiento, Barcelona, Grijalbo, 1975, pp. 391-454. Kuhn, T.S. 1977, “Objetividad, juicios de valor y elección de teorías”, en La tensión esencial, México, CONACYT/FCE, 1982, pp. 320-339. Quine, W.V.O. 1969, “Epistemology Naturalized”, en Ontological Relativity and Other Essays, New York, Columbia University Press, pp. 69-90. Shimony, A. 1993, Search for a Naturalistic World View, Vol. I, Cambridge, Cambridge University Press. |
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Genes ¿para qué?
|
|||
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
|
|||
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
|
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Manuel Sandoval Vallarta y la física en México
|
|||
Alfonso Mondragón
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
En el otoño de 1932, Manuel Sandoval Vallarta, un físico que impartía cátedra en el Instituto Tecnológico de Massachusetts (mit), propuso en Chicago la idea de un experimento decisivo para determinar la naturaleza de la radiación cósmica. Unas semanas después, en la ciudad de México, Luis W. Álvarez llevó a cabo el experimento y descubrió que la radiación cósmica primaria está constituida principalmente por protones y núcleos atómicos. En los años siguientes, un grupo dirigido por Sandoval Vallarta y por Georges Lemaître formuló y desarrolló la teoría de los efectos geomagnéticos en los rayos cósmicos, lo que le valió un amplio reconocimiento mundial. Años después, Manuel Sandoval Vallarta, junto con sus colaboradores, fue nominado al premio Nobel.
A pesar de vivir en el extranjero, Sandoval Vallarta ejerció directa e indirectamente una fuerte influencia en la organización y desarrollo de la física mexicana. En colaboración con Alfredo Baños, su alumno en el mit, organizó en 1937 el primer grupo de mexicanos dedicado a la investigación de la física moderna. De este modo, la fundación de la Facultad de Ciencias, en 1938, y de los Institutos de Física, en 1939, y de Geofísica, una década después, quedó indisolublemente asociada a la investigación teórica y experimental de la radiación cósmica con la que se inició el desarrollo contemporáneo de la física en México.
Manuel Sandoval Vallarta nació el 11 de febrero de 1899 en la ciudad de México. Su padre, Pedro Sandoval Gual, licenciado en derecho, fue director de la Lotería Nacional. Su madre, Isabel Vallarta Lyon, era hija del distinguido jurista y político liberal Ignacio L. Vallarta. Sandoval Vallarta pasó su infancia y adolescencia en el seno de esa antigua y distinguida familia de la alta burguesía mexicana, en la que se entremezclaban las tradiciones conservadoras y liberales con el amor a la ciencia y a la cultura. En 1912 ingresó a la Escuela Nacional Preparatoria, que en aquellos años era uno de los baluartes de la educación positivista en México. El profesor de física era don Juan Mancilla y Ríos, y el de cosmografía don José de las Fuentes. Estos dos excelentes profesores despertaron el interés del joven Sandoval Vallarta por los estudios de la física. Fue, sin embargo, el profesor de matemáticas, don Sotero Prieto, quien influyó de manera decisiva para definir la vocación de Sandoval Vallarta. El genuino interés que Sotero Prieto tenía por las matemáticas y por la física teórica lo llevaron a organizar seminarios y grupos de estudio con sus alumnos. Ahí se presentaban y discutían algunas de las ideas más novedosas y avanzadas de la física teórica de su tiempo, que por su nivel quedaban fuera del programa del curso regular.
A los dieciséis años Sandoval Vallarta decidió ir a estudiar con sir Joseph Larmor en la Universidad de Cambridge, Inglaterra. Sin embargo, no pudo hacer el viaje porque entre 1916 y 1917 la Primera Guerra Mundial estaba en su apogeo y la travesía por el Atlántico era una aventura muy arriesgada. Después de consultar con varios amigos, su padre le aconsejó que fuera a estudiar a la Universidad de Harvard o al Instituto Tecnológico de Massachusetts, ambos ubicados en la ciudad de Boston. Así, en agosto de 1917, realizó los exámenes de admisión en el Instituto Tecnológico, donde, después de aprobar el plan de estudios de la carrera de Ingeniería Eléctrica, obtuvo el grado equivalente a la licenciatura en 1921. Posteriormente se inscribió en el Doctorado de Ciencias en la especialidad de Física Matemática, obteniendo el grado de doctor en 1924, con una tesis titulada El modelo atómico de Bohr desde el punto de vista de la relatividad general y el cálculo de perturbaciones, que fue escrita bajo la supervisión del profesor H. B. Wilson.
En 1923, mientras era candidato a obtener el grado de doctor, fue nombrado ayudante del profesor Vannevar Bush. En ese puesto, inicialmente hizo un estudio experimental de la transmisión de corrientes de alta frecuencia en conductores, pero muy pronto dirigió su atención a los problemas teóricos. En conexión con la teoría necesaria para explicar los experimentos, Bush, desde 1921, le había sugerido que investigara el fundamento matemático del cálculo operacional de Heaviside, que aprendían los ingenieros como una receta práctica para encontrar la solución de las ecuaciones diferenciales asociadas a los circuitos eléctricos. Sandoval Vallarta demostró, en forma matemáticamente rigurosa, que el método era correcto y lo utilizó para calcular el estado transitorio de una línea de transmisión con circuitos terminales; un problema que, al igual que sus investigaciones experimentales, estaba dirigido a mejorar la transmisión de mensajes telegráficos y telefónicos por un cable submarino. Este método también aplicó al estudio de las oscilaciones mecánicas de sistemas complejos. Simultáneamente desarrollaba su ambicioso proyecto de investigación en física teórica, cuyo tema general abarcaba los problemas más importantes de esta ciencia en esa época: la Teoría General de la Relatividad de Einstein y el estudio de la estructura atómica y la interacción de la materia con la radiación electromagnética. Los resultados de esos trabajos fueron publicados en 1925 y 1926 en el Journal of Physics and Mathematics y The Physical Review. La calidad de sus trabajos, publicados antes de que cumpliera veintisiete años de edad, le dieron fama como uno de los investigadores jóvenes más brillantes, rigurosos y objetivos de su tiempo.
En 1927, Manuel Sandoval Vallarta ganó una beca de la fundación Guggenheim, situación que le permitió ir a la Universidad de Berlín, centro mundial de la física en esa época. Los profesores de física eran Albert Einstein, Max Plank, Erwin Schrödinger y Max von Laue. Con Einstein tomó el curso de relatividad y con Plank el de teoría electromagnética. Schrödinger enseñaba la mecánica cuántica, descubierta apenas el año anterior. Además tomó el curso de epistemología que impartía Hans Reichenbach y, como estaba interesado en cuestiones de exégesis, también asistió al curso de von Harnak. En esos años conoció a Johan von Neumann, a Eugen Wigner y a varios de los jóvenes europeos que más tarde llegarían a estar entre los más eminentes físicos teóricos del mundo. En 1928, al terminar los cursos en Berlín, con ayuda de la misma beca fue a Leipzig, en donde estuvo un año. Ahí pudo conocer a Werner Heisenberg, descubridor de la mecánica cuántica en su forma matricial. Heisenberg, que entonces tenía veintisiete años, había sido nombrado profesor de física en ese año. Por su parte, Peter Debye era profesor de teoría molecular. En 1929, Manuel Sandoval Vallarta regresó al Instituto Tecnológico de Massachusetts y fue nombrado profesor ayudante.
El conocimiento profundo de la física atómica y sus técnicas matemáticas le permitieron asimilar fácilmente las nuevas ideas de la mecánica cuántica descubierta apenas entre 1925 y 1926 por Heisenberg y Schrödinger. La serie de trabajos sobre las Condiciones de validez de la macromecánica, La teoría de la parte continua del espectro de rayos X y La teoría relativista de la mecánica ondulatoria, realizados antes del viaje a Alemania, fue seguida de nuevos esfuerzos por encontrar una formulación de la mecánica cuántica compatible con la relatividad especial, llevados a cabo en colaboración con D. J. Struik y Nathan Rosen. Ese trabajo sirvió a Rosen para obtener la Maestría en Ciencias en el Instituto Tecnológico de Massachusetts bajo la dirección de Sandoval Vallarta. Entre 1921 y 1932, este último publicó una serie de artículos dedicados al estudio de la teoría unificada del electromagnetismo y la gravitación propuesta por Einstein en 1918. Manuel Sandoval Vallarta admiraba a Einstein y conocía a fondo la teoría de la relatividad general propuesta en 1916 por ese autor. Sin embargo, fue un severo crítico de los esfuerzos de Einstein en la dirección de un campo unificado. En colaboración con Norbert Wiener hizo notar que era más urgente unificar la relatividad especial y la mecánica cuántica que buscar una teoría unificada de la gravitación y el electromagnetismo. El tiempo les dio la razón, aunque hay que señalar que este último problema sigue siendo una de las metas no alcanzadas de la física teórica. Con el mismo Wiener, y posteriormente él sólo, demostró que el límite estático de las teorías de Einstein de 1928 y 1929 permitían únicamente soluciones triviales y no llevaban a la importante solución de Schwarzschild de las ecuaciones de la relatividad general.
Esos resultados tuvieron una influencia profunda en los trabajos posteriores de Einstein, quien no tardó en encontrar una nueva forma de la teoría, libre de los defectos señalados. Con Nathan Rosen, Sandoval Vallarta analizó la nueva versión de la teoría y encontró que tampoco era satisfactoria. La publicación de ese trabajo sirvió para estrechar la relación personal de Manuel Sandoval Vallarta con Einstein, que ya era cordial y amistosa. Nathan Rosen fue enviado al Instituto de Estudios Avanzados de Princeton a colaborar con Einstein, y de esa colaboración resultó, entre otros frutos, el famoso trabajo de Einstein, Podolsky y Rosen que critica a la mecánica cuántica.
En el verano de 1932, Don Manuel se encontraba en la ciudad de México cuando recibió la visita de Arthur H. Compton, quien venía de un largo viaje por el Pacífico, llevado a cabo con el propósito de medir la intensidad de la radiación cósmica en muchos lugares de diferente latitud. Había salido de California a Hawaii, y de ahí a Nueva Zelanda. Después tocó las costas de Perú y Panamá hasta llegar a México. En su viaje observó que la intensidad de la radiación cósmica cambia con la latitud geomagnética, siendo mínima cerca del ecuador geomagnético. Acompañado por Sandoval Vallarta, Compton realizó nuevas medidas en nuestro país: en Orizaba, Veracruz; en la ciudad de México, y, finalmente, en el Nevado de Toluca. De ese modo, don Manuel se enteró del descubrimiento de Compton: la observación del efecto de latitud indicaba que la radiación cósmica está constituida por partículas cargadas de electricidad que llegan a la Tierra desde el espacio exterior moviéndose a gran velocidad. Don Manuel mostró un gran interés en los resultados de Compton, pues en éstos vio la posibilidad de encontrar la confirmación observacional de las ideas sobre el origen y la expansión del Universo formuladas por su amigo y condiscípulo Georges Lemaître un año antes. Lemaître había descubierto que las ecuaciones de la relatividad general de Einstein tienen una solución en la que toda la masa y toda la energía del Universo están inicialmente concentradas en una región muy pequeña del espacio. De acuerdo con esto, propuso la hipótesis del átomo primigenio, según la cual la explosión de éste había dado origen al Universo en expansión que observan los astrónomos. La gran explosión inicial estaría acompañada de la emisión de fotones y partículas cargadas y neutras, cuya energía decrecería gradualmente con la expansión del Universo. Si se pudiera calcular el efecto del campo magnético terrestre, los rayos cósmicos darían información que podría comprobar la teoría de Lemaître.
Al final del verano de 1932, Sandoval Vallarta regresó a Massachusetts y de inmediato se puso a trabajar con Lemaître en el desarrollo de una teoría cuantitativa del movimiento de una partícula cargada de electricidad en el campo magnético terrestre. En noviembre de 1932, la teoría ya estaba lo suficientemente desarrollada como para conducir a un resultado importante: las partículas cargadas de electricidad que, moviéndose a gran velocidad, se acercan a la Tierra desde el espacio exterior, son desviadas de la dirección original de su movimiento por el campo magnético terrestre, de tal manera que llegan al observador como si entraran por un cono o embudo que se abre hacia un lado y no hacia arriba. Si las partículas tuvieran carga positiva, el cono se abriría hacia el oeste, en tanto que si las partículas tuvieran carga negativa el cono se abriría hacia el este.
En una conferencia dictada en la Universidad de Chicago en noviembre de 1932, Manuel Sandoval Vallarta propuso que se midiera el efecto de asimetría este-oeste. También sugirió que la observación se hiciera en la ciudad de México por su latitud magnética baja y por su gran altura sobre el nivel del mar. Arthur H. Compton recogió la sugerencia y envió a uno de sus discípulos, Luis W. Álvarez, quien años más tarde ganaría el premio Nobel por sus trabajos en otro campo, a que se encargara del experimento. En la azotea del Hotel Géneve, de la ciudad de México, Álvarez armó los contadores Geiger en la tapa de una caja de madera colocada en una carretilla de albañil; fijó la posición de la tapa de tal modo que los contadores apuntaran a un cierto valor del ángulo cenital e hizo girar la carretilla de manera que primero midiera del lado oriente y después el occidente. El resultado fue que la intensidad del occidente era 10% mayor que la del oriente. La conclusión indicó que la radiación cósmica primaria está constituida principalmente por partículas positivas, esto es, protones o núcleos atómicos, y no electrones.
En enero de 1933 fue publicado un artículo de Lemaître y Saldoval Vallarta con los resultados básicos de la teoría. Además del efecto de asimetría este-oeste, la teoría indicaba que si la carga eléctrica de las partículas de la radiación cósmica es predominantemente positiva, la intensidad medida en la dirección norte debería ser mayor que la medida en la dirección sur en el mismo ángulo cenital. El primero que sometió esta deducción teórica al experimento fue Thomas H. Johnson. Primero en Copilco, en el Distrito Federal, y después en el Nevado de Toluca, Johnson logró comprobar la existencia del efecto de asimetría norte-sur.
Estos experimentos cruciales tuvieron enorme resonancia, pues al determinar el signo de la carga eléctrica de las partículas se pudo identificarlas con precisión, es decir, se pudo comprender la naturaleza de la radiación cósmica.
Mientras Sandoval Vallarta y Lemaître trabajaban en su teoría, en varios países muchos otros científicos buscaban también la solución del problema.
En 1932, W. Heisenberg, en Alemania, a partir de un argumento puramente cualitativo, había hecho notar la posibilidad de que ocurriera una asimetría este-oeste en la intensidad de la radiación cósmica.
En el mismo año, Enrico Fermi y Bruno Rossi, del Instituto de Física de Florencia, en Italia, hicieron un estudio teórico en el que, como Sandoval Vallarta y Lemaître, encontraron que el uso del teorema de Liouville simplifica el análisis de los efectos geomagnéticos en la radiación cósmica.
Animado por este resultado y por los obtenidos en trabajos anteriores, Rossi trató de hallar una prueba experimental de la naturaleza de la radiación cósmica. En la hermosa colina de Arcetri, a corta distancia de la villa donde Galileo había pasado los últimos años de su vida como exiliado político, Rossi intentó detectar la asimetría este-oeste en un experimento sin éxito. Al analizar los resultados, Rossi se dio cuenta de que el efecto sería más pronunciado en un lugar con una latitud más baja y a una gran altura sobre el nivel del mar. De inmediato empezó a hacer planes para una expedición a Asmara, en Eritrea, que se encuentra a 11° 30’ de latitud norte y a dos mil trescientos sesenta metros de altura sobre el nivel del mar. Sergio de Benedetti, quien años más tarde se distinguiría como físico nuclear, se unió a la empresa. Los preparativos les tomaron un buen tiempo; cuando finalmente se encontraban dispuestos para emprender el viaje recibieron una desagradable sorpresa. El propio Rossi, después de cincuenta años, lo relata así: “Aquí, debo admitir que sufrimos una dolorosa decepción cuando encontramos que por unos meses habíamos perdido la prioridad de este importante descubrimiento. Ocurrió que, cuando ya estábamos listos para salir en nuestra expedición, leímos en The Physical Review dos artículos, uno escrito por Thomas Johnson, y otro, por Luis Álvarez y Arthur Compton, en los que se daba cuenta de la observación hecha en la ciudad de México y en una montaña cercana llamada Nevado de Toluca, del efecto de asimetría este-oeste”.
A pesar de no tener ya el aliciente de ser los primeros, pues Álvarez, Compton y Johnson se les habían adelantado, Rossi y De Benedetti prosiguieron con sus planes. En el otoño de 1933 llegaron al África Oriental y montaron su experimento en una cabaña ubicada en una colina cerca de Asmara. Pronto encontraron que la intensidad de los rayos cósmicos en la dirección occidental era considerablemente mayor que en la dirección oriental, confirmando así que la radiación cósmica primaria está constituida, por lo menos en parte, de partículas cargadas eléctricamente, y que la carga de estas partículas es positiva. Ese resultado, que ratificó el hallazgo de Álvarez, Compton y Johnson, sorprendió a Rossi y a De Benedetti, quienes, al igual que muchos otros físicos, esperaban que la radiación cósmica primaria estuviera formada principalmente de electrones, cuya carga eléctrica es negativa.
Las predicciones teóricas de Sandoval Vallarta y Lemaître, y su inmediata confirmación experimental llevada a cabo por Álvarez, Compton y Johnson, ponían a los físicos estadounidenses a la cabeza de una reñidísima competencia en la que participaban los mejores científicos de los países avanzados de Europa, América y Asia: C. Powell, J. G. Wilson y H. Elliot, de la Gran Bretaña; P. Auger y Le Prince-Ringuet, de Francia; E. Fermi, B. Rossi y S. Benedetti, de Italia; W. Bothe, W. Kolhörster, W. Heisenberg y su grupo, de Alemania; J. Clay y H. P. Berlage, de Holanda; C. Störmer, de Noruega; H. Yukawa y S. Kikuchi, de Japón, y muchos otros.
En el verano de 1932, el descubrimiento del efecto de latitud había sido presentado en México por Compton en una sesión combinada de las tres sociedades de ciencias mexicanas. La Sociedad Alzate, la Sociedad de Geografía y Estadística y la Sociedad de Ingenieros y Arquitectos, que así gozaron de las primicias de este hallazgo. Al año siguiente, en 1933, Sandoval Vallarta explicó en la Sociedad Alzate la teoría del efecto de latitud y la predicción de las asimetrías este-oeste y norte-sur, que se observarían en la intensidad de la radiación cósmica. En el verano de 1934 vino a México Thomas H. Johnson, quien en compañía de Manuel Sandoval Vallarta midió nuevamente la asimetría este-oeste en la ciudad de México, en Veracruz y en San Rafael (en la Caja de la Cuesta), confirmando los resultados de las medidas de Álvarez. En 1934, Johnson, Fussell y Sandoval Vallarta midieron la asimetría norte-sur en Copilco y en el Nevado de Toluca. Los resultados de estas últimas mediciones resolvían en favor de la teoría de Lemaître y Sandoval Vallarta la polémica planteada por el célebre físico teórico noruego Carl Störmer en una carta a Nature de 1933.
Durante las vacaciones de verano en la ciudad de México, Manuel Sandoval Vallarta, cuidadoso de no perder el contacto con los estudiosos de la física y las matemáticas de México, visitó a don Sotero Prieto, su antiguo maestro de matemáticas. En esos días Sandoval Vallarta presentó los resultados de sus trabajos en el Seminario de Física y Matemáticas que Prieto presidía en la Escuela de Altos Estudios. En ese seminario se presentaron y discutieron las predicciones y los resultados de la teoría de Sandoval Vallarta y Lemaître, así como la confirmación de los efectos de asimetría de la radiación cósmica y su verificación observacional. Sandoval Vallarta también asistió a las sesiones de la Sociedad Científica José Antonio Alzate, en donde presentó los resultados de sus investigaciones. Ahí ofreció, en conferencias formales, sus trabajos tanto de la teoría de la relatividad como de la mecánica ondulatoria. De esa manera, proporcionó a los investigadores y alumnos mexicanos una visión de los problemas de la física teórica de interés en ese momento con la profundidad y la actualidad propias del investigador de la máxima calidad académica que participa con éxito en su solución. Las pláticas de Sandoval Vallarta avivaron extraordinariamente el interés ya existente por el estudio de la física teórica, pero, sobre todo, su ejemplo vivo entusiasmó a algunos de sus miembros más jóvenes a convertirse en científicos profesionales como él. En ese grupo estaban, entre otros, Carlos Graeff Fernández, Nabor Carrillo y Alberto Barajas.
No es, pues, sorprendente, que en ese año de 1934 Sandoval Vallarta recibiera a Alfredo Baños, su primer estudiante mexicano, quien acudía al Instituto Tecnológico de Massachusetts para hacer un doctorado en Física bajo su dirección, y que, dos años más tarde, en 1935, se presentara el segundo, Carlos Graeff Fernández, que iba, al igual que Baños, a realizar un doctorado de Física bajo su dirección. Ambos se interesaban en contribuir al desarrollo de la teoría de los efectos geomagnéticos en la radiación cósmica.
Mientras tanto, en la Universidad Nacional Autónoma de México las jefaturas de grupo de Física y Matemáticas —que habían estado a cargo de don Basiliso Romo y don Sotero Prieto, respectivamente— habían sido fusionadas, en 1934, en la Facultad de Ciencias Físicas y Matemáticas, que reunía a las Escuelas Nacional de Ingenieros y Nacional de Química con el Departamento de Física y Matemáticas. Después de varias reformas universitaria, el 1 de marzo de 1937, se formó la Escuela Nacional de Ciencias Físicas y Matemáticas, que en 1938 se transformó en la Facultad de Ciencias. En 1938 se fundó el Instituto de Física y Matemáticas, cuya vida fue efímera, pues en noviembre de ese mismo año se disoció en un Instituto de Física y en otro de Matemáticas. El 1 de febrero de 1939 se aprobó oficialmente la formación del Instituto de Física de la UNAM, y se designó como su primer director a Alfredo Baños, quien había regresado a México ese año después de obtener el grado de doctor en Ciencias en el Instituto Tecnológico de Massachusetts, bajo la dirección de Manuel Sandoval Vallarta. En ese Instituto, Baños, con la colaboración de Héctor Uribe, Manuel L. Perusquía y Jaime Lifshitz, continuó las investigaciones sobre la dinámica del movimiento de las partículas cargadas en el campo magnético terrestre que había iniciado con Manuel Sandoval Vallarta. Ese grupo empezó de inmediato a llevar a efecto el programa de colaboración científica que Baños había formulado con el grupo del Instituto Tecnológico de Massachusetts que encabezaba Sandoval Vallarta. En el programa de colaboración se preveía la construcción y el montaje de un sistema detector de cuatro trenes de contadores Geiger-Müller para la medición del efecto azimutal y la distribución de la energía de la radiación cósmica primaria por el método propuesto por Sandoval Vallarta. Además, Baños, Lifshitz y Uribe estudiaron algunos problemas de la teoría del movimiento de partículas cargadas en el campo de un dipolo magnético y su aplicación a la teoría de los efectos geomagnéticos en los rayos cósmicos.
En febrero de 1942 fue inaugurado el Observatorio Astrofísico Nacional de Tonantzintla, Puebla y el mismo día se iniciaron ahí los trabajos del xvii Congreso Interamericano de Astrofísica, en donde Baños presentó los primeros resultados de las mediciones de la variación azimutal de la intensidad de la radiación cósmica a varios ángulos cenitales. Jaime Lifshitz y Héctor Uribe presentaron sus repectivos trabajos sobre la dinámica de las órbitas periódicas simétricas de las partículas cargadas en el campo mágnético terrestre. A ese congreso asistieron un buen número de científicos de primera línea, algunos de los cuales, como H. Shapley, S. Lefshetz y G. D. Birkhoff, tendrían una influencia duradera en el desarrollo de la física y las matemáticas en nuestro país.
De 1932 a 1939 los esfuerzos de Manuel Sandoval Vallarta, en colaboración con Georges Lemaître y los numerosos alumnos de ambos, habían estado encaminados a desarrollar la teoría de los efectos geomagnéticos en la radiación cósmica, confirmando así la teoría con numerosísimas observaciones. Esta es mundialmente conocida como la teoría Lemaître-Vallarta de la radiación cósmica.
En 1939, Manuel Sandoval Vallarta fue nombrado profesor titular de Física en el Instituto Tecnológico de Massachusetts, cargo que desempeñó hasta 1946.
En 1943 se inició lo que podría llamarse la época mexicana de Sandoval Vallarta como investigador científico. En ese año, el presidente Ávila Camacho formó la Comisión Impulsora y Coordinadora de la Investigación Científica con el propósito de atraer a México a don Manuel, al nombrarlo presidente y vocal físico-matemático de esta institución. Los viajes de Sandoval Vallarta a la ciudad de México se hicieron más frecuentes y sus estancias en esta capital más prolongadas. La participación de Estados Unidos en la Segunda Guerra Mundial trajo como consecuencia la reorientación de una fracción muy considerable de la organización científica de ese país hacia proyectos bélicos; en especial, el laboratorio del integrador diferencial de Vannevar Bush —la máquina de cómputo más avanzada de ese tiempo— fue dedicado a proyectos militares, lo que interrumpió el activísimo programa de cálculo de las órbitas de los rayos cósmicos que realizaba don Manuel con sus alumnos. Así fue como, en 1943, se inició en la ciudad de México, con la supervisión de Sandoval Vallarta, un programa de experimentos con un aparato diseñado, construido y calibrado por A. Baños y M. L. Perusquía. Este consistía de cuatro trenes de contadores Geiger-Müller dispuestos para registrar eventos a ángulos zenitales de 0, 20, 40 y 60 grados. Los contadores habían sido fabricados en el laboratorio de R. D. Evans en el Instituto Tecnológico de Massachusetts y estaban en la azotea del viejo Palacio de Minería, colocados en un cuarto muy pequeño llamado pomposamente la Torre del Contador, el cual operaba automáticamente y registraba fotográficamente el número de eventos cada treinta y dos minutos. Se tomaron lecturas en corridas ininterrumpidas que duraban por lo menos cien días, de julio de 1943 a mayo de 1946. El análisis estadístico de los datos fue hecho por Juan B. de Oyarzábal y la interpretación de éstos por Sandoval Vallarta, quien mediante un procedimiento semejante, años más tarde interpretó los resultados de las primeras medidas de la radiación cósmica hechas fuera de la atmósfera por Van Allen, con cohetes, en 1949. Al grupo de investigadores teóricos, en ese mismo año se agregó Ruth Gall.
No hay duda de que Manuel Sandoval Vallarta fue quien con su ejemplo atrajo hacia la investigación científica en la física teórica y experimental a quienes formaron los primeros grupos serios que trabajaron en México en este siglo. No hay duda, tampoco, de que fue él quien organizó, orientó y condujo a los éxitos iniciales a los primeros grupos teóricos y experimentales que lograron hacer buena investigación científica en física en México. Sin embargo, en la tarea de crear un nuevo paradigma del científico, reiniciar la tradición científica y echar andar de nuevo la física en México, hizo una labor aún más importante. Durante veintinueve años presidió el Seminario de física más importante del país. En 1948, en las instalaciones de la Comisión Impulsora y Coordinadora de la Investigación Científica, se volvió a reunir el Seminario de Física Teórica que había suspendido sus sesiones en 1935 por la muerte de Sotero Prieto, su principal animador. El único miembro del seminario de Prieto que participaba en el nuevo seminario fue don Manuel Sandoval Vallarta.
Todos los viernes, a las 17:15 en punto, después de presentar al orador en turno, se sentaba en el fondo del salón para poder seguir con atención la exposición y la discusión sin perder detalle. Al final hacía una resumen conciso y, con frecuencia, un comentario. Sus extensas relaciones personales permitieron que por el Seminario desfilaran los mejores físicos del mundo. Ponía el mismo interés y cuidado en seguir la exposición de un premio Nobel que la de un estudiante graduado que presentaba los resultados de su tesis. Casi todos los trabajos de física que se hicieron en México en esa época fueron presentados, discutidos y criticados en ese seminario, sobre todo en los primeros años. Fue ahí donde con sus comentarios, siempre comedido y cortés, Sandoval Vallarta fijó las normas de calidad académica que ahora rigen. En don Manuel, la amabilidad y la cortesía no estaban reñidas con el rigor científico y un agudo sentido crítico que le permitían hacer un juicio certero y exacto formulado en palabras breves y precisas, que, cuando era negativo, tenían un efecto demoledor. De igual modo era parco en los elogios, que aun siendo pocos y breves, eran siempre recibidos con agrado y satisfacción. Se puede afirmar, sin ninguna exageración, que la mayor parte de la física seria que se hizo o se hace en el país no hubiera podido realizarse si no se hubieran fijado oportunamente los estrictos criterios de calidad científica que estableció don Manuel a través de su seminario. El seminario, que se reunió primero en la Comisión Impulsora y Coordinadora de la Investigación Científica, luego en el Instituto Nacional de la Investigación Científica, después en el Instituto Nacional de la Investigación Científica, y más tarde en la Comisión de la Energía Nuclear y en el Instituto Nacional de Energía Nuclear, se reúne desde 1978 en el Instituto de Física de la unam, el mismo día y a la misma hora. El seminario lleva por nombre: Manuel Sandoval Vallarta.
|
|||
Alfonso Mondragón
Instituto de Física,
Universidad Nacional Autónoma de México.
|
|||
Recuadro. Simposio de rayos cósmicos en la Universidad de Chicago en 1939.
En esa época los mejores físicos del mundo tenían puesta la vista en la radiación cósmica. Antes de la década de 1940 no había aceleradores de partículas que pudieran dar información sobre la estructura interna de la materia. La única información sobre colisiones de alta energía, y por lo tanto de la composición de la materia, se podía obtener de las observaciones de los rayos cósmicos. Los datos que se obtenían a partir de los estudios de los rayos cósmicos únicamente pudieron ser interpretados a partir de la formulación de la teoría de Lemaître-Vallarta, que permitió el signo de la carga y el espectro de enrgías de las partículas primarias. En la radiación cósmica o asociada a ella se descubrieron el positrón (e+), el muión (m), los piones (p+,p-), las partículas cargadas y muchas otras. Además del interés en la estructura de la materia, la radiación cósmica era interesante por sí misma, por la información astrofísica que podía dar, por los efectos geomagnéticos y su relación con la geofísica y por muchas otras razones. Así pues, interesaba por igual a los físicos experimentales, así como teóricos, a aquellos interesados en la estructura de la materia (Heisenberg, Fermi, Wheeler y otros), astrofísicos, geofísicos y otros curiosos. En la primera fila, 2º de izquierda a derecha, Alfredo Baños, primer director del Instituto de Física y Jefe del Departamento de Física de la Facultad de Ciencias. En la tercera posición (12), Manuel Sandoval Vallarta. Entre los participantes se encuentran algunas de las figuras más notables de la física, tanto teórica como experimental, de este siglo: 1. Hans Bethe, premio Nobel, de los fundadores de la Física Nuclear, formuló las bases de la Astrofísica Nuclear y formuló el ciclo (de y Bethe) de reacciones nucleares que dan calor al sol y la luz. 4. Arthur Holy Compton, premio Nobel por el efecto que lleva su nombre, la dispersión de fotones por partículas cargadas. 5. E. Teller, Premio Nobel, desarroló la física básica de la función nuclear y participó en el diseño de la bomba H. 8. S. Goudsmit, físico holandés que junto con Uhlenheck descubrió el spin del electrón, por lo que recibieron el premio Nobel. 11. J. R. Openheimer, encabezo el grupo de físicos que desarrolló la bomba atómica en Los Alamos. Además contribuyó de manera importante al desarrollo de la física de las partículas elementales y la teoría del campo cuántico. 12. Carl D. Andersen ganó el premio Nobel por el descubrimiento del positrón en una observación de la radiación cósmica. 15. Victor Hess, descubridor de la radiación cósmica por lo que recibió el premio Nobel. 17. Brunno Rossi, discípulo de Enrico Fermi, confirmó junto con Sergio de Benedetti el descubrimiento del efecto latitud que habían hecho Clay y Compton. Dedicó su vida a la investigación experimental y teórica de la radiación cósmica. 18. Wilhelm Bothe ganó el premio Nobel por sus contribuciones a la Física y a la Química Nuclear. Hizo el experimento crucial que sugirió que la radiación cósmica podría estar compuesta de partículas cargadas de electricidad. 19. Werner Heisenberg ganó el premio Nobel por el desarrollo de la mecánica cuántica en su formulación matricial. 20. Pierre Auger descubrió los chubascos de partículas en la radiación cósmica secundaria. 23. J. Clay de Amsterdam descubrió, simultáneamente a A. H. Compton, el efecto de latitud en la radiación cósmica. Hizo sus observaciones en Indonesia y el Pacífico sur. |
← Regresar al índice ⁄ artículo siguiente → |
revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México |
portada articulo 1 | portada articulo 1 | ||
|
|||
Genes ¿para qué?
|
|||
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
Ratones para los hombres
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
Comprender mejor para curar mejor
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
Una mina de medicamentos
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
La terapia génica: un concepto evolutivo
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
¿Terapia germinal o terapia somática?
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
¿Transferencia de células o de genes?
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
Medicina regenerativa
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
Terapia génica aditiva o cirugía reparadora
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
Un resultado promisorio
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
|
|||
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
Traducción
Nina Hinke
|
← Regresar al índice ⁄ artículo siguiente → |