revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
     
Manuel Sandoval Vallarta y la física en México
 
Alfonso Mondragón
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En el otoño de 1932, Manuel Sandoval Vallarta, un físico que impartía cátedra en el Instituto Tecnológico de Massachusetts (mit), propuso en Chicago la idea de un experimento decisivo para determinar la naturaleza de la radiación cósmica. Unas semanas después, en la ciudad de México, Luis W. Álvarez llevó a cabo el experimento y descubrió que la radiación cósmica primaria está constituida principalmente por protones y núcleos atómicos. En los años siguientes, un grupo dirigido por Sandoval Vallarta y por Georges Lemaître formuló y desarrolló la teoría de los efectos geomagnéticos en los rayos cósmicos, lo que le valió un amplio reconocimiento mundial. Años después, Manuel Sandoval Vallarta, junto con sus colaboradores, fue nominado al premio Nobel.
 

A pesar de vivir en el extranjero, Sandoval Vallarta ejerció directa e indirectamente una fuerte influencia en la organización y desarrollo de la física mexicana. En colaboración con Alfredo Baños, su alumno en el mit, organizó en 1937 el primer grupo de mexicanos dedicado a la investigación de la física moderna. De este modo, la fundación de la Facultad de Ciencias, en 1938, y de los Institutos de Física, en 1939, y de Geofísica, una década después, quedó indisolublemente asociada a la investigación teórica y experimental de la radiación cósmica con la que se inició el desarrollo contemporáneo de la física en México.
 
 
Manuel Sandoval Vallarta nació el 11 de febrero de 1899 en la ciudad de México. Su padre, Pedro Sandoval Gual, licenciado en derecho, fue director de la Lotería Nacional. Su madre, Isabel Vallarta Lyon, era hija del distinguido jurista y político liberal Ignacio L. Vallarta. Sandoval Vallarta pasó su infancia y adolescencia en el seno de esa antigua y distinguida familia de la alta burguesía mexicana, en la que se entremezclaban las tradiciones conservadoras y liberales con el amor a la ciencia y a la cultura. En 1912 ingresó a la Escuela Nacional Preparatoria, que en aquellos años era uno de los baluartes de la educación positivista en México. El profesor de física era don Juan Mancilla y Ríos, y el de cosmografía don José de las Fuentes. Estos dos excelentes profesores despertaron el interés del joven Sandoval Vallarta por los estudios de la física. Fue, sin embargo, el profesor de matemáticas, don Sotero Prieto, quien influyó de manera decisiva para definir la vocación de Sandoval Vallarta. El genuino interés que Sotero Prieto tenía por las matemáticas y por la física teórica lo llevaron a organizar seminarios y grupos de estudio con sus alumnos. Ahí se presentaban y discutían algunas de las ideas más novedosas y avanzadas de la física teórica de su tiempo, que por su nivel quedaban fuera del programa del curso regular.
 
 
A los dieciséis años Sandoval Vallarta decidió ir a estudiar con sir Joseph Larmor en la Universidad de Cambridge, Inglaterra. Sin embargo, no pudo hacer el viaje porque entre 1916 y 1917 la Primera Guerra Mundial estaba en su apogeo y la travesía por el Atlántico era una aventura muy arriesgada. Después de consultar con varios amigos, su padre le aconsejó que fuera a estudiar a la Universidad de Harvard o al Instituto Tecnológico de Massachusetts, ambos ubicados en la ciudad de Boston. Así, en agosto de 1917, realizó los exámenes de admisión en el Instituto Tecnológico, donde, después de aprobar el plan de estudios de la carrera de Ingeniería Eléctrica, obtuvo el grado equivalente a la licenciatura en 1921. Posteriormente se inscribió en el Doctorado de Ciencias en la especialidad de Física Matemática, obteniendo el grado de doctor en 1924, con una tesis titulada El modelo atómico de Bohr desde el punto de vista de la relatividad general y el cálculo de perturbaciones, que fue escrita bajo la supervisión del profesor H. B. Wilson.
 

En 1923, mientras era candidato a obtener el grado de doctor, fue nombrado ayudante del profesor Vannevar Bush. En ese puesto, inicialmente hizo un estudio experimental de la transmisión de corrientes de alta frecuencia en conductores, pero muy pronto dirigió su atención a los problemas teóricos. En conexión con la teoría necesaria para explicar los experimentos, Bush, desde 1921, le había sugerido que investigara el fundamento matemático del cálculo operacional de Heaviside, que aprendían los ingenieros como una receta práctica para encontrar la solución de las ecuaciones diferenciales asociadas a los circuitos eléctricos. Sandoval Vallarta demostró, en forma matemáticamente rigurosa, que el método era correcto y lo utilizó para calcular el estado transitorio de una línea de transmisión con circuitos terminales; un problema que, al igual que sus investigaciones experimentales, estaba dirigido a mejorar la transmisión de mensajes telegráficos y telefónicos por un cable submarino. Este método también aplicó al estudio de las oscilaciones mecánicas de sistemas complejos. Simultáneamente desarrollaba su ambicioso proyecto de investigación en física teórica, cuyo tema general abarcaba los problemas más importantes de esta ciencia en esa época: la Teoría General de la Relatividad de Einstein y el estudio de la estructura atómica y la interacción de la materia con la radiación electromagnética. Los resultados de esos trabajos fueron publicados en 1925 y 1926 en el Journal of Physics and Mathematics y The Physical Review. La calidad de sus trabajos, publicados antes de que cumpliera veintisiete años de edad, le dieron fama como uno de los investigadores jóvenes más brillantes, rigurosos y objetivos de su tiempo.
 
 
En 1927, Manuel Sandoval Vallarta ganó una beca de la fundación Guggenheim, situación que le permitió ir a la Universidad de Berlín, centro mundial de la física en esa época. Los profesores de física eran Albert Einstein, Max Plank, Erwin Schrödinger y Max von Laue. Con Einstein tomó el curso de relatividad y con Plank el de teoría electromagnética. Schrödinger enseñaba la mecánica cuántica, descubierta apenas el año anterior. Además tomó el curso de epistemología que impartía Hans Reichenbach y, como estaba interesado en cuestiones de exégesis, también asistió al curso de von Harnak. En esos años conoció a Johan von Neumann, a Eugen Wigner y a varios de los jóvenes europeos que más tarde llegarían a estar entre los más eminentes físicos teóricos del mundo. En 1928, al terminar los cursos en Berlín, con ayuda de la misma beca fue a Leipzig, en donde estuvo un año. Ahí pudo conocer a Werner Heisenberg, descubridor de la mecánica cuántica en su forma matricial. Heisenberg, que entonces tenía veintisiete años, había sido nombrado profesor de física en ese año. Por su parte, Peter Debye era profesor de teoría molecular. En 1929, Manuel Sandoval Vallarta regresó al Instituto Tecnológico de Massachusetts y fue nombrado profesor ayudante.
 
 
El conocimiento profundo de la física atómica y sus técnicas matemáticas le permitieron asimilar fácilmente las nuevas ideas de la mecánica cuántica descubierta apenas entre 1925 y 1926 por Heisenberg y Schrödinger. La serie de trabajos sobre las Condiciones de validez de la macromecánica, La teoría de la parte continua del espectro de rayos X y La teoría relativista de la mecánica ondulatoria, realizados antes del viaje a Alemania, fue seguida de nuevos esfuerzos por encontrar una formulación de la mecánica cuántica compatible con la relatividad especial, llevados a cabo en colaboración con D. J. Struik y Nathan Rosen. Ese trabajo sirvió a Rosen para obtener la Maestría en Ciencias en el Instituto Tecnológico de Massachusetts bajo la dirección de Sandoval Vallarta. Entre 1921 y 1932, este último publicó una serie de artículos dedicados al estudio de la teoría unificada del electromagnetismo y la gravitación propuesta por Einstein en 1918. Manuel Sandoval Vallarta admiraba a Einstein y conocía a fondo la teoría de la relatividad general propuesta en 1916 por ese autor. Sin embargo, fue un severo crítico de los esfuerzos de Einstein en la dirección de un campo unificado. En colaboración con Norbert Wiener hizo notar que era más urgente unificar la relatividad especial y la mecánica cuántica que buscar una teoría unificada de la gravitación y el electromagnetismo. El tiempo les dio la razón, aunque hay que señalar que este último problema sigue siendo una de las metas no alcanzadas de la física teórica. Con el mismo Wiener, y posteriormente él sólo, demostró que el límite estático de las teorías de Einstein de 1928 y 1929 permitían únicamente soluciones triviales y no llevaban a la importante solución de Schwarzschild de las ecuaciones de la relatividad general.
 
 
Esos resultados tuvieron una influencia profunda en los trabajos posteriores de Einstein, quien no tardó en encontrar una nueva forma de la teoría, libre de los defectos señalados. Con Nathan Rosen, Sandoval Vallarta analizó la nueva versión de la teoría y encontró que tampoco era satisfactoria. La publicación de ese trabajo sirvió para estrechar la relación personal de Manuel Sandoval Vallarta con Einstein, que ya era cordial y amistosa. Nathan Rosen fue enviado al Instituto de Estudios Avanzados de Princeton a colaborar con Einstein, y de esa colaboración resultó, entre otros frutos, el famoso trabajo de Einstein, Podolsky y Rosen que critica a la mecánica cuántica.
 
 
En el verano de 1932, Don Manuel se encontraba en la ciudad de México cuando recibió la visita de Arthur H. Compton, quien venía de un largo viaje por el Pacífico, llevado a cabo con el propósito de medir la intensidad de la radiación cósmica en muchos lugares de diferente latitud. Había salido de California a Hawaii, y de ahí a Nueva Zelanda. Después tocó las costas de Perú y Panamá hasta llegar a México. En su viaje observó que la intensidad de la radiación cósmica cambia con la latitud geomagnética, siendo mínima cerca del ecuador geomagnético. Acompañado por Sandoval Vallarta, Compton realizó nuevas medidas en nuestro país: en Orizaba, Veracruz; en la ciudad de México, y, finalmente, en el Nevado de Toluca. De ese modo, don Manuel se enteró del descubrimiento de Compton: la observación del efecto de latitud indicaba que la radiación cósmica está constituida por partículas cargadas de electricidad que llegan a la Tierra desde el espacio exterior moviéndose a gran velocidad. Don Manuel mostró un gran interés en los resultados de Compton, pues en éstos vio la posibilidad de encontrar la confirmación observacional de las ideas sobre el origen y la expansión del Universo formuladas por su amigo y condiscípulo Georges Lemaître un año antes. Lemaître había descubierto que las ecuaciones de la relatividad general de Einstein tienen una solución en la que toda la masa y toda la energía del Universo están inicialmente concentradas en una región muy pequeña del espacio. De acuerdo con esto, propuso la hipótesis del átomo primigenio, según la cual la explosión de éste había dado origen al Universo en expansión que observan los astrónomos. La gran explosión inicial estaría acompañada de la emisión de fotones y partículas cargadas y neutras, cuya energía decrecería gradualmente con la expansión del Universo. Si se pudiera calcular el efecto del campo magnético terrestre, los rayos cósmicos darían información que podría comprobar la teoría de Lemaître.
 

Al final del verano de 1932, Sandoval Vallarta regresó a Massachusetts y de inmediato se puso a trabajar con Lemaître en el desarrollo de una teoría cuantitativa del movimiento de una partícula cargada de electricidad en el campo magnético terrestre. En noviembre de 1932, la teoría ya estaba lo suficientemente desarrollada como para conducir a un resultado importante: las partículas cargadas de electricidad que, moviéndose a gran velocidad, se acercan a la Tierra desde el espacio exterior, son desviadas de la dirección original de su movimiento por el campo magnético terrestre, de tal manera que llegan al observador como si entraran por un cono o embudo que se abre hacia un lado y no hacia arriba. Si las partículas tuvieran carga positiva, el cono se abriría hacia el oeste, en tanto que si las partículas tuvieran carga negativa el cono se abriría hacia el este.
 
 
En una conferencia dictada en la Universidad de Chicago en noviembre de 1932, Manuel Sandoval Vallarta propuso que se midiera el efecto de asimetría este-oeste. También sugirió que la observación se hiciera en la ciudad de México por su latitud magnética baja y por su gran altura sobre el nivel del mar. Arthur H. Compton recogió la sugerencia y envió a uno de sus discípulos, Luis W. Álvarez, quien años más tarde ganaría el premio Nobel por sus trabajos en otro campo, a que se encargara del experimento. En la azotea del Hotel Géneve, de la ciudad de México, Álvarez armó los contadores Geiger en la tapa de una caja de madera colocada en una carretilla de albañil; fijó la posición de la tapa de tal modo que los contadores apuntaran a un cierto valor del ángulo cenital e hizo girar la carretilla de manera que primero midiera del lado oriente y después el occidente. El resultado fue que la intensidad del occidente era 10% mayor que la del oriente. La conclusión indicó que la radiación cósmica primaria está constituida principalmente por partículas positivas, esto es, protones o núcleos atómicos, y no electrones.
 
 
En enero de 1933 fue publicado un artículo de Lemaître y Saldoval Vallarta con los resultados básicos de la teoría. Además del efecto de asimetría este-oeste, la teoría indicaba que si la carga eléctrica de las partículas de la radiación cósmica es predominantemente positiva, la intensidad medida en la dirección norte debería ser mayor que la medida en la dirección sur en el mismo ángulo cenital. El primero que sometió esta deducción teórica al experimento fue Thomas H. Johnson. Primero en Copilco, en el Distrito Federal, y después en el Nevado de Toluca, Johnson logró comprobar la existencia del efecto de asimetría norte-sur.
 
 
Estos experimentos cruciales tuvieron enorme resonancia, pues al determinar el signo de la carga eléctrica de las partículas se pudo identificarlas con precisión, es decir, se pudo comprender la naturaleza de la radiación cósmica.
 
Mientras Sandoval Vallarta y Lemaître trabajaban en su teoría, en varios países muchos otros científicos buscaban también la solución del problema.
 
 
En 1932, W. Heisenberg, en Alemania, a partir de un argumento puramente cualitativo, había hecho notar la posibilidad de que ocurriera una asimetría este-oeste en la intensidad de la radiación cósmica.
 
 
En el mismo año, Enrico Fermi y Bruno Rossi, del Instituto de Física de Florencia, en Italia, hicieron un estudio teórico en el que, como Sandoval Vallarta y Lemaître, encontraron que el uso del teorema de Liouville simplifica el análisis de los efectos geomagnéticos en la radiación cósmica.
 
 
Animado por este resultado y por los obtenidos en trabajos anteriores, Rossi trató de hallar una prueba experimental de la naturaleza de la radiación cósmica. En la hermosa colina de Arcetri, a corta distancia de la villa donde Galileo había pasado los últimos años de su vida como exiliado político, Rossi intentó detectar la asimetría este-oeste en un experimento sin éxito. Al analizar los resultados, Rossi se dio cuenta de que el efecto sería más pronunciado en un lugar con una latitud más baja y a una gran altura sobre el nivel del mar. De inmediato empezó a hacer planes para una expedición a Asmara, en Eritrea, que se encuentra a 11° 30’ de latitud norte y a dos mil trescientos sesenta metros de altura sobre el nivel del mar. Sergio de Benedetti, quien años más tarde se distinguiría como físico nuclear, se unió a la empresa. Los preparativos les tomaron un buen tiempo; cuando finalmente se encontraban dispuestos para emprender el viaje recibieron una desagradable sorpresa. El propio Rossi, después de cincuenta años, lo relata así: “Aquí, debo admitir que sufrimos una dolorosa decepción cuando encontramos que por unos meses habíamos perdido la prioridad de este importante descubrimiento. Ocurrió que, cuando ya estábamos listos para salir en nuestra expedición, leímos en The Physical Review dos artículos, uno escrito por Thomas Johnson, y otro, por Luis Álvarez y Arthur Compton, en los que se daba cuenta de la observación hecha en la ciudad de México y en una montaña cercana llamada Nevado de Toluca, del efecto de asimetría este-oeste”.
 
 
A pesar de no tener ya el aliciente de ser los primeros, pues Álvarez, Compton y Johnson se les habían adelantado, Rossi y De Benedetti prosiguieron con sus planes. En el otoño de 1933 llegaron al África Oriental y montaron su experimento en una cabaña ubicada en una colina cerca de Asmara. Pronto encontraron que la intensidad de los rayos cósmicos en la dirección occidental era considerablemente mayor que en la dirección oriental, confirmando así que la radiación cósmica primaria está constituida, por lo menos en parte, de partículas cargadas eléctricamente, y que la carga de estas partículas es positiva. Ese resultado, que ratificó el hallazgo de Álvarez, Compton y Johnson, sorprendió a Rossi y a De Benedetti, quienes, al igual que muchos otros físicos, esperaban que la radiación cósmica primaria estuviera formada principalmente de electrones, cuya carga eléctrica es negativa.
 
 
Las predicciones teóricas de Sandoval Vallarta y Lemaître, y su inmediata confirmación experimental llevada a cabo por Álvarez, Compton y Johnson, ponían a los físicos estadounidenses a la cabeza de una reñidísima competencia en la que participaban los mejores científicos de los países avanzados de Europa, América y Asia: C. Powell, J. G. Wilson y H. Elliot, de la Gran Bretaña; P. Auger y Le Prince-Ringuet, de Francia; E. Fermi, B. Rossi y S. Benedetti, de Italia; W. Bothe, W. Kolhörster, W. Heisenberg y su grupo, de Alemania; J. Clay y H. P. Berlage, de Holanda; C. Störmer, de Noruega; H. Yukawa y S. Kikuchi, de Japón, y muchos otros.
 
 
En el verano de 1932, el descubrimiento del efecto de latitud había sido presentado en México por Compton en una sesión combinada de las tres sociedades de ciencias mexicanas. La Sociedad Alzate, la Sociedad de Geografía y Estadística y la Sociedad de Ingenieros y Arquitectos, que así gozaron de las primicias de este hallazgo. Al año siguiente, en 1933, Sandoval Vallarta explicó en la Sociedad Alzate la teoría del efecto de latitud y la predicción de las asimetrías este-oeste y norte-sur, que se observarían en la intensidad de la radiación cósmica. En el verano de 1934 vino a México Thomas H. Johnson, quien en compañía de Manuel Sandoval Vallarta midió nuevamente la asimetría este-oeste en la ciudad de México, en Veracruz y en San Rafael (en la Caja de la Cuesta), confirmando los resultados de las medidas de Álvarez. En 1934, Johnson, Fussell y Sandoval Vallarta midieron la asimetría norte-sur en Copilco y en el Nevado de Toluca. Los resultados de estas últimas mediciones resolvían en favor de la teoría de Lemaître y Sandoval Vallarta la polémica planteada por el célebre físico teórico noruego Carl Störmer en una carta a Nature de 1933.
 
 
Durante las vacaciones de verano en la ciudad de México, Manuel Sandoval Vallarta, cuidadoso de no perder el contacto con los estudiosos de la física y las matemáticas de México, visitó a don Sotero Prieto, su antiguo maestro de matemáticas. En esos días Sandoval Vallarta presentó los resultados de sus trabajos en el Seminario de Física y Matemáticas que Prieto presidía en la Escuela de Altos Estudios. En ese seminario se presentaron y discutieron las predicciones y los resultados de la teoría de Sandoval Vallarta y Lemaître, así como la confirmación de los efectos de asimetría de la radiación cósmica y su verificación observacional. Sandoval Vallarta también asistió a las sesiones de la Sociedad Científica José Antonio Alzate, en donde presentó los resultados de sus investigaciones. Ahí ofreció, en conferencias formales, sus trabajos tanto de la teoría de la relatividad como de la mecánica ondulatoria. De esa manera, proporcionó a los investigadores y alumnos mexicanos una visión de los problemas de la física teórica de interés en ese momento con la profundidad y la actualidad propias del investigador de la máxima calidad académica que participa con éxito en su solución. Las pláticas de Sandoval Vallarta avivaron extraordinariamente el interés ya existente por el estudio de la física teórica, pero, sobre todo, su ejemplo vivo entusiasmó a algunos de sus miembros más jóvenes a convertirse en científicos profesionales como él. En ese grupo estaban, entre otros, Carlos Graeff Fernández, Nabor Carrillo y Alberto Barajas.
 
 
No es, pues, sorprendente, que en ese año de 1934 Sandoval Vallarta recibiera a Alfredo Baños, su primer estudiante mexicano, quien acudía al Instituto Tecnológico de Massachusetts para hacer un doctorado en Física bajo su dirección, y que, dos años más tarde, en 1935, se presentara el segundo, Carlos Graeff Fernández, que iba, al igual que Baños, a realizar un doctorado de Física bajo su dirección. Ambos se interesaban en contribuir al desarrollo de la teoría de los efectos geomagnéticos en la radiación cósmica.
 
 
Mientras tanto, en la Universidad Nacional Autónoma de México las jefaturas de grupo de Física y Matemáticas —que habían estado a cargo de don Basiliso Romo y don Sotero Prieto, respectivamente— habían sido fusionadas, en 1934, en la Facultad de Ciencias Físicas y Matemáticas, que reunía a las Escuelas Nacional de Ingenieros y Nacional de Química con el Departamento de Física y Matemáticas. Después de varias reformas universitaria, el 1 de marzo de 1937, se formó la Escuela Nacional de Ciencias Físicas y Matemáticas, que en 1938 se transformó en la Facultad de Ciencias. En 1938 se fundó el Instituto de Física y Matemáticas, cuya vida fue efímera, pues en noviembre de ese mismo año se disoció en un Instituto de Física y en otro de Matemáticas. El 1 de febrero de 1939 se aprobó oficialmente la formación del Instituto de Física de la UNAM, y se designó como su primer director a Alfredo Baños, quien había regresado a México ese año después de obtener el grado de doctor en Ciencias en el Instituto Tecnológico de Massachusetts, bajo la dirección de Manuel Sandoval Vallarta. En ese Instituto, Baños, con la colaboración de Héctor Uribe, Manuel L. Perusquía y Jaime Lifshitz, continuó las investigaciones sobre la dinámica del movimiento de las partículas cargadas en el campo magnético terrestre que había iniciado con Manuel Sandoval Vallarta. Ese grupo empezó de inmediato a llevar a efecto el programa de colaboración científica que Baños había formulado con el grupo del Instituto Tecnológico de Massachusetts que encabezaba Sandoval Vallarta. En el programa de colaboración se preveía la construcción y el montaje de un sistema detector de cuatro trenes de contadores Geiger-Müller para la medición del efecto azimutal y la distribución de la energía de la radiación cósmica primaria por el método propuesto por Sandoval Vallarta. Además, Baños, Lifshitz y Uribe estudiaron algunos problemas de la teoría del movimiento de partículas cargadas en el campo de un dipolo magnético y su aplicación a la teoría de los efectos geomagnéticos en los rayos cósmicos.
 
 
En febrero de 1942 fue inaugurado el Observatorio Astrofísico Nacional de Tonantzintla, Puebla y el mismo día se iniciaron ahí los trabajos del xvii Congreso Interamericano de Astrofísica, en donde Baños presentó los primeros resultados de las mediciones de la variación azimutal de la intensidad de la radiación cósmica a varios ángulos cenitales. Jaime Lifshitz y Héctor Uribe presentaron sus repectivos trabajos sobre la dinámica de las órbitas periódicas simétricas de las partículas cargadas en el campo mágnético terrestre. A ese congreso asistieron un buen número de científicos de primera línea, algunos de los cuales, como H. Shapley, S. Lefshetz y G. D. Birkhoff, tendrían una influencia duradera en el desarrollo de la física y las matemáticas en nuestro país.
 
 
De 1932 a 1939 los esfuerzos de Manuel Sandoval Vallarta, en colaboración con Georges Lemaître y los numerosos alumnos de ambos, habían estado encaminados a desarrollar la teoría de los efectos geomagnéticos en la radiación cósmica, confirmando así la teoría con numerosísimas observaciones. Esta es mundialmente conocida como la teoría Lemaître-Vallarta de la radiación cósmica.
 
 
En 1939, Manuel Sandoval Vallarta fue nombrado profesor titular de Física en el Instituto Tecnológico de Massachusetts, cargo que desempeñó hasta 1946.
 
 
En 1943 se inició lo que podría llamarse la época mexicana de Sandoval Vallarta como investigador científico. En ese año, el presidente Ávila Camacho formó la Comisión Impulsora y Coordinadora de la Investigación Científica con el propósito de atraer a México a don Manuel, al nombrarlo presidente y vocal físico-matemático de esta institución. Los viajes de Sandoval Vallarta a la ciudad de México se hicieron más frecuentes y sus estancias en esta capital más prolongadas. La participación de Estados Unidos en la Segunda Guerra Mundial trajo como consecuencia la reorientación de una fracción muy considerable de la organización científica de ese país hacia proyectos bélicos; en especial, el laboratorio del integrador diferencial de Vannevar Bush —la máquina de cómputo más avanzada de ese tiempo— fue dedicado a proyectos militares, lo que interrumpió el activísimo programa de cálculo de las órbitas de los rayos cósmicos que realizaba don Manuel con sus alumnos. Así fue como, en 1943, se inició en la ciudad de México, con la supervisión de Sandoval Vallarta, un programa de experimentos con un aparato diseñado, construido y calibrado por A. Baños y M. L. Perusquía. Este consistía de cuatro trenes de contadores Geiger-Müller dispuestos para registrar eventos a ángulos zenitales de 0, 20, 40 y 60 grados. Los contadores habían sido fabricados en el laboratorio de R. D. Evans en el Instituto Tecnológico de Massachusetts y estaban en la azotea del viejo Palacio de Minería, colocados en un cuarto muy pequeño llamado pomposamente la Torre del Contador, el cual operaba automáticamente y registraba fotográficamente el número de eventos cada treinta y dos minutos. Se tomaron lecturas en corridas ininterrumpidas que duraban por lo menos cien días, de julio de 1943 a mayo de 1946. El análisis estadístico de los datos fue hecho por Juan B. de Oyarzábal y la interpretación de éstos por Sandoval Vallarta, quien mediante un procedimiento semejante, años más tarde interpretó los resultados de las primeras medidas de la radiación cósmica hechas fuera de la atmósfera por Van Allen, con cohetes, en 1949. Al grupo de investigadores teóricos, en ese mismo año se agregó Ruth Gall.
 
 
No hay duda de que Manuel Sandoval Vallarta fue quien con su ejemplo atrajo hacia la investigación científica en la física teórica y experimental a quienes formaron los primeros grupos serios que trabajaron en México en este siglo. No hay duda, tampoco, de que fue él quien organizó, orientó y condujo a los éxitos iniciales a los primeros grupos teóricos y experimentales que lograron hacer buena investigación científica en física en México. Sin embargo, en la tarea de crear un nuevo paradigma del científico, reiniciar la tradición científica y echar andar de nuevo la física en México, hizo una labor aún más importante. Durante veintinueve años presidió el Seminario de física más importante del país. En 1948, en las instalaciones de la Comisión Impulsora y Coordinadora de la Investigación Científica, se volvió a reunir el Seminario de Física Teórica que había suspendido sus sesiones en 1935 por la muerte de Sotero Prieto, su principal animador. El único miembro del seminario de Prieto que participaba en el nuevo seminario fue don Manuel Sandoval Vallarta.
 
 
Todos los viernes, a las 17:15 en punto, después de presentar al orador en turno, se sentaba en el fondo del salón para poder seguir con atención la exposición y la discusión sin perder detalle. Al final hacía una resumen conciso y, con frecuencia, un comentario. Sus extensas relaciones personales permitieron que por el Seminario desfilaran los mejores físicos del mundo. Ponía el mismo interés y cuidado en seguir la exposición de un premio Nobel que la de un estudiante graduado que presentaba los resultados de su tesis. Casi todos los trabajos de física que se hicieron en México en esa época fueron presentados, discutidos y criticados en ese seminario, sobre todo en los primeros años. Fue ahí donde con sus comentarios, siempre comedido y cortés, Sandoval Vallarta fijó las normas de calidad académica que ahora rigen. En don Manuel, la amabilidad y la cortesía no estaban reñidas con el rigor científico y un agudo sentido crítico que le permitían hacer un juicio certero y exacto formulado en palabras breves y precisas, que, cuando era negativo, tenían un efecto demoledor. De igual modo era parco en los elogios, que aun siendo pocos y breves, eran siempre recibidos con agrado y satisfacción. Se puede afirmar, sin ninguna exageración, que la mayor parte de la física seria que se hizo o se hace en el país no hubiera podido realizarse si no se hubieran fijado oportunamente los estrictos criterios de calidad científica que estableció don Manuel a través de su seminario. El seminario, que se reunió primero en la Comisión Impulsora y Coordinadora de la Investigación Científica, luego en el Instituto Nacional de la Investigación Científica, después en el Instituto Nacional de la Investigación Científica, y más tarde en la Comisión de la Energía Nuclear y en el Instituto Nacional de Energía Nuclear, se reúne desde 1978 en el Instituto de Física de la unam, el mismo día y a la misma hora. El seminario lleva por nombre: Manuel Sandoval Vallarta.chivicango53
 
Alfonso Mondragón
Instituto de Física,
Universidad Nacional Autónoma de México.
 
       
Simposio de rayos cósmicos en la Universidad de Chicago en 1939
En esa época los mejores físicos del mundo tenían puesta la vista en la radiación cósmica. Antes de la década de 1940 no había aceleradores de partículas que pudieran dar información sobre la estructura interna de la materia. La única información sobre colisiones de alta energía, y por lo tanto de la composición de la materia, se podía obtener de las observaciones de los rayos cósmicos. Los datos que se obtenían a partir de los estudios de los rayos cósmicos únicamente pudieron ser interpretados a partir de la formulación de la teoría de Lemaître-Vallarta, que permitió el signo de la carga y el espectro de enrgías de las partículas primarias. En la radiación cósmica o asociada a ella se descubrieron el positrón (e+), el muión (m), los piones (p+,p-), las partículas cargadas y muchas otras.

Además del interés en la estructura de la materia, la radiación cósmica era interesante por sí misma, por la información astrofísica que podía dar, por los efectos geomagnéticos y su relación con la geofísica y por muchas otras razones. Así pues, interesaba por igual a los físicos experimentales, así como teóricos, a aquellos interesados en la estructura de la materia (Heisenberg, Fermi, Wheeler y otros), astrofísicos, geofísicos y otros curiosos.
 
Mondragon01
 
En la primera fila, 2º de izquierda a derecha, Alfredo Baños, primer director del Instituto de Física y Jefe del Departamento de Física de la Facultad de Ciencias. En la tercera posición (12), Manuel Sandoval Vallarta.

Entre los participantes se encuentran algunas de las figuras más notables de la física, tanto teórica como experimental, de este siglo:

1. Hans Bethe, premio Nobel, de los fundadores de la Física Nuclear, formuló las bases de la Astrofísica Nuclear y formuló el ciclo (de y Bethe) de reacciones nucleares que dan calor al sol y la luz.
4. Arthur Holy Compton, premio Nobel por el efecto que lleva su nombre, la dispersión de fotones por partículas cargadas.
5. E. Teller, Premio Nobel, desarroló la física básica de la función nuclear y participó en el diseño de la bomba H.
8. S. Goudsmit, físico holandés que junto con Uhlenheck descubrió el spin del electrón, por lo que recibieron el premio Nobel.
11. J. R. Openheimer, encabezo el grupo de físicos que desarrolló la bomba atómica en Los Alamos. Además contribuyó de manera importante al desarrollo de la física de las partículas elementales y la teoría del campo cuántico.
12. Carl D. Andersen ganó el premio Nobel por el descubrimiento del positrón en una observación de la radiación cósmica.
15. Victor Hess, descubridor de la radiación cósmica por lo que recibió el premio Nobel.
17. Brunno Rossi, discípulo de Enrico Fermi, confirmó junto con Sergio de Benedetti el descubrimiento del efecto latitud que habían hecho Clay y Compton. Dedicó su vida a la investigación experimental y teórica de la radiación cósmica.
18. Wilhelm Bothe ganó el premio Nobel por sus contribuciones a la Física y a la Química Nuclear. Hizo el experimento crucial que sugirió que la radiación cósmica podría estar compuesta de partículas cargadas de electricidad.
19. Werner Heisenberg ganó el premio Nobel por el desarrollo de la mecánica cuántica en su formulación matricial.
20. Pierre Auger descubrió los chubascos de partículas en la radiación cósmica secundaria.
23. J. Clay de Amsterdam descubrió, simultáneamente a A. H. Compton, el efecto de latitud en la radiación cósmica. Hizo sus observaciones en Indonesia y el Pacífico sur.
 

_______________________________________________________________

como citar este artículo

 

Mondragón, Alfonso. (1999). Manuel Sandoval Vallarta y la física en México. Ciencias 53, enero-marzo, 32-39. [En línea]

    Regresar al índice artículo siguiente

 

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
Genes ¿para qué?
 
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
 
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
 
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
 
Ratones para los hombres
 
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
 
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
 
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
 
Comprender mejor para curar mejor
 
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
 
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
 
Una mina de medicamentos
 
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
 
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
 
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
 
La terapia génica: un concepto evolutivo
 
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
 
¿Terapia germinal o terapia somática?
 
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
 
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
 
¿Transferencia de células o de genes?
 
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
 
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
 
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
 
Medicina regenerativa
 
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
 
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
 
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
 
Terapia génica aditiva o cirugía reparadora
 
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
 
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
 
Un resultado promisorio
 
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
 
Traducción
Nina Hinke
flechavolver58   Regresar al índice artículo siguiente

Você está aqui: Inicio Búsqueda Autor revistas revista ciencias 53 Manuel Sandoval Vallarta y la física en México