revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P02  
 
     
La creación de la Facultad de Ciencias
 
Raúl Domínguez Martínez
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Es una idea casi unánime que la presencia de México en la vertiente principal de la producción científica y tecnológica a nivel mundial es reconocida como de bajo relieve. De hecho, constituye un lugar bastante común referirse a la inexistencia de una ciencia mexicana (o, mejor dicho, a una ciencia hecha en México, para no ofender a los partidarios de la Ciencia como absoluto), así como a la de una tecnología propia. Desde luego, como todo lugar común, esta afirmación es inexacta y deja de lado una actividad que se ha mantenido vigente aun en contra de obstáculos diversos y de estímulos exiguos y a veces nulos. Trabajos recientes en el campo de la historia de la ciencia están participando en la recuperación de esta faceta del devenir social, que había traspasado los umbrales del olvido al verse cotejada con los momentos estelares de la historia de la ciencia en la civilización occidental, en una comparación de suyo desmesurada.

Los ejemplos abundan respecto de los logros científicos y tecnológicos alcanzados en el país a través del tiempo, aun si nos atenemos a los más conocidos. Ahí está la asombrosa obra de botánica y medicina conocida como Códice Cruz–Badiano, que fue preparada por dos eruditos indígenas en el Colegio de Tlaltelolco para demostrar a Carlos V la capacidad y el nivel de los conocimientos autóctonos en la materia, en muchos sentidos superiores a los europeos de su tiempo; como sabemos, el emperador desestimó esta obra, quedando desde entonces bajo la custodia de la Iglesia en calidad de cosa curiosa. El enorme impulso que recibió la minería a mediados del siglo XVI, se debió al método de amalgamación de la plata con azogue, conocido como “beneficio de patio”, desarrollado en esta tierra por Bartolomé de Medina. La modernización de la astronomía y de la matemática, lograda en el pleno oscuransotismo de raigambre religiosa que prevalecía en la Real y Pontificia Universidad de México durante el siglo XVII, fue merced a las enseñanzas y escritos de un oriundo de nuestros valles centrales llamado fray Diego Rodríguez. La vocación enciclopédica de Alzate y su Diario literario de México así como el caso de otras publicaciones de carácter científico, nos demuestran claramente que la ciencia nunca —menos aún en las sociedades prehispánicas— ha sido algo ajeno a las preocupaciones y prácticas de los mexicanos.

Sin embargo, por más minucioso que se haga este recuento de figuras excepcionales, de contribuciones, y aun de periodos en los que se ha configurado una cierta tradición científica, no lograremos encontrar nombres que se pudiesen poner al lado de los grandes artífices de la ciencia occidental. Más aún, no obstante de que contásemos con algún personaje de la talla de Copérnico, Kepler, Curie o Fermi, el problema en realidad se refiere a las condiciones concretas y particulares que han determinado un “subdesarrollo” en materia de ciencia y tecnología, con todas las implicaciones que este término —importado del léxico de la economía política— supone, particularmente, la de dependencia.

Es preciso tener en cuenta que el binomio ciencia–tecnología, incluyendo las diferencias históricas y operativas que se puedan reconocer entre estos dos términos, constituye hoy día un factor determinante para definir los niveles reales de desarrollo y de independencia efectiva de una nación. Es decir, una sociedad que en la actualidad no cuente con un aparato sólido y eficaz de producción de ciencia y de tecnología, se encuentra amenazado de una vulnerabilidad extrema que tiende a permear todos los órdenes de la vida colectiva, empezando por el económico.

Planteado desde esta perspectiva, el problema adquiere una dimensión distinta y más amplia. La pregunta sería entonces ¿por qué México se ha mantenido a la zaga (lo contrario de la vanguardia) en estos terrenos? Naturalmente, la respuesta es demasiado compleja y me parece que todavía no es posible acceder a ella de manera cabal. Por supuesto, se debe descartar de entrada y en definitiva cualquier recurso explicativo en el que la incapacidad subjetiva juegue algún papel. Semejante precariedad explicativa nos remitiría a la polémica lamentable que sostuvieron algunos destacados pensadores españoles a raíz del descubrimiento de América, como fray Domingo de Betanzos o Pedro Mártir de Anglería, empeñados en dilucidar si los oriundos de estas tierras eran seres humanos o no. La ciencia, así como la tecnología, son efectos de condiciones sociales específicas, en mucho mayor medida que resultado de “genialidades”.

El escenario original

Al despuntar el presente siglo, la ciencia y la tecnología en México presentaban una panorámica poco alentadora. Los parcos avances que se habían logrado en estos campos, merced a los empeños de los ideólogos porfiristas comprometidos con el prurito cientificista del positivismo, resintieron los estragos de la lucha armada, reduciéndose a una expresión ínfima. La presencia de la tecnología de punta en el país en el contexto del porfiriato no debe incluirse en estas consideraciones, pues hasta los operarios de los equipos eran de nacionalidad extranjera. De hecho, podemos decir que una vez que la Revolución estalló, el de por sí débil aparato de investigación y desarrollo de la ciencia fue desarticulado.

Curiosamente, para los efectos del tema que nos ocupa, la única institución porfiriana que habría de sobrevivir a la revuelta sería la Universidad. Como sabemos, esta entidad abrió sus puertas apenas dos meses antes de que, con asombro de puntualidad, la Revolución diese inicio justo en el momento previsto por Madero. Podríamos mencionar, para establecer un contraste paradójico, que el Instituto Tecnológico de Massachusetts (MIT) hizo lo propio el mismo año que dio término la Guerra de secesión en Estados Unidos. Daría la impresión de que la inoportunidad histórica ha marcado nuestros procesos como un sino. El caso es que mientas el vértigo de la violencia iba dando cuenta de lo poco —o mucho, según el parámetro que se quiera emplear— que se había logrado estructurar para fomento de la ciencia, la flamante y amenazada Universidad Nacional se aferraba con hálito vital a la existencia que, gracias a la convicción y a los desempeños de hombres insignes, ha conservado hasta la fecha. Ahí se sostuvo el impulso en favor de la ciencia, pero no logró salir inerme; ya que la Escuela de Altos Estudios, vanguardia indiscutida del desarrollo científico del país y parte constitutiva de la Universidad Nacional por decisión ejecutiva, pasó de ser una institución predominantemente científica a humanística, llegando, en el transcurso de 1912 y a consecuencia de los drásticos recortes presupuestales ¡ojo!, al extremo de verse incapacitada incluso para la contratación de profesores mexicanos regulares, siendo que hasta entonces contaba dentro de su planta con prestigiados académicos extranjeros. Es de suponerse que el costo menor de las indagaciones humanísticas fue lo que marcó la pauta para que lo científico cediera terreno.

La nueva orientación de Altos Estudios se perfiló, en lo que a ciencia se refiere, hacia la creación de cursos libres, llamados así porque no dependían ni de financiamiento, ni de matrícula, ni de sistematización formal, ni de nada, como no fuera la vocación y el ánimo inquebrantable de unos cuantos eruditos empeñados en que la sociedad contara con espacios para la actividad científica. Adolfo Castañares, en Química, y Sotero Prieto, en Matemáticas, son dos de los conspicuos personajes que mantuvieron vivo el interés por la ciencia en circunstancias muy poco propicias. Sin embargo, para darnos una idea de lo que esto representaba a nivel nacional, diremos que en esas fechas, Sotero Prieto impartía sus cursos a un total aproximado de veinticinco estudiantes. ¿Qué sentido guardaban estas proporciones en una sociedad que se abría paso en pleno siglo XX? Muy pobre, sin duda, pero superior a nada.

Tengamos en cuenta que antes de que se iniciara la Revolución en México ya se había logrado la comunicación telegráfica sin hilos a través del Atlántico; Orville Wright había conseguido el vuelo de un artefacto propulsado, más pesado que el aire y ya habían aparecido los trabajos de Lorentz, Einstein y Minkowski sobre la relatividad restringida. La ciencia y la tecnología se encontraban en auge y su papel en el desarrollo de los pueblos adquiría un relieve cada vez más acusado; lejos quedaban los tiempos en los que el conocimiento científico había suministrado la máquina de vapor a una industria basada casi por entero en las técnicas tradicionales y que debía mucho más al talento de los artesanos que a la ciencia. Ahora, la ciencia asumía un papel protagónico y estrechaba nexos con la tecnología. Si se me permite la expresión, diría que el siglo XX comenzaba para Occidente bajo el signo de tecnologías con una cuota creciente de sofisticación científica incorporada. Era —y sigue siendo— la pauta del progreso. Y la nación mexicana entró al siglo soslayando esta promisoria vertiente.

En 1917 se reinició la vida constitucional en México. La turbulencia bélica quedaba atrás y se daba comienzo al proyecto nacional, que, según constatamos a la distancia, no fue tan distinto del porfiriano. La educación fue enarbolada como parte fundamental del proyecto, con un marcado sesgo populista que desde luego hizo de lado la atención a la educación superior. La ciencia no formó —como no forma hasta ahora— parte del proyecto nacional. El aparato educativo fue descentralizado y se transformó en administración municipal, desapareciendo la Secretaría de Instrucción Pública. Se creó, en cambio, el Departamento Universitario y de Bellas Artes con el presupuesto más bajo de todas las dependencias gubernamentales: ese año de 1917, se le asignaron cuatro millones de pesos, frente a los ciento veinte millones que recibió la Secretaría de Guerra. El impacto se resintió aun después de concluida la etapa militar: en 1910, el presupuesto ordinario destinado a educación, todavía bajo la administración de Díaz, representaba 7.0% del total; en 1917 esta relación fue de 1.2% y de 0.8% al año siguiente, debiendo esperar hasta 1922 para que el gasto educativo mejorase su participación relativa, con un 12.9% sobre el total. Lo anterior obedecía claramente a una realidad; de acuerdo con los datos del III Censo General de Población aplicado en 1910, en México había 15 160 000 habitantes, de los cuales poco menos de medio millón se ubicaba en la ciudad capital. La población rural, en comunidades menores de diez mil habitantes, representaba 86.5% del total, y la población analfabeta, con diez años o más, ascendía a 72.3%. Es evidente que el objetivo prioritario, y urgente, era el de dar atención a segmentos muy amplios de la población que carecían de enseñanza básica, subordinando y postergando el fomento a la educación superior y, con ella, al desarrollo científico. De esta manera, México dio comienzo a la fase contemporánea de su historia, con la virtual inexistencia de un aparato científico y tecnológico y con la disponibilidad de fomentar estos campos, reducida a una sola instancia: la Universidad Nacional.


El papel estratégico de la universidad

Las naciones que han marcado la pauta del progreso científico y tecnológico en el mundo, y de manera particular durante el presente siglo, han contado —piénsese en cualquiera de las que integran el con-junto— con un aparato bien estructurado que se encarga de gestar el desarrollo en tales campos y que, además de ser funcional, se encuentra articulado con otros componentes de la realidad social. Los dispositivos que conforman este aparato son de índole diversa e incluyen universidades, tecnológicos, academias de ciencias, laboratorios, centros de investigación privados y públicos, y algunos otros más específicos. Es evidente que en todos los casos se trata de una responsabilidad compartida y de funciones diferenciadas. En el caso de México, esto no ha sido así.

De hecho, la gran mayoría de estas actividades han sido confiadas a una única institución: la Universidad Nacional. Sólo hasta fechas más o menos recientes esta ingente responsabilidad se ha ido descargando y compartiendo con otras instituciones. Podemos decir, sin exageración, que los dos primeros tercios del presente siglo, la así llamada Máxima Casa de Estudios del país, con la honrosa y excepcional colaboración de otras instituciones de mucho menor cobertura como el IPN, ha encarado por su cuenta estos amplísimos cometidos, supliendo el lugar y las funciones de entidades que, por inexistencia (las universidades y tecnológicos que el desarrollo de la sociedad ha reclamado), por ineficiencia (todos los organis mos antecesores del CONACYT) o por insuficiencia, han generado un vacío. Sus aportaciones en el campo de la investigación han sido —sencillamente— imprescindibles. No existe duda alguna de que la mayor parte de lo que en México se ha logrado en materia de ciencia, en un doble sentido cualitativo y cuantitativo, ha tenido su origen en la Universidad Nacional.

Las anteriores consideraciones, aparte de ser un justo reconocimiento, sirven para abordar de manera analítica la función de la Universidad en el contexto de la República. Se trata de un papel estratégico que ha rebasado de forma franca los linderos de una institución particular, para ubicarse en una perspectiva mucho más amplia. Los mexicanos estamos de cierto familiarizados con formas cuyos contenidos efectivos no se corresponden con las definiciones nominales. ¿Cómo explicar, por ejemplo, la existencia de una República democrática y federal en donde un sólo partido ha monopolizado el poder por setenta años y todas las decisiones se toman desde el centro? El asunto se refiere en realidad al funcionamiento de determinados mecanismos o dispositivos que operan a manera de subterfugio, con los cuales se ejerce una práctica que es distinta a la que se designa en la definición formal correspondiente. En el caso que nos ocupa, el de la Universidad, este subterfugio ha tenido como eje dos elementos operativos: el concepto de autonomía y la categoría de nacional. De estos dos elementos se ha valido el poder público para realizar una transferencia de responsabilidades, sin la correspondiente transferencia de recursos efectivos y suficientes, lo que le ha permitido desentenderse directamente de tales responsabilidades, a la vez que mantener su imagen como patrocinador. Es decir, hacia ella se fueron canalizado obligaciones que no han sido acompañadas de dotaciones pecuniarias adecuadas, dejando la respuesta a las limitadas posibilidades de la institución y desbordando el ámbito propio de su competencia. En este horizonte, la Universidad se ha visto compelida a la formación de profesionales en ramas descuidadas por otras instituciones en cuanto a la calidad y también a la cantidad; a la creación de planteles de enseñanza y de investigación que el desarrollo o las previsiones de desarrollo reclaman, y que no son atendidas por alguna otra instancia; a la realización de investigaciones “sobre los problemas nacionales,” financiando, formando investigadores, procurando equipos y laboratorios, etcétera, abarcando un espectro en el que potencialmente todo queda incluido; a la formación de la planta académica de otras instituciones; a la colaboración en el trabajo de elaborar planes de estudio en dependencias ajenas; a la impartición de cursos especiales; a la creación de especialidades y posgrados; al otorgamiento de becas; a la difusión del conocimiento; etcétera, etcétera.

Así, podemos afirmar que gran parte de lo que en materia de ciencia y de tecnología se ha realizado en el país se le debe a la Universidad Nacional y que ésta ha actuado de conformidad con su propia vocación, su propia inercia y con recursos escatimados que nunca resultaron suficientes y que ha tenido que administrar con malabarismos que muchas veces rayan en lo milagroso. Más adelante veremos cómo en el caso particular de la Facultad de Ciencias, así como en el de algunos institutos como el de Matemáticas o el de Física, su existencia fue resultado de iniciativas que la Universidad Nacional emprendió por cuenta propia y de las cuales no existían —y no lo hubo por bastante tiempo— equivalentes en todo lo largo y ancho del territorio nacional.

Antes de cerrar este apartado, sería conveniente añadir una precisión de gran importancia para ubicar correctamente lo que se ha expuesto. Aparte de la enorme negligencia con la que el Estado mexicano actúa cuando se trata de asuntos que no le son rentables políticamente en un plazo inmediato, la cuestión del escaso desarrollo de las ciencias en nuestro país, problema de características crónicas, se relaciona más a profundidad con el desarrollo de las fuerzas productivas. La producción de ciencia y de tecnología propias no se ha presentado históricamente en nuestro país como una necesidad generada por la sociedad, la cual ha satisfecho esos requerimientos por la vía de la importación. Una sociedad atrasada, marcada por la desigualdad, y una economía desequilibrada, marcada por la dependencia, constituyen condiciones de fondo que se reproducen a sí mismas, determinando un rango de factibilidad sumamente restringido para la ciencia generada en el país. La ciencia y, desde luego, el desarrollo tecnológico resultan inversiones rentables a mediano plazo; el problema es el del financiamiento a corto plazo. Tengamos en cuenta que la burguesía doméstica no está “acostumbrada” a invertir en negocios que no le reditúen ganancias inmediatas y seguras. Se trata de una burguesía local marcada asimismo por el atraso, con una jerarquía de intereses en donde los nacionales se subordinan. No ha resultado, pues, un agente viable para el fomento a la ciencia y la tecnología, como se ha constatado en los hechos; la alternativa, en semejantes condiciones, quedó a cargo del Estado, el que, a su vez, se sirvió delegar esa tarea a un reducidícimo grupo de instituciones encabezadas por la UNAM.

La autonomía y el aislamiento

A pesar de la acusada desconfianza que los gobiernos emanados de la Revolución le profesaban a la Universidad Nacional, ésta logró sobrevivir y aun incrementar su presencia en el marco de la sociedad. Fueron conflictos ya ajenos a su raigambre porfiriana los que produjeron nuevos focos de conflicto entre la Universidad y el poder público.

En efecto, después de la Revolución se pueden identificar tres etapas distintas (hoy día parece configurarse la cuarta) en las cuales la Universidad Nacional se ha redefinido en función de la posición que guarda en el esquema de la administración pública: en 1929 se le concedió una autonomía restringida, con la correspondiente promulgación de una Ley Orgánica; en 1933 se le concedió una autonomía total y se suprimió su carácter de nacional, quedando a expensas de un subsidio aleatorio; en 1945, por convenir así a intereses emergentes, el poder público retomó la tutela de la institución, promulgando la Ley Orgánica vigente. Hay que mencionar que no obstante estos drásticos cambios, la Universidad prosiguió atendiendo sus compromisos de manera ininterrumpida.

En 1933, la Universidad tenía matriculados a poco más de nueve mil alum-nos en todos sus planteles, incluida la Escuela Nacional Preparatoria, con un crecimiento relativo de su población del orden de 13% respecto de la inscripción de 1929. En el mismo año, se estima que la población total de la República Mexicana era ligeramente superior a los diecisiete millones, lo que significa que la ya desde entonces Máxima Casa de Estudios del país atendía apenas a 0.05 % del total, cifra insignificante en términos absolutos, máxime si se tiene en cuenta que de tal cantidad sólo una porción reducida alcanzaba la titulación. Por otro lado, estos totales acusaban un fuerte desequilibrio en favor de las “carreras liberales”: las escuelas de Jurisprudencia y de Medicina absorbían, ellas solas, a 38.7 % de la matrícula completa de nivel superior. Como se puede inferir con éstos y otros indicadores, el aporte de la Universidad al desarrollo del país en ese tiempo era, por decirlo de alguna manera, irrelevante. Si ésta era la situación con las carreras más populares, se puede uno imaginar lo que ocurría con las ciencias; baste por ahora con decir que las carreras de Biología, Matemáticas o Física se impartían en la Facultad de Filosofía y Letras, y que tenían un perfil por completo diferente al que ahora tienen. Las de Biología, Matemáticas y Física eran carreras que se impartían a la manera de una Escuela Normal Superior, es decir, para preparar profesores en tales disciplinas.

A lo anterior habría que añadir que para la nación —o, mejor dicho, para el programa enarbolado por el gobierno federal, que en el caso nuestro sabemos que no es lo mismo— la presencia de una Universidad insumisa venía siendo, además de poco menos que suntuaria, incómoda. Ello quedó demostrado de manera fehaciente con la promulgación de la Ley Orgánica de 1933, cuando le fue concedida la autonomía total, desentendiéndose el poder público de todo tipo de apoyo, incluido el pecuniario; así quedó asentado en el inciso II, apartado b) del artículo 9 de la Ley aprobada por el Congreso de la Unión en el mes de octubre: “Cubiertos los diez millones de pesos (que el gobierno federal entregará a la Institución), la Universidad no recibirá más ayuda económica”. Las palabras del licenciado Narciso Bassols, entonces secretario de Educación Pública, al ser discutida la iniciativa de ley a la que me refiero, corroboran lo dicho: “no se puede decir que la Universidad haya realizado con provecho sus destinos; no se puede decir que la acción educativa haya progresado. La Universidad tiene una enorme, una grave responsabilidad ante la República, y sólo porque la masa de habitantes del país, situada más allá de la ciudad, no puede apreciar y sentir de un modo palpitante e inmediato, no puede conocer las intimidades de las deficiencias universitarias, no se ha producido una poderosa y tremenda reacción de protesta nacional”.

La ruptura con el poder público habría de reportarle a la Universidad una situación de fuerte insolvencia. Pero más allá de esta clase de diferencias entre ambos, lo que realmente sitúa en perspectiva correcta el desarrollo de la institución y su papel en el México de la época, es lo que se refiere a la necesidad de la sociedad en general, y de la planta productiva en particular, de los servicios que ésta ofrecía o podía ofrecer. Es preciso tener en cuenta en este aspecto que el México de los años treintas era un país fundamentalmente agrario. En 1930, 80.7% de los mexicanos vivía disperso en localidades menores de diez mil habitantes, es decir, rurales; el sector primario absorbía a 3 626 trabajadores (PEA) sobre un total de 5 151, es decir, a 70.3% . Y si bien la porción mayoritaria del Producto Interno Bruto no tenía su origen en este sector, debido a su baja productividad (cinco veces menor a la productividad del sector industrial, por ejemplo), la producción agropecuaria y minera constituía la base de la actividad exportadora, determinando de tal suerte que el país estuviese convertido en un importador neto de bienes manufacturados. La tasa de analfabetismo rebasaba el 60% de la población con diez años de edad o más, en el seno de una sociedad polarizada en donde los estratos medios eran minoría.

Parece claro que la institución universitaria no era, llanamente, una prioridad nacional. Su relevancia a nivel nacional era ínfima, tanto en lo cuantitativo como en lo cualitativo. Por ello, lo que en realidad significó para el poder público la concesión de la autonomía total, fue la posibilidad de desembarazarse de un problema y de desentenderse de un cometido que, en la forma, se debería cumplir. La línea política que adoptó el general Cárdenas al asumir el gobierno de la República en noviembre de 1934, vino a reforzar más esta situación. En el texto de una carta fechada en septiembre de 1935 para dar respuesta a una solicitud del rector procurando el apoyo económico del gobierno, el presidente de la República acusa a la Universidad de haberse colocado “por su propia voluntad, en un plano de indiferencia con respecto al Programa Social de la Revolución”. Poco tiempo más tarde, en 1937, abrió sus puertas el Instituto Politécnico Nacional, concebido y planeado como una alternativa al liberalismo universitario, dotado de mecanismos tales que el Estado aseguraba un amplio radio de control sobre sus procesos.

Frente a semejantes condiciones, los desempeños de la institución educativa se vieron amenazados con severidad. Hacia fines de noviembre de 1937, el rector Chico Goerne preparó una detallada exposición de la situación por la que ésta atravesaba, con objeto de procurar fondos federales. En ella señalaba, por ejemplo, que los fondos solicitados para evitar un desgaste más acentuado no representaban ni 1% de los egresos del erario; que los honorarios del profesorado se encontraban a niveles inferiores a los devengados diez años antes, ya de suyos exiguos, encontrándose entre los más bajos del mundo, y que los profesores debían atender normalmente a grupos no menores de cien alumnos y, en muchas ocasiones, superiores a trescientos. En ese tiempo, las reducciones voluntarias de salario se volvieron más o menos frecuentes, las donaciones de equipo constituyeron una alternativa ante la incapacidad de la institución de allegárselo por sí misma, llegando al grado de que en 1940 el Banco de México hubo de donar mil sillas para poder sentar a otros tantos alumnos a recibir sus clases. Las obras de infraestructura quedaron congeladas e, incluso, diversos bienes inmuebles empezaron a evidenciar un fuerte deterioro por falta de mantenimiento. En fin, se trataba de una Universidad con un muy marcado déficit económico, objeto de una cierta animadversión por parte del Gobierno Federal y con una presencia sumamente débil en la sociedad, convulsionada por desordenes internos recurrentes y sujeta a una estructura de gobierno que, sobre la base de la paridad, no facilitaba hacer prevalecer los criterios académicos en la toma de decisiones.

El estado y la evolución de la ciencia


La Escuela de Altos Estudios fue disuelta en 1925 para dar paso a la creación de la Facultad de Filosofía y Letras. Hasta ese momento, los cursos y las investigaciones relativas a las ciencias habían tendido a la desaparición de una filiación institucional, convertidos en acciones de personas singulares que no estaban —no podían estarlo— sujetas a una normativa, ni a una sistematización, ni a la supervisión colegiada, ni mucho menos a una regulación por concepto de emolumentos, tal y como ocurre ahora o como ocurría ya entonces en universidades de mayor desarrollo fuera del país. Si bien es cierto que por la cuota de entusiasmo que ponían los responsables de estas actividades académicas se logró inculcar interés por la ciencia en algunos jóvenes estudiantes que más tarde se convirtieron en científicos de gran prestigio, incluso internacional —ahí está el caso de Sandoval Vallarta, por ejemplo—, la perspectiva y el nivel en el que se desenvolvían eran considerablemente más bajos. En realidad, se trataba casi en exclusiva de actividades de cultura general y, en el mejor de los casos, de formación de profesores. Es evidente que en esa época no existía en todo el país disponibilidad de empleo para que egresados de matemáticas o de física se desempeñaran como tales.

La herencia con la que la institución se acercaba a su vida autónoma era ciertamente pobre. En matemáticas, la Escuela de Altos Estudios había podido ofrecer tan sólo cuatro cursos libres, sin ningún plan de estudios que les diera unidad, a cargo de Sotero Prieto, Juan Mancilla y Río, Luis Espino y Daniel Castañeda. En Física se impartieron únicamente dos cursos entre 1912 y 1914, a cargo de Valentín Gama y Joaquín Gallo. La rama de Química fue más favorecida y en 1916 se fundó la Escuela de Ciencias Químicas, a cargo del ingeniero Salvador Agraz. En Biología se llegó incluso a la impartición de dos carreras: la de profesor en Botánica y la de profesor en Zoología; éstas se fundieron en una sola a partir de 1922.

Sin embargo, al ocurrir en 1925 la conversión en la Facultad de Filosofía y Letras no se registró ninguna repercusión en el campo de las ciencias, las cuales prosiguieron con su ritmo habitual. El paso siguiente ocurrió hasta 1928, cuando se reformaron los planes de estudios de las diversas carreras, procurando elevar los objetivos y el nivel académico. La marcha continuaba con paso en exceso lento.
 
No obstante, entonces se gestaba un elemento importante que pronto rendiría frutos positivos, relativo a que ya se había iniciado el envío de estudiantes mexicanos al exterior. En el informe del rector ante el Consejo Universitario, presentado por Ignacio García Téllez, se encuentra una parte en donde dice: “[La Universidad] llama a su seno a los mexicanos que estudian en el extranjero, expuestos a perderse como factores de integración patria, y entre tanto regresan, procura estar en contacto con ellos, enterándolos de nuestra vida y recordándoles su país”. Desde luego, hay que tener en cuenta que estos estudiantes en el extranjero, en particular los de ciencias, tenían ante sí una disyuntiva complicada por obvia: o permanecían en el exterior, o renunciaban a su formación específica, involucrándose en la-bores un tanto ajenas a ella, o se incorporaban a la Universidad como personal académico, ya que ésta era la única instancia en el país con características capaces de asimilarlos en un plano profesional. Ellos habrían de conferirle un sesgo diferente y cualitativamente superior a las ciencias enseñadas e investigadas en la Universidad, la que, por su parte, no cejó jamás de escudriñar y de aprovechar toda circunstancia que le redituara una mejoría.

En 1931, la Facultad de Filosofía y Letras se encontraba dividida en cuatro secciones: Filosofía, Letras, Ciencias Históricas y Ciencias. Los grados que en esta última sección se concedían eran los de maestro y doctor en Ciencias Exactas; maestro en Ciencias Físicas, y maestro y doctor en Ciencias Biológicas. Dicha Facultad estaba ubicada en la calle San Ildefonso número 33, en el centro de la ciudad. Entonces, la población escolar de la Universidad ascendía a casi diez mil alumnos, de los cuales únicamente trescientos sesenta y nueve estaban inscritos en todas las carreras que esta Facultad impartía.

Una reorganización general emprendida en la Universidad en 1935, dio lugar a la creación de una Escuela de Ciencias Físicas y Matemáticas. Con el principio de agrupar áreas académicas en torno de unidades docentes que fungirían a manera de ejes, esta Escuela emergió como parte integrante de la Facultad de Ingeniería y su misión principal, al menos de acuerdo con la visión de su principal promotor, el ingeniero Monges López, sería la de preparar futuros investigadores. La sede que le dio albergue fue el Palacio de Minería. Este mismo año ocurrió el trágico deceso de Sotero Prieto, pilar fundamental del desarrollo de las matemáticas y aun de la física en nuestro país.

En diciembre de 1938 se promulgó un nuevo Estatuto General para la Universidad, con el cual comenzó de manera formal la existencia institucional de la Facultad de Ciencias. Al año siguiente, en el que propiamente iniciaron sus funciones, y de acuerdo con datos de la Secretaría General, la nueva Facultad contó con una matrícula de ciento catorce alumnos, de ellos cuarenta y seis eran hombres y sesenta y ocho, mujeres. Hasta entonces se habían expedido exclusivamente títulos de maestría en ciencias biológicas y uno sólo de profesor en matemáticas, concedido en 1938. La inmensa mayoría de los que ejercían como titulares ostentaban en realidad el título de ingeniero, pero a partir de ese momento se iniciaba una etapa completamente distinta en beneficio de las ciencias en la Universidad y, por ende, en México.

El momento de la creación

En octubre de 1938 el Consejo Universitario recibió un proyecto relativo a la creación de la Facultad de Ciencias; se trataba de un documento de primera importancia, no sólo porque constituía el origen de dicho plantel, sino porque en él se exponían los motivos por los que se tomó tal decisión. Dicho proyecto lo suscribieron el doctor Antonio Caso, director de la Facultad de Filosofía y Estudios Superiores; el doctor Isaac Ochoterena, director del Instituto de Biología; el ingeniero Ricardo Monges López, responsable de la Escuela Nacional de Matemáticas y Ciencias Físicas, y el doctor Alfredo Baños, director del Instituto de Ciencias Físico-Matemáticas. Los argumentos daban inicio con esta afirmación: “En todas las principales universidades del mundo, aun en las de segundo orden, existe una Escuela o Facultad dedicada al estudio superior de las ciencias”. Acto seguido, se deslindaba la enseñanza y el estudio de las ciencias en la universidad como elementos de cultura general, de la enseñanza y el estudio especializados, para después pasar a una crítica de la situación particular: “En nuestro medio universitario se ha tenido especial cuidado de formar buenas escuelas profesionales, dotándolas, hasta donde se ha podido, de todo lo que necesitan para preparar a sus alumnos, pero a los profesores universitarios y a los investigadores de la ciencia no se les ha prestado ayuda alguna, se han formado por su propia cuenta”. De conformidad con los propios autores, tal situación “no ha sido por falta de esfuerzos encaminados a ese fin, sino porque en los últimos años hemos vivido largos periodos de inquietud y hemos sufrido una continua falta de recursos que ha obligado a nuestras autoridades universitarias a posponer la resolución de los problemas culturales para atender a la imperativa necesidad de subsistir”. La propuesta consideraba “cuando menos” siete departamentos: Matemáticas, Física, Química, Biología, Geología, Geografía y Astronomía, y la creación consecuente de otros tantos institutos de investigación, razón por la cual “se propone que el Instituto de Ciencias Físico-Matemáticas se divida en dos institutos, uno dedicado a las matemáticas y otro a la física; que se establezca el Instituto de Química, que tanta falta hace, y que el Instituto de Investigaciones Geográficas se incorpore con el nombre de Instituto de Geografía […] de modo tal que cada jefe de instituto será al mismo tiempo, exoficio, jefe del departamento respectivo de la Facultad de Ciencias”. No deja de llamar la atención, por último, el que los términos de la propuesta se hallan limitado, como era lo usual, a reformulaciones legales, sin acompañar la exposición de motivos de una consideración relativa a los recursos humanos y físicos, y a la relación entre lo disponible y lo deseable.

La organización, el reglamento y los planes de estudio para la nueva facultad fueron elaborados, en las ramas de física y matemáticas, por el ingeniero Monges López y por el doctor Alfredo Baños, quien recién había regresado al país después de graduarse en la Universidad John Hopkins y de haber recibido la beca Guggenheim, siendo el primer doctor en Física mexicano con residencia aquí (Sandoval Vallarta vivía en Estados Unidos). El documento fue presentado a la consideración del Consejo Universitario en noviembre de 1938. La iniciativa establecía diversos mecanismos de coordinación entre los departamentos y los institutos respectivos, esto con la clara intención de dar un fuerte impulso a la investigación y de integrarla al trabajo docente, razón por la cual el documento incluyó la propuesta de dividir el Instituto de Ciencias Físico-Matemáticas, de reciente creación, en dos institutos especializados, dando lugar así al surgimiento de un Instituto de Física propiamente dicho; el de Matemáticas sería posterior. La nueva Facultad otorgaría los grados de maestro y doctor en Ciencias, con una nomenclatura peculiar compartida con Filosofía y Letras en la que la maestría era equivalente a la licenciatura, y siendo requisito la obtención del primero para poder cursar el doctorado.

El 19 de diciembre de 1938 se promulgó el nuevo Estatuto General; de esta manera dio comienzo la vida formal tanto de la Facultad de Ciencias como del Instituto de Física. El artículo 8 establecía que “los institutos tendrán un director, constarán de las secciones con el personal técnico y administrativo que señale el reglamento y dependerán directamente del rector. Cada uno de los institutos tendrá un Consejo consultivo [antecedente del actual Consejo Técnico de la Investigación Científica] que deberá hacer al rector todas las observaciones que estime pertinentes para el mejor desarrollo de los trabajos”. Los directores de institutos podrían durar indefinidamente en el cargo, de acuerdo con el artículo 34, pudiendo ser removidos por el Consejo a solicitud del rector o de un grupo de consejeros que representaran cuando menos un tercio de los votos computables en el órgano legislativo. Las labores efectivas dieron inicio en enero de 1939, año para el cual había sido aprobado el Reglamento de Pagos, estableciendo una cuota de inscripción para los alumnos de la Universidad de diez pesos y una colegiatura anual de cien pesos para los de la Facultad de Ciencias; ese año, después de una devaluación brusca, el dólar se cotizó a $5.19, y el salario mínimo diario general en la zona metropolitana era de $2.50, lo que suponía, para los alumnos de física, un pago anual equivalente a poco menos de veinte dólares y a cuarenta salarios mínimos. Adelantaremos aquí que, para 1940, la matrícula de la nueva Facultad representaba sólo 1.1 % de la población estudiantil universitaria.

Para el caso de la física y la matemática, la Facultad de Ciencias continuó ocupando las instalaciones en el Palacio de Minería, y el edificio porfiriano de Ezequiel Montes número 15 albergó el área de la biología. El cambio más importante era, en realidad, el de perspectiva, ya que se había logrado el paso a la creación de una entidad autónoma para el desarrollo de las ciencias. El énfasis inicial fue puesto en el desarrollo de las matemáticas y la física y en la preparación de cuadros en el extranjero.

Por su parte, el Instituto de Física comenzó sus trabajos en medio de dificultades principalmente de orden pecuniario. El primer ejercicio presupuestal no pudo hacerse efectivo debido a problemas administrativos; esa primera asignación fue de veinte mil pesos anuales, cifra que se elevó a treinta y ocho mil pesos en 1939. Aquí conviene recordar que en el curso de ese año dio comienzo la conflagración bélica en Europa, en cuyo contexto habría de tener lugar un impresionante desarrollo de la física nuclear. Para entonces, el Instituto ocupó un local dentro del Palacio de Minería, en la calle de Tacuba, en el centro de la ciudad. Aparte del doctor Baños, director del mismo y precursor en México, junto con Sotero Prieto y Blas Cabrera, de los estudios de Física Atómica y de Física Teórica, figuraban como investigadores el ingeniero Manuel González Flores y los profesores (aún no contaban con el título profesional) Héctor Uribe y Manuel Perusquía, así como un ayudante de investigador, el señor Pedro Zuloaga. Radiación Cósmica, Hidrodinámica y Elasticidad, Física Biológica, Física Nuclear y Radioactividad, Espectroscopía y Estructura Atómica, Rayos X y Estructura Molecular, Astrofísica, Geofísica y Laboratorio de Mecánica de Suelos eran las secciones que integraban el núcleo estructural del Instituto, según su plan original. Sin embargo, dadas las limitaciones presupuestales y, en general, las carencias de la Universidad, hubo de conformarse con establecer y hacer funcionar las secciones de Radiación Cósmica y de Mecánica de Suelos, e iniciar los trabajos teóricos de la geofísica.

En un artículo preparado por el doctor Baños a finales de 1940 para la Revista de Estudios Universitarios, órgano de difusión de las Facultades de Filosofía y Letras, Ciencias y de la Escuela Nacional Preparatoria, el director del Instituto presentó a la comunidad universitaria las siguientes reflexiones: “A diferencia de otros institutos, tales como el Instituto de Biología, el Instituto de Geología y el Observatorio Astronómico Nacional, que ingresaron a la Universidad Nacional Autónoma de México en 1929, dotados de amplio patrimonio en cuanto a edificios, laboratorios, bibliotecas y personal, el Instituto de Física ha empezado sin patrimonio alguno, con lo cual la labor de creación a la vez que de organización y dirección se torna de lo más difícil, especialmente en vista de las circunstancias precarias por las que ha atravesado la Universidad durante los últimos tres años escasos que lleva de vida el Instituto de Física. Sin embargo, es la esperanza de esta Dirección que las autoridades universitarias, animadas de un alto espíritu de deber universitario y percatadas por entero de la importancia y trascendencia de la misión que el Instituto de Física está llamado a desempeñar dentro de la Universidad como laboratorio central de pruebas y medidas físicas y como centro de investigaciones en las ciencias físico-matemáticas, habrán de prestarnos su más amplia colaboración y franca ayuda para dotar, desde luego al Instituto, aunque sea de forma modesta y sencilla, de un edificio adecuado para sus oficinas, sus laboratorios y su biblioteca”.

Estos acontecimientos fueron reconocidos por el rector Gustavo Baz en el informe que presentó en 1940: “De enorme trascendencia para el país fue la creación de la Facultad de Ciencias. La Universidad de México estaba integrada por un conjunto de Escuelas en las que se preparaba a los profesionistas. Pero nos faltaba la pura investigación científica y particularmente la preparación de los investigadores, hombres ajenos al ejercicio práctico de una profesión y que deben tener como fin la pura investigación científica”. Así fue como se inició en nuestro país la promoción institucionalizada de científicos, con presupuestos exiguos y escatimados, en un contexto generalizado de apatía, sin conexiones operativas con la planta productiva, y careciendo de estímulos sociales en favor del incremento de vocaciones en las diversas áreas.chivicango53
Raúl Domínguez Martínez
Centro de Estudios sobre la Universidad,
Universidad Nacional Autónoma de México.

_______________________________________________________________
 

como citar este artículo

Domínguez Martínez, Raúl. (1999). La creación de la Facultad de Ciencias. Ciencias 53, enero-marzo, 4-13. [En línea]
 
    Regresar al índice artículo siguiente

 

revista de cultura científica de la Facultad de Ciencias de la Universidad Nacional Autónoma de México

  portada articulo 1 portada articulo 1  
 
     
Genes ¿para qué?
 
Helène Gilgenkrantz, Jacques Emmanuel Guidotti
y Axel Kahn.
conoce más del autor
     
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Nuestra percepción actual acerca de la genética está sufriendo cambios profundos. Desde los primeros trabajos de Gregorio Mendel en 1865, hasta el desarrollo de la enzimología y de la bioquímica de las proteínas en las décadas de los cincuentas y los sesentas, los estudios de genética se basaron en el análisis de la transmisión de caracteres fenotípicos de una generación a la otra, es decir, en el estudio de los caracteres observables. A partir de 1973, con el inicio de la ingeniería genética, se empezó a considerar que el procedimiento normal para identificar un gen consistía en caracterizar primero la proteína para la cual codifica. A mediados de los años ochentas, armados con la experiencia de la ingeniería genética y de los estudios de adn, se emprendió un retorno a las raíces: se estableció que el gen responsable de una enfermedad se puede identificar porque cosegrega (se transmite) con un fenotipo patológico, lo que se conoce como clonación posicional. La proteína se deduce a partir de la secuencia del gen identificado, e incluso se puede sintetizar por ingeniería genética. Este procedimiento también permite reconocer genes cuyas mutaciones no son directamente responsables de una enfermedad, pero que sin embargo aumentan la probabilidad de que ésta se manifieste, como en el caso de los genes de susceptibilidad a la arteriosclerosis, hipertensión o Alzheimer.
 
Recientemente la sed por descifrar nuestro propio genoma nos ha llevado a una nueva era, la de la genómica, cuyo principal objetivo es la secuenciación completa del genoma humano. De hecho, acaba de anunciarse la primera secuencia entera de un cromosoma humano, y podemos asegurar, sin demasiado riesgo, que todos los cromosomas habrán sido secuenciados en un futuro muy próximo.
 
Sin embargo, aún nos falta un enorme trecho antes de que a partir de la secuencia de los genes podamos inferir los fenómenos fisiológicos y patológicos. Entre los ochenta mil a ciento cuarenta mil genes de los que se compone nuestro alfabeto, sólo algunos están implicados en una enfermedad monogénica específica. Algunos de ellos son tan importantes que la más ligera mutación es letal, pero en otros casos existen candados de seguridad que permiten a ciertos genes paliar la ausencia o la alteración de otros, por medio de una cierta redundancia funcional. Además, el resultado fenotípico de un gen depende, generalmente, de su colaboración con otros genes y del contexto del medio ambiente, de la misma forma que el significado de una palabra depende de su posición dentro de una frase y debe de ser interpretado en función de la trama de la historia.
 
Ratones para los hombres
 
Uno de los prerrequisitos indispensables para la realización de ensayos terapéuticos clínicos es contar con modelos animales. A partir del nacimiento de la transgénesis, que permite la introducción de un fragmento de adn en el genoma desde los primeros estados de la embriogénesis, ha sido posible desarrollar diversos modelos de afecciones humanas. Por medio de esta técnica no sólo se pueden modelar enfermedades monogénicas, sino que también se han desarrollado modelos de cáncer en tejidos específicos y es posible estudiar la cooperación entre distintos oncogenes, la cinética de la aparición de un proceso canceroso y, de esta manera, establecer sitios potenciales de intervención terapéutica.
 
Hacia finales de la década de los ochentas se desarrolló una herramienta de creación de modelos animales muy poderosa; se trata de la posibilidad de reemplazar, durante las primeras etapas del desarrollo embrionario de los ratones, un gen normal por uno mutado, lo que se conoce como recombinación homóloga. Hasta entonces los investigadores habían dependido del carácter aleatorio de la mutagénesis, pero con esta nueva técnica, que se basa en el conocimiento del gen que se quiere interrumpir o mutar, se introduce la secuencia mutada en células embrionarias totipotenciales de ratón y, por medio de un método de selección positiva o negativa, se escogen aquellas células donde la secuencia mutada haya reemplazado a la secuencia normal del ratón. Gracias a esta técnica ha sido posible desarrollar modelos de mucoviscidosis que reproducen algunos de los signos de la afección en humanos, y fue posible probar la viabilidad, la eficacia y la inocuidad de las primeras tentativas de terapia génica. Desde entonces, la técnica de recombinación homóloga se ha refinado considerablemente, y ahora es posible controlar la disfunción de un gen en el tiempo y en el espacio, como si estuviéramos accionando un interruptor. Volviendo al ejemplo de la mucoviscidosis, o del gen responsable, el crtf, ha sido posible estudiar las consecuencias de la ausencia de su expresión en tipos de células específicos. Como esta técnica se basa en la homología de la secuencia del fragmento introducido con la del gen mutado, uno de los requisitos para poder emplearla es conocer, al menos, una parte de la secuencia del adn del gen que se quiere modificar.
 
A pesar de estos avances, los modelos animales no siempre constituyen una buena copia fenotípica de las afecciones humanas. Por ejemplo, los ratones mdx, que al igual que los niños con miopatía de Duchenne están desprovistos de distrofina muscular, presentan un diagnóstico vital normal aun cuando sus músculos presentan ciertas lesiones causadas por el proceso necrótico característico de esta enfermedad. En algunos casos es posible contar con otros modelos animales, como ciertas afecciones articulares o de hipertensión, en las cuales las ratas desarrollan una semiología cercana a la enfermedad humana. Sin embargo, la transgénesis es aún una técnica difícil de realizar en especies que difieren del ratón, como ratas, conejos y vacas. Una de las aplicaciones de la transgénesis podría ser el uso de los órganos de animales transgénicos para realizar xenotransplantes. Aunque esta idea ya no sea ciencia ficción pura, la técnica aún presenta grandes dificultades de orden inmunológico y de seguridad que será necesario vencer antes de poder ponerla en práctica.
 
Comprender mejor para curar mejor
 
El hecho de haber identificado al gen responsable de una afección no implica que se comprenda su función o su participación en la fisiopatología, sin embargo, es necesario establecer los lazos que unen a la estructura del gen y a la proteína con los efectos deletéreos que produce su ausencia, para poder diseñar estrategias terapéuticas dirigidas y eficaces. Un ejemplo espectacular y reciente que ilustra este proceso es el de los trabajos emprendidos por dos equipos franceses en torno a una enfermedad muscular, la ataxia de Friedreich, un padecimiento que sufre una persona de cada cincuenta mil en Europa. El grupo de Jean Louis Mandel y Michel Koenig, en Estrasburgo, identificó el gen responsable de esta enfermedad y bautizó a la proteína para la cual codifica, pero cuya función se desconoce, frataxina. Un año más tarde, el equipo de Arnold Munich y Agnes Rôtig, en París, observó una deficiencia en las proteínas fierro-azufre mitocondriales en las biopsias de endiomiocardio de los pacientes con ataxia de Friedreich. Con estas dos claves era posible describir la secuencia fisiopatológica de la enfermedad aunque no se hubiese descubierto la función precisa de la frataxina: acumulación de fierro mitocondrial, pérdida de las proteínas fierro-azufre y sobreproducción de aniones superóxidos tóxicos para las células. Siguiendo esta lógica, se probaron in vitro numerosas sustancias farmacológicas que pudieran intervenir en este ciclo. La vitamina c, que aumenta la producción de fierro reducido, aumentó la toxicidad; el desferral desplazó el fierro responsable de la destrucción de las proteínas fierro-azufre solubles de las membranas, y un agente antioxidante, el idebenone, que no reduce el fierro, protegió a las enzimas, tanto a las solubles como a las membranales. El tratamiento con idebenone permitió mejorar espectacularmente la hipertrofia cardiaca de los tres primeros pacientes tratados, y actualmente, solamente tres años después del descubrimiento del gen, ya se está llevando a cabo un ensayo clínico con más de cincuenta enfermos.
 
Desgraciadamente esto no sucede así para todas las enfermedades. Aunque el gen de la distrofina muscular de Duchenne fue identificado desde hace más de diez años, no se ha podido diseñar una terapia eficaz para los pacientes con este padecimiento. Sin embargo, numerosos trabajos han permitido la consolidación del conocimiento acerca de las proteínas de esta familia. Un equipo inglés encontró una proteína análoga, la utrofina, que se expresa durante la vida fetal debajo de la membrana muscular al igual que la distrofina, pero que desaparece casi totalmente y sólo se expresa en las uniones neuromusculares después del nacimiento. Experimentos con modelos animales mostraron que la utrofina es capaz de reemplazar a la distrofina en el músculo adulto, reforzando así la idea de la existencia de una homología funcional entre ambas proteínas. Uno de los ejes de investigación terapéutica consiste en tratar de estimular la reexpresión de la utropina fetal con el fin de prevenir la necrosis muscular.
Las estrategias terapéuticas derivadas del conocimiento del genoma no se restringen a las enfermedades monogenéticas o cancerosas. También se pueden aplicar para tratar enfermedades inducidas por agentes infecciosos. ¿O no fue acaso el conocimiento del genoma del virus del sida lo que permitió imaginar el eficaz tratamiento con antiproteasas?
 
Una mina de medicamentos
 
Mucho antes de la revolución del genoma los genes ya servían como una fuente indiscutible de proteínas medicamentosas. Gracias a la ingeniería genética y al conocimiento de la secuencia protéica y de su maduración postraduccional —que en ocasiones es esencial para su funcionamiento— ha sido posible desarrollar terapias de sustitución, es decir, la administración de la proteína “sana” para compensar a la que falta o que está mutada. Para obtener una proteína determinada en grandes cantidades se introduce el gen en un organismo, desde una bacteria hasta un mamífero, para que su maquinaria de transcripción y de traducción la sintetice. Esta técnica de síntesis de proteínas es preferible a la de purificación a partir de tejidos animales o humanos que ocasionaron graves accidentes. Entre la larga lista de proteínas que se producen con este método, también llamadas proteínas recombinantes, se encuentran la insulina, la eritropoietina, el factor viii, el factor ix, las enzimas lisosomales, la hormona de crecimiento, las citoquinas y el interferón.
 
En la era de la automatización y de la informatización intensivas, la secuenciación completa de nuestro genoma puede significar la posibilidad de identificar todos los sitios de intervención terapéutica o las moléculas protéicas codificadas por esos genes. En efecto, los genes codifican para las enzimas, los receptores o los canales, que son las proteínas sobre las cuales actúan y actuarán los medicamentos de hoy y del mañana. Un importante esfuerzo industrial ha sido puesto en marcha para identificar moléculas naturales y sintéticas capaces de interaccionar y modular la actividad de estos sitios “blanco”. Se han emprendido varios programas para identificar nuevos moduladores químicos de la expresión génica, en particular, se busca aumentar la actividad específica de los promotores de genes que tengan un interés terapéutico. Este estudio se puede realizar en cultivos de células que contengan en su genoma la región promotora del gen que se quiere analizar acoplada a un gen marcador. De esta manera se pueden probar varios miles de moléculas en cadenas automatizadas, lo que se conoce como highthrouput screening o tamiz de alto rendimiento. La modulación de la expresión del gen marcador se analiza por medio de sistemas ópticos integrados a procesadores informáticos. Una vez que se identifica una molécula activa se estudia su biodisponibilidad, toxicidad y metabolismo. En nuestro ejemplo de la distrofia muscular de Duchenne, una vía terapéutica posible consistiría en buscar moléculas capaces de estimular la reexpresión de la utropina bajo la membrana muscular como en el estado fetal, así como se logró la reexpresión de la hemoglobina fetal por medio de butirato, hidroxiurea y eritropoietina en la drepanocitosis.
Así como la genómica se refiere a la genética en la época de los programas de los genomas, la farmacogenómica es una nueva forma de ver la farmacogenética a una gran escala. La idea subyacente es que el desarrollo de los métodos de estudio genéticos de los individuos permitirá desembocar en una terapéutica personalizada, adaptada a cada caso en función de la sensibilidad individual a los efectos terapéuticos e iatrogénicos de los medicamentos. La fabricación de chips de adn, que inmoviliza en un soporte sólido sondas, permite explorar miles de eventos genéticos en poco tiempo. Por ejemplo, se podrá detectar la presencia de mutaciones activadoras de oncogenes, alteraciones de antioncogenes, modificación de genes de susceptibilidad, etc.
 
El empleo de los chips nos permite esperar que las personas con determinadas afecciones podrán recibir un tratamiento mejor adaptado a la forma etiológica de su enfermedad y de su “acervo genético”, en términos de eficacia y de minimalización de riesgos de toxicidad.
 
La terapia génica: un concepto evolutivo
 
La terapia génica podría definirse de varias maneras, pero tal vez el significado menos restrictivo sea el de la utilización de un gen como molécula medicamentosa. En realidad no es un concepto nuevo, pues en un principio se veía la terapia génica como un transplante de genes al igual que uno de órganos, en donde el órgano sano suple la función del defectuoso, por lo que se pensaba que este tipo de terapia estaría reservado a las enfermedades genéticas. De hecho, además de las afecciones hereditarias, todos los tratamientos de sustitución que emplean proteínas recombinantes podrán ser reemplazados por la transferencia de los genes que codifican para esas proteínas. Además de esta terapia génica de “prótesis”, la perspectiva de poder llevar a cabo una reparación directa de los genes mutados ha dejado de ser ciencia ficción.
 
¿Terapia germinal o terapia somática?
 
La transgénesis, como se aplica para fines terapéuticos en modelos murinos (de ratón) de enfermedades humanas, constituye el arquetipo de lo que llamamos terapia germinal. El gen introducido desde una etapa precoz de la embriogénesis estará presente en todas las células del organismo y, por consiguiente, se transmitirá a la descendencia. En realidad hay muy pocas indicaciones en las que se podría aplicar al hombre, ya que solamente las afecciones dominantes en estado homocigoto, que son excepcionales, se verían beneficiadas por un tratamiento de este tipo. En todos los demás casos una proporción de la descendencia no son portadores de la mutación, y en consecuencia basta con transplantar al útero materno los embriones sanos, en vez de introducir un gen corrector cuyo efecto terapéutico en los embriones mutados es incierto.
 
En cambio, la terapia génica somática busca corregir una mutación o introducir un nuevo gen en un tejido determinado, o incluso en un tipo celular específico, sin modificar la herencia del paciente. Las aplicaciones para este tipo de terapia son muy variadas, y a partir de este momento sólo nos referiremos a este tipo de terapia génica a lo largo del texto.
 
¿Transferencia de células o de genes?
 
De manera un poco esquemática se puede decir que hay dos estrategias distintas para introducir un gen en un organismo: la transferencia directa o la transferencia de células genéticamente modificadas ex vivo, es decir, transformadas fuera del organismo. La estrategia directa, in vivo, parece ser técnicamente más sencilla puesto que consiste en aportar directamente el gen de interés al órgano afectado. Ésta se utilizará preferentemente en los casos en los que se disponga de una vía fácil de acceso al tejido blanco, cuando las células que se quieran tratar no se puedan extraer, o cuando éstas se encuentren diseminadas por todo el organismo. La mucoviscidosis, que afecta sobre todo a las células epiteliales del tracto traqueobronquial, ciertas enfermedades neurodegenerativas, así como la miopatía de Duchenne, son algunos ejemplos en los cuales se podría aplicar la terapia génica in vivo.
 
La estrategia celular, en cambio, consiste en aislar células del paciente, cultivarlas ex vivo e insertarles, generalmente por medio de vectores virales, el gen terapéutico. Esta estrategia se parece a los autotransplantes. Entre las enfermedades susceptibles a ser tratadas por este método y para las cuales los primeros ensayos clínicos, desgraciadamente aún raros, dieron resultados biológicos efectivos, se encuentran el déficit en adenosina desaminasa y la hipercolesterolemia familiar debida a la falta de receptores ldl. En el caso del déficit en adenosina desaminasa, los linfocitos aislados de niños afectados fueron infectados con un vector retroviral que contenía una versión normal del gen y, posteriormente, se volvieron a introducir en los pacientes. Las respuestas inmunológicas de los enfermos tratados mejoraron notablemente de manera durable. En el caso de la hipercolesterolemia, los hepatocitos de los pacientes se aislaron a partir de una biopsia hepática, se pusieron en cultivo y se indujo su proliferación al mismo tiempo que se infectaban con un retrovirus que contenía el gen del receptor ldl. Estos hepatocitos tratados fueron reinyectados a los pacientes por vía intraportal, sin embargo, el tratamiento no resultó muy eficaz. Posiblemente esto se debe a que la técnica, sin duda muy pesada, está además limitada por el número de células que se pueden corregir y reimplantar.
 
Cualquiera que sea la estrategia que se emplee, la directa o la celular, hay que notar que es posible hacer secretar una proteína potencialmente terapéutica a un tipo celular que normalmente no la produce. Esto permite escoger un tipo celular que sea capaz de secretar de manera eficaz una proteína terapéutica, aunque no sea el blanco principal de la enfermedad, lo cual resulta en más posibilidades terapéuticas. De la misma forma, las células modificadas pueden ser reimplantadas en un lugar que no corresponda con el tejido de origen. Por ejemplo, algunos experimentos con mamíferos grandes, como los perros, mostraron que es posible programar fibroblastos para que secreten una proteína lisosomal. Cuando se implanta en la cavidad peritoneal del perro un tejido sintético inerte constituido de fibras de colágeno y factores de crecimiento, llamado organoide, que espontáneamente se vasculariza, los fibroblastos secretan de manera activa la enzima.
 
Medicina regenerativa
 
Uno de los factores limitantes es la necesidad de obtener un buen número de células corregidas para poder generar un efecto terapéutico. Por lo tanto, si se les pudiera conferir alguna ventaja para su proliferación se incrementaría la eficacia de la estrategia. En este sentido, los resultados obtenidos por el equipo de Alain Fisher en el hospital Necker de París en el tratamiento de niños con un déficit inmunológico, son particularmente interesantes. En este caso, la introducción del gen normal en las células hematopoiéticas de los pacientes produjo una ventaja proliferativa a las células modificadas sobre las que residen en la médula. Esto permite explicar la extraordinaria eficacia que obtuvieron con el tratamiento a pesar de que el número inicial de células corregidas era muy bajo. Este concepto de “medicina regenerativa” no se limita al tejido hematopoiético, también se ha demostrado que funciona en el tejido hepático del ratón. Como el hígado posee la capacidad espontánea de regenerarse, es posible, confiriéndoles una ventaja selectiva a los hepatocidos reimplantados, inducir la proliferación de los hepatocitos corregidos en detrimento de los hepatocitos residentes y, de esta manera, asistir a la población progresiva del hígado con células modificadas. Este concepto tendrá, probablemente, grandes aplicaciones en la terapia génica del tercer milenio.
 
Desde la perspectiva del empleo de células con una ventaja proliferativa, las células madre son muy atractivas, ya que constituyen, al menos en teoría, un reservorio casi ilimitado de células diferenciadas potencialmente útiles en terapia génica. Desde algunos años parece que nuestro patrimonio de células madre de hígado, músculo e, incluso, de cerebro, es mucho más grande de lo que imaginábamos.
 
Así, hemos podido observar células neuronales que se diferencian en células hematopoiéticas, células hematopiéticas en hígado o músculo, e incluso hemos podido aislar células de músculo esquelético capaces de colonizar la médula. Este tipo de células parecen adaptar su comportamiento al medio en el que se encuentran, como si fueran una especie de camaleón. Ser capaces de aislar, cultivar y hacer proliferar este tipo de células sin duda permitiría revolucionar la terapia por autotransplante de células, genéticamente modificadas o no, de todos los tipos de afecciones para las cuales la única posibilidad terapéutica es el transplante.
 
Terapia génica aditiva o cirugía reparadora
 
Los primeros esfuerzos de terapia génica fueron dirigidos a las enfermedades genéticas. La adición de una copia normal del gen permite pasar, al menos en los casos de las enfermedades recesivas, de un estado homocigoto que presenta la enfermedad, a un estado heterocigoto fenotípicamente sano. Sin embargo, la necesidad de transmitir el gen a todas las células del tejido afectado por la enfermedad y de que la proteína terapéutica se exprese durante toda la vida del paciente ha restringido de manera considerable la eficacia terapéutica de los ensayos clínicos planeados hasta ahora. Si bien, el concepto es muy elegante, su realización es, por lo pronto, delicada. Otra posibilidad, considerada por mucho tiempo como mítica, se ha abierto recientemente: se trata de la posibilidad de reparar el sitio del gen mutado, como un tipo de cirugía estética. Esta posibilidad, realmente revolucionaria, de poder cambiar la porción mutada de un gen por su contraparte sana, se basa en el hecho de que las dobles hélices de arn-adn son más estables que las de adn-adn. En los casos en los que se conoce la secuencia mutada basta con introducir una secuencia muy corta de arn-adn en las células donde la mutación es deletérea, para corregir la zona mutada. Esta técnica, también conocida como quimeroplastia, tiene la gran ventaja de que no introduce ninguna secuencia exógena al genoma de las células tratadas. Hasta ahora solamente se ha probado en animales pero ya ha dado resultados espectaculares en distintos modelos de enfermedades humanas, como la hemoglobina, donde fue posible corregir 30% de las células hepáticas, o en un modelo de Crigler-Najjar, una hiperbilirrubinemia severa. Sin embargo, es necesario recalcar que esta cirugía sólo se aplica a casos de mutaciones puntuales, ya que no funciona más que para un número muy pequeño de pares de bases, y que en un gran número de enfermedades cada paciente necesitaría su propia terapia.
 
El geneticista que desde hace más de veinte años clona genes e identifica las mutaciones responsables de las enfermedades genéticas sin poder realizar su sueño de repararlas, no podría esperar mejor recompensa a sus esfuerzos que la obtención de resultados equivalentes en humanos.
 
Un resultado promisorio
 
Frecuentemente se le reprocha a las estrategias de terapia génica el hecho de ser extremadamente caras y difícilmente generalizables. A pesar de ello, esta intensa actividad de investigación ha llevado a una aplicación marginal del ámbito de la prevención más que de la terapéutica, que podría revelarse como extremadamente eficaz y poco costosa: la vacunación. En efecto, ahí donde la terapia génica fracasa por causa de la eficacia restringida de la transferencia de genes y por los límites temporales de la expresión, la vacunación por inyección de adn desnudo, que no requiere más que una pequeña cantidad y una expresión transitoria del antígeno, podría constituir una vía futura. La inyección intramuscular de adn desnudo que codifica para los antígenos ha permitido desencadenar una respuesta inmune de tipo celular y humoral. El uso extensivo de este método para la vacunación antiviral en países en vías de desarrollo sería suficiente para justificar todos los esfuerzos emprendidos hasta este momento.
Helène Gilgenkrantz
Jacques Emmanuel Guidotti
Axel Kahn
Institute Cochin de Génétique Moléculaire,
inserm u129, París.
 
Traducción
Nina Hinke
flechavolver58   Regresar al índice artículo siguiente

Está aquí: Inicio Búsqueda Titulo revistas revista ciencias 53 La creación de la Facultad de Ciencias
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License