revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 

 

del herbario        
 
  menu2
PDF  
             
La goma arábiga
 

 
Jaime Jiménez R.
   
   
     
                     

Una cantidad sorprendente de plantas produce carbohidratos complejos, denominados comercialmente gomas. Químicamente las gomas son polisacáridos complejos; algunos son solubles en agua y otros la absorben para formar mucílagos gelatinosos.         

Su valor comercial deriva de numerosos usos, tales como adhesivos (ej. estampillas postales), estabilizadores de pasteles, emulsificantes (en pastelería, confitería, bebidas, lociones y detergentes), texturizadores de fertilizantes y fulminantes de explosivos entre otros. 

La goma arábiga es extraída de Acacia senegal, árbol africano que habita en las regiones secas de Sudán (que provee el 75% de la producción mundial), Mauritania, Senegal, Mali, Nigeria, Chad, Tanzania, Etiopía y Somalia.          

México importa la goma arábiga para elaborar numerosos productos. Destaca su utilización en la industria refresquera, pues los mexicanos son consumidores insaciables de aguas carbonatadas, lo cual puede ser explicado por el dudoso manejo higiénico de aguan elaboradas con frutas o agua potable, aunque, la mercadotecnia de los productores de bebidas espirituosas, de refrescos y frituras envasadas ha desempeñado un papel fundamental en la creación de esta distorsión consumidora.             

Es obvia la importancia de la goma arábiga, pero también se debe contemplar su sustitución por plantas mexicanas, de manera que no salgan divisas en este rubro económico. Así, vale la pena señalar como posibles productoras a las especies del género Prosopis o a Acacia berlandieri entre otras.

 

  articulos  

referencias bibliográficas

Vietmeyer, N. D., (editor), 1984, Tropical Legumes: Resources for the Future, National Academy of Sciences.

     
_____________________________________________________________
     
Jaime Jiménez Ramírez
Facultad de Ciencias, UNAM.
     
_____________________________________________________________
     
como citar este artículo  →
 [En línea]
     

 

 

 

 

 

 

orión        
 
  menu2
PDF  
             
¿De quién es el universo?
 

 
Julieta Fierro
   
   
     
                     

La otra noche escuché en Radio Universidad, durante el excelente programa Debate de Actualidades, conducido por el Dr. R. Méndez Silva, una noticia que me produjo gran inquietud. Como de costumbre era un programa en vivo y se le preguntó a una abogada entrevistada, a quién pertenecía la Luna. Ella contestó más o menos lo siguiente: “Considero que es un orgullo de la legislación internacional que se haya llegado a la siguiente ley: la Luna y los demás cuerpos celestes pertenecen a la humanidad”.

Me gustaría hacer el siguiente análisis crítico de algunas características de la “humanidad”:    

1. Somos una especie que ha estado en guerra casi continuamente desde el principio de nuestra historia, es más, hemos construido tanto métodos sádicos de tortura y aniquilamiento, como armas capaces de destruir este planeta y muchos más.

2. No hemos logrado vivir en armonía con la naturaleza y hemos llegado a la destrucción del equilibrio ecológico.

3. Somos una especie capaz de tomar “medidas políticas”, de tal suerte que no se termine con el hambre, las epidemias y la ignorancia generalizadas.

4. Hemos construido una cultura de la “no satisfacción” en donde lo importante es poseer más y más y no disfrutar y cuidar lo que se tiene. Una cultura de engaño, en donde se vale por lo que se pretende ser y por lo que se pretende poseer y no por lo que se es.            

En este contexto no debería sorprenderme que las leyes que generamos reflejen lo que somos: nos autonombramos dueños de todo el Universo.

Me indigna pensar que no hemos sido capaces de aprender de nuestra historia. Declaramos que la Tierra es para la “humanidad” y no reparamos en extinguir otras especies que la habitan como las ballenas que también son una especie extraordinaria, no sólo en tamaño sino en inteligencia. México es un país víctima de un neocolonialismo que lo tiene ahogado porque: “América es de los Americanos”. Y ahora, con singular alegría declaramos que todos los cuerpos celestes son de la “humanidad”.            

¿Quienes dictan las leyes serán conscientes de lo que dicen? Yo me imagino que la abogada que hizo este comentario se sentía satisfecha de que la Luna no perteneciera a los estadounidenses o a los soviéticos, y no se dio cuenta del peligro de dictar leyes universales. ¿Si hay otros planetas poblados en el Universo nos pertenecerán? ¿Debemos tener el derecho de conquistarlos e imponerles la parte negativa de nuestra cultura?          

Yo creo que abrogarnos la posesión del Universo nos muestra la pequeñez de la humanidad. Creo que los cuerpos celestes no le pertenecen a ninguna especie del Universo y menos aún a la humanidad que ha mostrado a lo largo de la historia su torpeza al pretender poseer a los objetos o a las personas.

 

  articulos  
       
_____________________________________________________________
     
Julieta Fierro

     
_____________________________________________________________
     
como citar este artículo 
 [En línea]
     

 

 

 

 

 
 
  menu2 índice 14  
siguiente  
anterior  
PDF  
   
   
Gary Taubes      
               
               

La conjetura de Poincaré es para los matemáticos lo que Moby Dick fue para Ahab: una obsesión fatal que conduce al desastre

He cometido el pecado de probar falsamente la conjetura de Poincaré, pero hasta ahora nadie sabe nada acerca de esto. John Stalligs (Topólogo)

GARY TAUBES

Conjeturas son lo que los matemáticos llaman a sus suposiciones. Una vez que una conjetura ha sido probada, se convierte en un reto en espera de ser probada, lo cual varios tratarán de hacer. Entre más se trabaja en ella y se falla, más se convierte en una obsesión. Después de un tiempo, no importa si ésta continúa siendo de interés para los matemáticos, sólo importa, que aún no haya sido probada.

A finales del año antepasado, después de que el matemáticos inglés Colin Rourke se convirtiera en la última víctima de lo que se conoce como Conjetura de Poincaré, Dave Gabai del Instituto Tecnológico de California (Caltech) explicó tal obsesión:  

“Para un matemático” afirmó Gabai, quien tiene reputación de resolver problemas que parecen irresolubles, “probar la conjetura de Poincaré significa fama, honor y prestigio”. Y ese es el juego: Will Kazez, su colega, añadió “si alguien la prueba quizás algunos dirán, ‘bueno, ¿y eso para qué sirve?’, pero lo dirían porque no fueron ellos los que la demostraron.       

Los matemáticos hablan de la conjetura de Poincaré igual que Ahab de la ballena blanca. Una vez que se involucran con la conjetura inevitablemente les gana la primera batalla, y se vuelven tan obsesivos con su propósito como Ahab lo fue con el suyo. Dicen: “yo voy a ser el que lo logre” afirma Rourke, —quien sabe muy bien de lo que habla— “y no hacen nada más. Y un buen matemático se pierde en el arroyo”.                        

Considerando que la conjetura es sólo uno de los muchos problemas no resueltos en el campo de la topología, rama de la matemática dedicada al estudio de las propiedades fundamentales de estructuras y espacio, la obsesión parece fuera de lugar.            

La conjetura es tan tentadora quizá porque es fundamental y parece tan sencilla. Pareció simple hace 83 años cuando Poincaré la propuso por primera vez. Una provocación increíble, así lo bautizó un topólogo. Steve Armentrour de la Universidad Estatal de Pennsylvania que ha tratado de probar, sin éxito, que la conjetura es falsa, lo pone de esta manera: “La conjetura de Poincaré requiere no sólo todo lo que uno tiene sino mucho más”.                

A lo largo de muchos años, algunos grandes matemáticos, y algunos no tan grandes, pensaron que la habían demostrado. Y, con excepción de aquellos que murieron antes de que se supiera la verdad, todos tuvieron la oportunidad de arrepentirse de tal afirmación.       

La cuenta exacta de intentos fallidos se desconoce. Cada año varios matemáticos se decepcionan creyendo que han probado la conjetura. Probablemente la mitad de ellos se las arregla para que sus fracasos permanezcan sin conocerse. Un porcentaje menor expone sus pruebas a un colega, o peor aún, lo hace en un seminario. En un número pequeño de casos los errores no se encuentran rápidamente y entonces se vuelven del dominio público, que es lo que le sucedió a Rourke, cuando llegó a Berkeley en noviembre de 1986 para discutir su prueba en un seminario de una semana de duración y éste se volvió el equivalente a un tribunal de la Inquisición. Su supuesto éxito ha sido seguido por varios periódicos y revistas científicas.                  

Además de ser granjero, Rourke, de 44 años de edad, es un hombre alto y afable de la Universidad de Warwick en Inglaterra. Después de obtener su doctorado en Cambridge, era un buen prospecto en topología. Rourke daba clases en Warwick durante marzo de 1985 cuando Eduardo Rego, su estudiante de posdoctorado de 35 anos de edad, le enseñó una prueba de un teorema; Rourke pensó que le llevaría directamente a la conjetura. Ambos trataron de hacer la prueba sin tomar en cuenta el tiempo que otras han empleado para resolver conjeturas. Como lo dijo el topólogo John Morgan de la Universidad de Columbia: “ya había mucha historia en este problema”.

En febrero de 1985 Rourke y Rego creyeron haber obtenido una prueba y así lo hicieron saber. Las respuestas de los matemáticos variaron de cínicas a cautelosamente optimistas. Aún entre aquellos que pensaron que la demostración era válida Rourke no obtuvo popularidad: objetaron que un hombre trabajando con no muy brillantes ideas fuese el que hubiese conseguido la solución. 

Quizás por esta razón muchos topólogos decidieron no acudir al seminario efectuado en Berkeley. Entre los ausentes estuvo Mike Freedman de la Universidad de California en San Diego, quien demostró la conjetura de Poincaré en un caso restringido: el de 4 dimensiones. Freedman, como otros de sus colegas, decidió que si la demostración era incorrecta, dejarían a los demás que expusieran los errores. No obstante, aún Freedman admite que su primera reacción fue de decepción; “bueno, ahí termina el mejor problema” John Stallings, de la Universidad de Berkeley, quien ayudó a probar la conjetura para universos de seis o más dimensiones, —una meta más abstracta, aunque más fácil— rehusó tratar con lo que llamó “una alucinación”. Estuvo solamente en la primera sesión del seminario de Rourke, únicamente con el propósito de hacer un “diagnóstico psicológico”: si Rourke “estaba o no loco”.

Andrew Casson, topólogo de Berkeley, fue al seminario, pero solamente para hacer el papel del Gran Inquisidor ante la herejía matemática de Rourke. Pocos participantes, incluyendo Robion Kirby, el organizador quien creó una técnica llamada Cálculo de Kirby, que Rourke usó extensamente en su demostración, ansiaron un final feliz. Más aún, Kirby consideraba a Rourke como un amigo, pero él había trabajado en 4 dimensiones y no tenía mucha información para la conjetura en tres dimensiones. Algunos otros estaban optimistas pensando que la demostración tenía cierta elegancia y potencial. Pero aún así, llegaron a la inquisición con camisetas con leyendas de “reventar la demostración”.       

En resumen, Hubris estaba por encontrar a Némesis.

Henri Poincaré, el hombre que dejó la conjetura a sus seguidores como una maldición, nació en 1854. Fue profesor en la Universidad de París desde 1881 hasta su muerte en 1912, dominando la matemática de su tiempo. Poincaré fue universalista. Trabajó en todo, desde matemáticas puras hasta física y astronomía, y hacía todo primero en su mente, lo que le dio la reputación de distraído.

Su mayor creación fue la topología, a la que llamó “Análisis Situs”, que fue considerada al principio en forma trivial. Desde entonces ha sido una parte importantísima de la matemática de este siglo.

Los topólogos se ocupan de aquellas propiedades de objetos y espacios que trascienden la geometría. Por ejemplo, para ellos, una esfera puede ser apretada, comprimida o doblada de muchas maneras y sigue siendo una esfera, mientras no se rompa o se le quite un pedazo. Como dice un matemático de Harvard: “supóngase que le damos una pelota, la cual es un objeto topológico. Usted la apachurra en un lado, la jala de otro, la dobla un poco. Le pasa un automóvil sobre ella, y deja a su hijo jugar con ella. Para un topólogo si aún no se ha roto, sigue siendo una pelota”.                        

Los topólogos, siguiendo la broma, no pueden diferenciar una taza de café de una dona. Ambos son ejemplos de lo que se llama un toro: un topólogo puede modificar la primera en la segunda al elevar la depresión interna de la copa y alargar el asa (ver diagrama 1). De particular interés son las variedades, espacios que parecen planos en cierta escala, pero son capaces de ser curvados de manera grotesca en escalas mayores. Esto no es tan extraño como parece si uno considera que la superficie de la Tierra es una variedad (para ser precisos una 2-variedad; a los topólogos les atañe sólo la superficie no su interior). Estando cerca de la superficie ésta parece plana pero de lejos un astrónomo la vería como una pelota.                         

El universo para un topólogo es una variedad tridimensional. Al igual que la superficie de la Tierra, se ve plano desde nuestro punto de vista —la luz parece viajar en línea recta, ya sea desde las galaxias o quásares o de la parte más alta de la Torre Latinoamericana— pero de hecho, podría ser curvada si la pudiésemos ver desde el punto correcto. Tal vez el universo se curva eventualmente en una versión tridimensional de la esfera, o en una dona, o en alguna versión de un nudo marinero; hasta ahora nadie lo sabe.                     

Idealmente a los topólogos les gustaría identificar todas las variedades posibles, incluyendo la forma del universo —lo cual es en realidad la conjetura de Poincaré. En dos dimensiones es relativamente fácil y fue logrado al final del siglo pasado. Pero es más difícil en tres dimensiones. La variedad bidimensional más sencilla es la esfera —la 2-esfera para los conocedores— y hay sólo un tipo. No existen esferas falsas o “exóticas” que llenen las propiedades de la esfera pero que en cierta manera inimaginable no lo son. (Nota del traductor: este problema sí existe en dimensiones altas, por ejemplo 7).                     

Para los topólogos el probar que algo es una verdadera 2-esfero —ya que puede tomar casi cualquier forma— basta con verificar que es simplemente conexa, lo que es más fácil de imaginar de lo que suena. Imagínese una liga de hule mágica colocada arbitrariamente en la superficie de una pelota. Si esta liga se puede contraer en un punto sin dejar de estar todo el tiempo en la superficie, y si esto se puede hacer en cualquier lugar de la pelota, se le llama simplemente conexa. Y esto significo para los topólogos que la pelota debe ser una esfera, aún si está desinflada. Sin embargo, si el objeto tiene un hoyo, por ejemplo una taza de café, y la liga pasa por el asa, sería imposible contraerla a un punto. Entonces no es simplemente conexa y no es una esfera.                 

En 1904 Poincaré conjeturó que lo que era cierto para dos dimensiones también lo era para tres: cualquier variedad tridimensional —el universo, por ejemplo— que fuese simplemente conexa, tendría que ser la esfera tridimensional. (En tres dimensiones los topólogos usan un globo mágico en vez de una liga mágica y la superficie tridimensional es simplemente conexa si el globo, puesto al azar sobre su superficie, puede ser contraído en un punto. Si hubiese algún tipo de hoyo en el espacio, el universo yo no sería una esfera y el globo sería atrapado en el hoya de la misma manera que la liga quedó atrapada en el asa de la taza.)*                              

La conjetura es la pregunta más simple que un topólogo puede hacerse si quiere clasificar todas las variedades tridimensionales. (De hecho llamarla conjetura es un error). Poincaré la propuso como una pregunta. Si M es una variedad tridimensional compacta sin frontera con el primer grupo de homotopía trivial, ¿es entonces M homeomorfa a la esfera tridimensional? Y suena, como a los académicos les gusta decir, intuitivamente obvio. Excepto que nadie ha podido probar que no existen variedades de 3 dimensiones con esas propiedades que no sean esferas, lo que significa que nadie ha probado que la conjetura es cierta. De hecho, tampoco han hallado dichas variedades, lo cual significa que tampoco se ha probado que la conjetura es falsa.                         

En 83 años el único progreso, por así decirlo, ha sido negativo. Nadie ha podido imaginarse qué propiedades puede tener una “esfera tridimensional falsa” que la haga diferente de una verdadera. Como un topólogo dice: “aún si usted tiene esferas falsas frente a sus ojos, ¿cómo sabría que son falsas? Un matemático soviético ha sugerido que un aspecto particular de espacios tridimensionales (conocido como el invariante de Rochlin) de alguna manera podría ser utilizado para distinguir una esfera falsa de una verdadera. En 1985 Casson probó que esta sugerencia no llevaba a ningún lado.                       

Lo irónico en este asunto de Poincaré es que las versiones de mayores dimensiones han sido resueltas. En la primavera de 1960 Stephan Smale, un topólogo de Berkeley que trató de probar la conjetura en tres dimensiones, anunció suficientes veces que era cierta para dimensiones mayores que cinco. En esa época estaba pasando un año en Río y algunos de sus colegas insinuaron que había desarrollado la demostración mientras estaba acostado en la playa, lo cual Smale no refuta. Stallings se enteró de la demostración en Oxford, “después de un invierno jugando ‘turista’”, y encontró otra prueba para dimensiones mayores que seis. Entonces Christoper Zeeman, en Cambridge, probó la conjetura para 5 y 6 dimensiones, y finalmente Smale hizo una demostración para todas las dimensiones mayores que cuatro. En 1981 Freedman anunció su demostración para 4 dimensiones, lo cual Kirby llamó “la mejor pieza de matemáticas de este tiempo”. Freedman de 30 años, había trabajada el problema desde 1974, cuando empezó como profesor en Berkeley y atribuyó su éxito a lo que llamó “arrogancia de juventud”.                      

En retrospectiva este éxito en dimensiones mayores no fue sorprendente. Topológicamente, el universo tiene más espacio al añadir más dimensiones, aunque dimensiones imaginarias al fin. En efecto Smale y Freedman hicieron sus demostraciones al probar que podrían tomar cualquier variedad, no importa que tan extraña y enroscada sea, para simplificarla y compararla con varias esferas y ver si éstas eran equivalentes. Para hacer esto usaron discos bidimensionales como si fuesen pasadores para desanudar una variedad enroscada donde se cruzaba consigo misma.

A mayor número de dimensiones, más espacio había para trabajar. Pero en tres dimensiones (y en menor dificultad en cuatro) el lugar se hace tan apretado que los discos se entrecruzan, lo cual crea más problemas de los que resuelve. La demostración de la conjetura con dimensiones mayores se volvió una clave que condujo a una teoría para su clasificación, que es lo que en realidad buscan las topólogos. Desde 1939 los topólogos aprendieron cómo convivir con la incertidumbre de la conjetura evitándola: si la conjetura era cierta, —decían entonces— esto era cierto, y si la conjetura era falsa, entonces aquello era cierto. La topología tridimensional continuó y dejó la conjetura en el costal. La razón principal de que alguien se desviara de su camino para probarla era porque, bueno, ahí estaba.     

Los predecesores de Rourke en el embate por encontrar la verdad acerca de la conjetura forman una larga e ilustre lista. El gran matemático inglés J. H. C. Whitehead fue el primero en presentarlo públicamente en 1934, después de que lo hizo el mismo Poincaré.                         

Whitehead era famoso por su brillante topología, su política de izquierda y su bien ganada fama de buen tomador. (Como sus estudiantes lo dicen, Whitehead murió a las ocho de la mañana cuando regresaba de un juego de cartas que duró toda la noche en Princeton). Un año después que reveló su prueba él misma encontró su error, publicó una corrección y al siguiente año se retractó.

La conjetura siguió inconquistable hasta los años cincuenta cuando se reanudó el ataque en el Instituto de Estudios Avanzados en Princeton, en particular por un joven matemático griego llamado Christos Papakyriakopoulos. “Papa” —como era llamado—, llegó a los Estados Unidos al final de las años cuarenta, y un día de 1956 anunció demostraciones de los más importantes teoremas en topología. El Lema de Dehn, el de la esfera y el de los lazos.

La mayoría de los topólogos supuso que finalmente habían obtenido —gracias a Papa— la tecnología analítica para atacar variedades tridimensionales y la conjetura de Poincaré. Estaban equivocados, y la conjetura continuó en pie pasado por muy buenos topólogos (de la misma manera que Rocky Marciano pasó por la categoría de los pesos completos: invicto).                           

El primero en caer en el error fue Papa, quien persiguió la conjetura con dedicación monomaniaca rehusando a dar clase —lo que significaba renunciar a un puesto definitivo en la Universidad— porque esto le quitaba tiempo para su propósito. Rechazaba invitaciones a cenar y vivía soltero en un apartamento minúsculo, casi vacío. Cuando murió, en 1976, sus colegas hallaron entre sus pocas posesiones un manuscrito bien pulido de 160 páginas. Era un programa para demostrar la conjetura y clasificar todas las variedades tridimensionales. Al inicio de una página —de acuerdo a Stallings—, estaba escrito “Lema 14” el resto de la página estaba vacío. “Algún día regresaría a demostrar dicho lema” dice Stallings, y “nunca lo hizo”.              

Las siguientes personas fueron dos europeos que se trasladaron a los Estados Unidos, Wolfgang Haken y Valentín Poenaru, ambos del Instituto de Estudios Avanzados de Princeton. Haken fue producto de una educación tradicional alemana. Había empezada su tesis doctoral en un problema relacionado con la conjetura antes de cambiar hacia la teoría de nudos y probar cómo se puede reconocer cuando un nudo está anudado o no lo está.                

Pero su demostración pasó desapercibida; no sólo eran varios cientos de páginas ilegibles, sino que su enfoque no algebraico estaba fuera moda. “Yo no sabía que estaba fuera de moda” y añade “entre más sabe uno, más prejuicios tiene”, “si una persona sabe mucho ya no sirve”. En 1963, su esposa, también matemática, sugirió que si deseaba llamar la atención, debía cambiar de teoría de nudos e irse a la conjetura de Poincaré.                  

Habiendo revisado el trabajo por Papakyriakopoulos, Haken se imaginó que la conjetura “podría ser resuelta de inmediato”.                   

Su rival Poenaru —quien desertó de Rumania en 1962 estando en una conferencia en Suecia y pidió asilo en Francia— se hizo famoso, estando aún en Bucarest, por resolver un problema importante relacionado con bolas de 4 dimensiones. En 1964 se mudó de Harvard al Instituto donde se preparó para atacar la conjetura.       

Ninguno de los dos se había percatado de que el otro estaba trabajando en una demostración. Poenaru anunció su demostración primero en 1964, mientras que Haken daba una serie de conferencias en Alemania Occidental. Cuando Haken oyó que lo habían vencido, se encerró en un cuarto y escribió su prueba y la hizo también pública. Después tuvieron tiempo de hablar y se percataran que sus demostraciones eran casi idénticas y que habían caído en el mismo error.                       

Entonces los dos cayeron víctimas de lo que Haken llamó “Poincaretitis” —una creencia morbosa y obsesiva de que la conjetura puede ser demostrada, combinada con incapacidad de admitir que han fallado—. La causa reside nuevamente en la aparente sencillez de la conjetura. Cuando se hacen errores, también éstos parecen sencillos. Todo lo relacionado con la conjetura parece resoluble, si uno tuviese suficiente tiempo para trabajar los detalles.

Aún en 1970 Haken creyó que podría obtener una demostración: “Los primeros 10 años fueron divertidos” —dijo— “porque casi creí que la tenía. Entonces me deprimí. Cuando tenía una buena idea sentía que tenía la obligación de continuar sobre ella. Pero me tomaba otro año para ver por qué no funcionaba.                    

Finalmente, perdí la confianza y me dije “esto no es vida”. En 1973 Haken se curó de su adicción con la ayuda de una conjetura igualmente famosa, el problema de los cuatro colores* (*dado cualquier mapa plano, éste se puede iluminar con a lo más cuatro colores, de tal manera que dos países vecinos no tengan el mismo color), la cual resolvió con su colega Ken Appel cuatro años después. “Jamás volveré a tratar”, —jura— y añade de manera desconcertante, “a menos que sea para buscar contraejemplos”. Cuando Poenaru reanudó su trabajo en la conjetura, se dice que la esposa de uno de sus colegas comentó, “pobre Valentín ya le picó otra vez el gusanito”.

Tal vez el caso más clásico de Poincaretitis fue el del matemático Andrew Connel, quien empezó a trabajar insistentemente con la conjetura al final de los sesenta. Muchas veces se pensó que tenía demostraciones. Semanas antes de que muriera de cáncer a la edad de 43 años en 1984, Conner anunció otra vez una demostración. Haken y otros cuatro matemáticos fueron asignados a su lecho de muerte para oír los detalles. La prueba era en tres pasos, Haken verificó los primeros dos pero el tercero parecía defectuoso. En ese momento Conner estaba muy débil para discutirlo “no creo que hubiese funcionado” señaló Haken.

Los topólogos exitosos tienden a poseer una facultad altamente desarrollada para la imaginación. Esto es especialmente cierto para los topólogos geométricos, en contraste con los algebraicos, para los cuales la conjetura de Poincaré es de menor interés. La diferencia entre los dos —afirma Freedman— “es que para los geométricos las figuras fluyen en sus mentes en lugar de que las fórmulas lo hagan”. Freedman concluye, “es asombroso que si tu talento se esparce, imagines cosas y sueñes y tengas una ilusión, que haya algo en nuestra sociedad para que estás feliz”. Bendecido con una visión que Freedman encuentra “casi increíble”, Bill Thurston de 40 años, de la Universidad de Princeton, cambió efectivamente el juego de la topología tridimensional a mediados de los 70. El legado de Papakyriakopoulos había sido gastado y Thurston lo reemplazó con lo que se conoce ahora como Representación Geométrica de Variedades Thurston —quien obtuvo su definitividad a los 27 años— es un iconoclasta, “aún para ser un matemático”. Tiene un talento para hacer cosas que parecen locuras y que milagrosamente representan algo” —comenta Morgan—. El mismo Thurston señala: “Creo que las matemáticas son como observaciones. Existe algún mundo matemático que realmente está ahí. Algunos patrones en él se arman de alguna manera. El problema es aprender a ver cómo son”.

En 1976 Thurston contempló variedades tridimensionales desde un punto de vista puramente geométrico, distinto de cómo lo ven sus compañeros topólogos (“un cristal es de cierta forma un objeto geométrico”.) —Dice Freedman— “Una bola de masilla es un tipo de objeto topológico”. En esencia, Thurston estaba diciendo que cada variedad moldeable tiene una geometría preferida, como un manto colgado sobre un marco cristalino que tiene una estructura geométrica exacta. Thurston usó su visión en una conjetura que proponía que cualquier variedades tridimensional puede ser cortada en piezas y cada pieza debe ser uno de ocho tipos de cristal. Dice Larry Siebenmann, de la Universidad de París: “vino del cielo como un disparo”. El trabajo de Thurston, como el de Papakyriakopoulos 20 años antes, tiene le poder teórico que los topólogos pensaron sería necesario para resolver la conjetura. No sólo era elegante sino que también abría la topología hacia la geometría, y ésta tenía lo que los matemáticos llaman “estructura”. “Algunas áreas de las matemáticas son muy ricas en estructuras”. Dice Peter Shalen, topólogo de la Universidad de Illinois: “uno puede ir todo el tiempo de un problema a otro”. Al eslabonarlo con la geometría —dice Shalen—, “Thurston hizo de la topología tridimensional un campo donde uno puede hacer cierto tipo de gimnasia mental que nunca antes había sido posible hacer. Esto a su vez hizo que se introdujeran todo tipo de técnicas”.

La visión de Thurston también se veía como una ruta segura para entender y clasificar todas las 3-variedades, lo cual es lo que él deseaba hacer “creo que la gente ha desperdiciado mucho tiempo tratando de probar la conjetura de Poincaré” y añade “aun cuando se demuestre solamente resolverá un problema sobre una sola 3-variedad: la 3-esfera”.                     

Actualmente la parte demostrada de la conjetura de geometrización de Thurston, llamada teorema de geometrización, no trata todos los tipos de variedades consideradas en la conjetura de Poincaré. “Esta del otro lado de la barda” dice Siebenmann. Otras partes de la conjetura de geometrización lo hacen y si son demostradas (los matemáticos piensan que Thurston lo hará) la conjetura será vencida. “Aún no estoy al final de mi camino” afirma Thurston.                            

En 1980 la mayoría de los topólogos sentían que los tradicionales asaltos frontales serán infructuosos. A algunos, como Freedman y Casson, les gustaría trabajar en el problema, pero saben que no tienen ideas suficientemente poderosas para empezar: “Uno no puede simplemente sentarse y trabajar en ella” dice Freedman. “Se da uno cuenta que la mente está en blanco y uno se pregunta ¿qué es lo que hay que hacer? Dejaría otras cosas si pensara que tengo una buena idea”. La mayoría de los topólogos apostaban que de ser demostrada la conjetura, la solución vendría de Thurston o de otro matemático lo suficientemente joven para no ser influido por los métodos tradicionales.                     

Esto último sucedió en 1983, cuando Freedman usó el trabajo de Simon Donaldson, un estudiante de doctorado de la Universidad de Oxford, para demostrar que matemáticamente hablando existían al menos dos universos de cuatro dimensiones. Esto ha sido lo más sorprendente que se ha demostrado en esa dirección en los últimos tiempos. Donaldson lo hizo posible usando técnicas de Física Teórica, y como afirma Freedman: “parecía una cosa rara asociada a una variedad”.        

Esta fue la novedad que Rourke esperaba cuando desarrolló su demostración sin leer ninguno de los intentos anteriores, para no desviar su creatividad. Sin embargo, sus colegas pensaron que por ignorar la historia, sólo llegó a una edición revisada de la de Haken, con un par de atracciones añadidas que dieron, en palabras de Rourke “mayor fuerza”. El calculo de Kirby, por ejemplo, dio a Rourke un lenguaje con el cual podía comparar dos variedades aparentemente distintas. El estaba seguro que ahí era donde la estrategia de Haken había fallado y la suya no.          

Para sus colegas la prueba de Rourke fue decepcionante. No era elegante. “No se veían saltar pequeños objetos interesantes cuando uno la iba leyendo” afirma Freedman. “En contraste, el trabajo de Thurston está lleno de pequeños pero bellos hechos que uno puede meterse al bolsillo”. El mismo Thurston lo dice de manera más brusca: “No creo que a mí me hubiera gustado hacer esa prueba”.                       

Cuando Rourke llegó a Berkeley en noviembre, su prueba ya había pasado por dos cambios, él mismo halló un error en la demostración, que fue señalado por Haken. Haken encontró otro y se inició toda esa publicidad nunca antes vista.                         

Rourke empezó con una presentación en la prensa, escrita junto con Ian Stewart, un matemático de Warwick y escritor científico, quien ha publicado artículos en el Guardián y Nature. Más tarde ambos escribieron un colorido y largo artículo en el New Scientist. Comenta Stallings, quien no es conocido por cometer errores: “Me imagino que el motivo principal que Stewart tiene es el de atraer la atención sobre las matemáticas, con la esperanza de que el gobierno otorgue dinero. Básicamente las matemáticas son un arte barato, tal vez esotérico, al que se debe subsidiar”. Aparte de todo esto Rourke fue mencionado en el New York Times diciendo que él consideraba la prueba clara y que si muchos matemáticos no habían leído su artículo, era por “pereza”. En retrospectiva comenta: “Estaba tan convencido sobre la demostración, que esperaba ansiosamente una invitación para dar una conferencia sobre ella —lo cual hizo en Berkeley. “Quería hacerse notar” dice Kirby. “Me cae bien el tipo y me habría gustado que tuviese éxito, pero ya que se hizo tanto ruido, pensamos que todo debía de aclararse. Los matemáticos parecían un poco tontos”.                  

La acusación de “pereza”, tocó una fibra particularmente sensible, ya que la mayoría de los que trataron de leer la demostración de 100 páginas no habían logrado hacerlo. Usualmente una demostración rigurosa empieza con teoremas conocidos y después introduce nuevas técnicas, indica qué es lo que se ha hace en casos específicos y finalmente demuestra cómo se puede concluir la prueba pata todos los casos posibles. Pero dice Kazez: “En las últimas cincuenta páginas de la demostrarán de Rourke, no había ningún lema, proposición ni teorema claramente formulados”.                         

Rourke defendió su demostración sosteniendo que estaba escrita como una enorme construcción; describiendo en qué forma: “Haces esto a esto, haces esto otro a esto otro, haces aquello a aquello y entonces terminas checando una lista de cosas”. Sus colegas —dijo— sólo querían algo que pudiese ser dividido en piezas pequeñas y comprensibles, pero su prueba no podía ser así. Pocos se tragaron esta manera de razonar. Un matemático dijo: “teníamos temor a que esta prueba no fuese lo suficientemente clara para estar equivocada”.                       

Los matemáticos en Berkeley también estaban preocupados sobre las reglas que normarían el seminario. La manera en que se desenvolvería el asunto era “o se hallaba un error en la demostración de Rourke en los 5 días que duraba el seminario o regresaba a su casa triunfante. “Esta actitud era completamente equívoca” dijo Stallings. “La responsabilidad de demostrar un resultado matemático es de quien lo afirma”.                        

Aunque Kirby organizó el seminario, el maestro de ceremonias fue Casson, un inglés que inventó las asas de Casson, un artefacto matemático en el que Freedman se apoyó para su demostración en cuatro dimensiones. Se dijo que Casson dejó Cambridge porque la Universidad estaba descontenta por su rechazo a publicar su trabajo. Berkeley fue más acogedora. “El campo es tan pequeño” —afirma un extopólogo de Berkeley— “todos saben que él es bueno y constantemente tiene ideas brillantes. No escribe sus resultados, pero los explica de una manera tan clara, que todos entienden”. Casson ha tratado de resolver la conjetura varias veces y ha terminado entendiendo por qué sus intentos no han dado resultado y los utiliza para señalar los errores en las pruebas de otros.                

Colaborando conjuntamente con Casson estaba Gabai, quien permaneció en la demostración desde el principio. El estaba como profesor visitante en Warwick durante la primavera, cuando Rourke impartía seminarios sobre su prueba. Siendo el único experto en 3-variedades de los alrededores, Gabai se sintió responsable de revisar la demostración y se quedó impresionado.              

"Era extremadamente seductora” —afirmó. Junto con ellos estaba Kazez y Hamish Short, un estudiante de Rourke y dos estudiantes de doctorado bajo la dirección de Kirby.

Gabai trató de convencer a Haken; éste no aceptó, pero sugirió puntos hacia donde Gabai debía dirigir sus sospechas. Cuando Gabai y Kazez llegaron del Tecnológico de California conferenciaron con Casson; el escenario ya estaba listo.                      

El seminario se inició sin tropiezos, Rourke delineó su demostración para dar a la audiencia una idea hacia dónde se dirigía, discutiendo los detalles de cómo llegar al final. Trabajó yendo de un detalle a otro, contestando preguntas tal como se le iban formulando. “La gente mencionaba todo tipo de objeciones menores” —comenta Kazez. “Algunas las contestaba, a otros les decía ‘bueno, tiene usted razón, pero yo no quería decir eso”. Entonces proponía una modificación y continuaba.                          

Para el tercer día dice Gabai, “estaba claro que lo que Rourke había escrito en su manuscrito y lo que nos estaba diciendo era completamente diferente”. La demostración se desenvolvía con cada objeción. Casson continuaba en su papel de fiscal y parecía tener en mente un plan de ataque particular, aunque se culpó por no haber visto el error de Rourke antes. “Sabía qué tipo de obstáculo estaba buscando” —dijo— “lo que no sabía era en dónde encontrarlo”.                        

Al cuarto día Gabai y Casson lo encontraran durante una discusión acontecida la noche anterior, y cernieron la parte problemática. Para evitar el punto en el que Haken se había atorado, Rourke añadió lo que llamo un rompimiento de marbetes en cascada que era considerado su as bajo la manga. Ninguno de los dos confiaba en ella. La tarde siguiente Casson preguntó sobre un diagrama en la parte dudosa de la demostración. Rourke dio una respuesta aparentemente satisfactoria. Poco tiempo después, cuando Rourke trabajaba en un teorema relacionado con éste, Gabai inocentemente pidió que se regresan a un detalle menor “a no ser por eso, todo estaba bien” —dijo Gabai— “sólo quería que lo explicara de nuevo”. Vio el detalle y dijo “Pero si acabamos de romper la cascada” y gritamos ¡ajá!, no puedes romperla, sólo puedes romper marbetes, pero éste es un pseudomarbete o lo que sea, y eso fue el final.

El error resultó ser una reencarnación de otro que Haken expuso seis meses antes y que Rourke pensó que había resuelto. En la última mañana, Rourke llegó sugiriendo que podía remediar el error. La línea frontal compuesta por Kirby, Gabai, Casson y Kazez no acudió y mandaron al segundo equipo, compuesto por dos estudiantes de Kirby, Mike Hirsch y Kevin Walker, para terminar la faena. “Los tipos lo hicieron muy bien, dice Gabai. Estuvieron como mastines tras la presa, directos a la yugular del pobre de Rourke. Se lo comieron vivo”. Comenta Kazez, “al final Rourke admitió que fue un desastre. Dice que está seguro que el manuscrito está incompleto, lo que no es una declaración propia cuando se defiende uno de los problemas más conocidos en matemáticas”. Al día siguiente Gabai envió un telegrama a Thurston vía computadora; su título: “La conjetura de Poincaré destrozada”.                        

Con su prueba y credibilidad por las suelos, Rourke tardó en recuperarse. Estaba, según lo admite, “un poco destrozado y deprimido”. Kirby lo resumió de la siguiente manera: “La conjetura es una proposición de todo o nada. O lo consigue uno todo o nada. Déjenme ponerlo de esta manera, si Rourke fuese montañista estaría ahora muerto”.

Hasta diciembre, Rourke pensó que podía corregir el error. “Es muy tentador” dijo. “La prueba se reduce a detalles técnicos que parecen ser fácilmente resueltos. Kirby tiene razón. Hasta que el último detalle no se ha escrito, no se tiene nada”. Cuando se refirió a que Rourke había contraído Poincaretitis y que trabajaría el resto de su vida en la conjetura, él contestó: “espero que no”.   

Y el latido continúa. Poenaru, quien ahora vive en París, ha circulada el boceto de una prueba de aproximadamente 120 páginas, y la proporción de la demostración es de 20 a 1, lo que hacen 2400 páginas. Esta versión abreviada aún no ha provocado respuesta alguna. “Ninguna revista publicará un artículo de tal tamaño” dice Poenaru, “sin saber que en verdad demuestra la conjetura de Poincaré”. Arthur Evertt Pitcher, un matemático de la Universidad de Lehigh, ha estado circulando el prospecto de otra prueba. Esta versión fue ultimada por Stallings quien dijo: “Fue parecida a la de Poincaré de 1904”. Unos años antes, Armentrout hizo un artículo de 300 páginas probando que la conjetura era falsa. Fue rápidamente derribada por Haken, a lo que Armentrout comenta: “lo hace a uno cauteloso”. Sigue tratando de demostrar que la conjetura es falsa.

 ¿Cómo será recibida la siguiente demostración de la conjetura de Poincaré? Parece ser que dependerá tanto de quién la hace que de cómo es. Como dice Kazez: “Si Thurston dijera que la conjetura ha sido probada y escribe un resumen de una página, todo mundo le creería. Se pelearían por recibir la primera copia del manuscrito”. Y añade riendo sobre su amigo Gabai: “Si David lo afirmase, la gente tendría miedo de leer lo que escribe, pero le creerían. Es una cuestión de credibilidad. Si uno ha estado resolviendo antiguos problemas famosos, entonces la gente lo leería. Y si usted es una persona simple y sencilla y las primeras 20 páginas son interesantes y ha hecho algo novedoso que apasione a sus lectores, ellos lo leerían. De no ser así…”

 ¿Cómo se Podría Probar que el Universo es Tridimensional? Esto es lo que llaman los topólogos, barrer un círculo unidimensional (el círculo formado por los barcos) a través de una variedad bidimensional (la superficie de la Tierra). Si la Tierra fuera una dona podría empezar en un meridiano del este y se reunirían en el mismo meridiano pero jamás en un punto.
A los ojos de los topólogos, Magallanes no probó realmente que la Tierra es una esfera. Lo que hizo fue mostrar que existe una trayectoria larga sobre su superficie que lo regresaba al lugar donde empezó. La Tierra podría tener la forma de una dona y Magallanes no hubiese notado la diferencia. Pero según Bill Thurston, un monarca muy rico puede establecer que la Tierra es redonda sin alejarse de su casa. Imagínese que este potentado, inclinado por la matemática, viva en el polo sur, manda miles de navegantes hacia el polo norte y les dice: “Mantengan contacto visual con sus colegas a ambos lados de su embarcación”. Estos navegantes se esparcirían y viajarían hacia el norte formando un círculo cada vez más largo, al acercarse al ecuador. Al pasar al hemisferio norte el círculo se estrecharía a un punto al llegar todos al polo norte. Al encontrarse simultáneamente, habrían demostrado, topológicamente hablando, que la Tierra era una esfera.  La misma demostración, añadiendo una dimensión, probaría que el universo es una esfera tridimensional. En este caso el monarca manda “astronautas” en miles y miles de naves espaciales. Las naves salen simultáneamente de la superficie de la Tierra, con la misma orden de mantener contacto visual con las naves vecinas y mantener la misma velocidad hacia el espacio en una 2­esfera que se expandería hasta llegar a cierta esfera máxima y después se contraería y llegarían a un mismo punto todas las naves simultáneamente (“El jardín del Edén”) en el lado opuesto del universo como lo llama Thurston. Las naves espaciales dirían a los topólogos que han barrido una 2-esfera a lo largo de una 3-variedad y al hacerlo han probado que ésta última es una 3-esfera.

 

   El mundo torcido de la topología

Los topólogos estudian variedades, superficies que se ven planas alrededor de cualquier punto de ellas, pero de hecho no lo son. Son más fáciles de entender dependiendo de su dimensión.

 

Variedades unidimensionales

 Proyección 

Topológicamente sencilla

Visualmente compleja pero topológicamente igual Más complejas pero topológicamente continúan siendo igual 

El círculo es el elemento más sencillo de la familia. Al igual que las figuras a su derecha, es una variedad unidimensional ya que cada parte se puede proyectar sobre un segmento de recta, la cual es unidimensional.

 Variedades bidimensionales

 

Topológicamente simple
Proyección

Visualmente compleja pero topológicamente igual Más compleja y topológicamente compleja
La variedad bidimensional más sencilla es una esfera, la cual puede ser proyectada sobre un plano. (Parece ser tridimensional pero a los topólogos les interesa nada más la corteza). Si usted pone un lazo sobre ella, al estrecharlo sobre la esfera se convertirá en un punto. Si se hace esto para cualquier lazo en la superficie, ésta se llamará simplemente conexa. En los ejemplos a la derecha de al dona el primero es exitoso pero los siguientes no lo son.  
Variedades tridimensionales  

Proyección

Para describir una variedad tridimensional tenemos que trabajar en una cuarta dimensión que puede ser conceptualizada (apenas) pero no dibujada. La proyección de la 3-esfera, una variedad simplemente conexa, es una familia de esferas concéntricas bidimensionales, esto es, una bola sólida. La conjetura de Poincaré es que la de 3-esfera es la única variedad cerrada simplemente conexa en la familia de variedades tridimensionales.
 
 articulos
 
 
     

Artículo aparecido en Discover, Julio de 1987. Traducción de León Kushner S., profesor del Departamento de Matemáticas, Facultad de Ciencias, UNAM.

* Nota del traductor: Esto significa que el segundo grupo de homotopía sea trivial.

     
____________________________________________________________
     

Gary Taubes

como citar este artículo  →

     

 

del herbario        
 
  menu2
PDF  
             

EL AHUEHUETE

 

El amole o jabón mexicano tradicional


 
Jaime Jiménez R. 
   
   
     
                     

 EL AHUEHUETE

El ahuehuete (Taxodium mucronatum Tec.) es el Árbol Nacional. Esto fue decretado por la votación popular efectuada en 1921 bajo la convocatoria de la Escuela Nacional Forestal. De mesera que es uno de los árboles más conocidos y populares de la flora mexicana.    

El nombre significa en náhuatl “viejo del agua”. Pero si concedemos validez a otras culturas también se llama bochil (Chis.), cedro (Son.), haulí (Son.), matéoco (Chis.), péuhamu (Mich.), quitsincui (Chis.), T-nuyucul (Oax.), y aayitz (Oax.), ndaxinda (Pub. y Oax.), chuche (S.L.P.) y sabino en muchas partes de la República, confirmando así la teoría científica de la existencia de la antigua Torre de Babel.        

Es un árbol de amplia distribución, que crece a la orilla de arroyos o ríos entre 300 y 2000 metros sobre el nivel del mar, así que no es natural del Valle de México. Los árboles aquí existentes fueron plantados en tiempos precortesianos en Chapultepec, Popotla, Tacuba y Atenco (El Contador), para disfrute de la realeza reinante.                    

El ahuehuete más famoso es indudablemente el árbol de la noche triste, donde algunos historiadores creen que Hernán Cortés lloró su derrota a manos de los aztecas (R. I. Alcaraz, N. Zamacois, L. Gándara); en cambio otros lo niegan (A. Chavero) y testigos oculares (B. Díaz del Castillo) simplemente no lo mencionan. Al margen de la polémica, L. Gándara refiere que en 1921 conoció a la Srita. Isabel Enríquez, vecina de Popotla, quien aseguró ser descendiente del IV Virrey de México, Martín Enríquez de Almanza (1568-1580) y a cuya familia fue encomendada la custodia del famoso árbol. Incluso, el padre de esta señorita, José María Enríquez, salvó al árbol del incendio del 2 de mayo de 1872. Gándara señala que el incendio fue intencional, provocado por un individuo de origen español, Martín Mayora, quien molesto por la sombra decidió quemarlo.

El Árbol del Centenario es otro ahuehuete notable y se encuentra en el Paseo de la Reforma. Fue plantado a iniciativa del Sr. L. Ariscorreta y tiene una placa que dice: “La Comisión Nacional del Centenario de la Independencia dedicó este ahuehuete como Árbol del Centenario, el 20 de septiembre de 1910, al terminar la celebración del centésimo aniversario de la Independencia de México”.

El ahuehuete de Santa María del Tule, Oax., es otro árbol famoso, aunque no por motivos históricos sino por el enorme grosor de su fuste (más de 30 m. de perímetro).

Finalmente, vale la pena mencionar que M. Martínez en 1942 señala la existencia de casi 500 ahuehuetes en el bosque de Chapultepec, algunos de más de 200 años de edad. ¿Cuántos viven ahora?, ¿cuánto tiempo durarán los existentes bajo el pisoteo de millones de visitantes y bajo el cambio de la dinámica hídrica del sustrato?

 

EL AMOLE O JABÓN MEXICANO TRADICIONAL

En las culturas prehispánicas de México y Guatemala, el lavado de ropa y el aseo eran realizados con plantas denominadas genéricamente como amolli o amole. Entre tales plantas están Sapindus saponaria, algunas especies de Ipomoea, Stegnospermation halinifolum, Polianthes gemimiflora, Ziziphus sonorensis y algunas especias de Manfreda, Prochnyantes y Agave.     

El uso de Sapindus saponaria y de diferentes especies de Manfreda y Prochnyantes fue (en algunos lugares aún lo es) indudablemente el más generalizado por su amplia distribución geográfica. Sapindus saponaria es un árbol tropical que habita en el país a lo largo del Golfo de México y del Océano Pacífico, además de la Península de Yucatán; su parte útil es el fruto.         

En contraste, las especies de Manfreda y Prochnyantes habitan en las principales cadenas montañosas de México y el altiplano, su parte útil es el rizoma (tallo subterráneo). Hacia 1989 todavía eran muy importantes pues se vendían 6 rizomas por un centavo en Zacatecas o 2 rizomas grandes por 3 centavos en Durango.         

En 1903 J. N. Rose reporta que “las manfredas son las plantas productoras de jabón más comunes del país… su raíz (sic.) está presente en grandes cantidades en casi todos los mercados mexicanos”. Y todavía en 1928 en Texas y México era posible conseguir jabón de amole de marea comercial, preparado de manera tradicional.

 

  articulos  

referencias bibliográficas

1.Martínez, M., 1942, Las Pináceas Mexicanas, ed. Botas.

2.Verhoek, S., 1978, Huaco y Amole: A survey of the Manfreda and Prochnyantes, Econ. Bot., 32:124-130.

     
_____________________________________________________________
     
Jaime Jiménez Ramírez
Facultad de Ciencias,UNAM.
     
_____________________________________________________________
     
como citar este artículo  →
 [En línea]
     

 

 

 

 

 

 

cuento        
 
  menu2
PDF  
             
El orden
 

 
Nada Gadjanski
   
   
     
                     

César soñó que se le había caído el librero, la única forma cuyo contenido valioso tiene orden. Cuatro mil libros arreglados por materias, antropología, ciencias naturales, economía, crítica literaria, antropología, historia, novelas… Las materias subdividas en divisiones de submaterias. Dentro de cada una de ellas los libros estaban arreglados por orden alfabético.            

Se despertó mojado de sudor, buscó sus lentes, se los puso y vio el librero. Ahí estaba, intacto. Suspiró aliviado. Con los ojos trataba de encontrar algo en su recámara que se saliera de esta armonía, algo que tal vez causó la pesadilla. Y estaban ahí, enfrente de la cama. Sintió un estremecimiento por todo el cuerpo al ver las pastas rojas. Se levantó y lentamente tomó los dos últimos tomos de la enciclopedia. Era imposible acomodarlos. Si los pusiera entre los otros libros, el librero perdería su orden. Trató de empujar los libros de la izquierda y luego los de la derecha. No pudo. Con la mano se quitó el sudor de la frente. “Imposible acomodar estos dos”. Se fue pensativo a la cocina, se preparó un café y regresó al librero. Se sentó en el piso volteando ambos tomos, mirándolos y midiendo a la vez el librero con la vista. Tomó un poco de café, se levantó.         

Una hora después todos los libros estaban en el suelo. Otra vez empezó con la antropología, física…

Sentimiento raro… sensación extraña… Muy seguido tengo la impresión de que en mi vientre hay algo que se está moviendo, plegando, como si quisiera serpentear hacia la luz… como si en mi propio cuerpo tuviera un prisionero, un enfermo mental, lleno de polvo, arrugado… Como si hubiese estado ahí durante siglos, desde un principio…            

De repente hago movimientos extraños que no son míos. Los produce este enajenado que está buscando el canal por donde sacudirse de la oscuridad y la humedad de mi vientre. Para tranquilizarlo me pongo a cortar unas figuras de la cartulina negra sin reconocer la forma de éstas, o simplemente no dejo de golpetear sobre la máquina de escribir, como lo estoy haciendo ahora. Hay veces en que me domina completamente. Cuando no puedo más, cuando siento que me está venciendo y me encuentro en el suelo en una convulsión desesperada, y pienso: ¡me quiere salir por la cabeza, por las orejas! Los gritos lanzados al vacío, a la atmósfera a insensible a ellos me serenan… Mis propios gritos y aquellos que lanza esto que no soy yo, sino la materialización de esta fuerza fuera de mis poderes, relámpagos, truenos, los dibujos luminosos y reflejos de miles de colores que me (o… nos) impresionan y calman. Mi prisionero se duerme entonces, iguala una criatura, contento, beato. Se agita suavemente en mi interior como en una cuna de líquido.

Yo no soy creador, soy perceptor y transmisor de la agitación y convulsión de mi criatura… y para liberarme… ¡tanto quisiera poder darle luz!

  articulos  
       
_____________________________________________________________
     
Nada Gadjanski

     
_____________________________________________________________
     
como citar este artículo  →
 [En línea]
     

 

 

 

 

R14Articulo04   menu2 índice 14  
siguiente  
anterior  
PDF  
   
   
Guillermo Grabinsky S.      
               
               

El problema de medir figuras geométricas tiene un origen
muy antiguo, aún más que el de la historia escrita del hombre. El primer método conocido es el llamado “método de exhausión” introducido por Eudoxio de Cnidus (400-347 A.C.), ampliamente desarrollado por Arquímedes (287-212 A.C.) y posteriormente ignorado. No fue sino hasta principios del sigo XIX que con la ayuda de los nacientes métodos analíticos es nuevamente examinado, junto con el problema de integración al cual está ligado y cuyo desarrollo a partir de entonces intentaremos narrar.   

A. K. Cauchy en su libro “Calcul Infinitesimel” (1823) utiliza el concepto de límite para poner por primera vez el concepto de integral de una función en un contexto puramente analítico, retomando el método de Eudoxio como sigue:

Sean ƒ: [a,b] → \mathbb R+ una función acodada y a= x0 < x1 <...< xn =b puntos que subdividen a [a,b] en n subintervalos cerrados. Se define la suma de Cauchy (hoy llamada suma de Riemann) como la expresión: Entra fórmula 03 donde tk ∈ [xk, xk+1] .  

 Al límite de estas sumas (si existe y es independiente de los puntos tk) cuando la longitud del mayor subintervalo tiende a cero, es por definición la integral de ƒ en [a,b] denotada:

Entra fórmula 05

El mismo Cauchy proporciona una demostración incompleta de la existencia de la integral para el caso en que f sea continua, demostración que completa J. G. Darboux (en 1875), al introducir la suma superior e inferior (de Darboux) dadas por las expresiones:

 Entra fórmula 06

 

con

Entra fórmula 07

Tomando el límite cuando la longitud del mayor subintervalo tiende a cero se obtiene la integral superior e inferior de Darboux (respectivamente) y se dice que f es Riemann integrable si y sólo si la integral superior coincide con la integral inferior es cuyo caso el valor común se define como la integral de Riemann de f.       

Se dedicó una cantidad considerable de trabajos para encontrar condiciones necesarias y suficientes sobre el conjunto D de discontinuidades de una función acotada f que garanticen la integrabilidad de Riemann. Al principio se pensó que ello dependía solamente del comportamiento de f en los puntos de D, hasta que en 1903, G. Vitali demostró que la integrabilidad de f depende exclusivamente de la naturaleza de D (pág. 146(2)); hecho que a primera vista resulta sorprendente.         

Durante la misma época fueron estudiadas también las series trigonométricas y en particular se investigaron algunas condiciones suficientes para la convergencia de las series de Fourier de funciones periódicas, cuyos coeficientes se obtienen calculando las integrales:

 Entra fórmula 08

En este ámbito y en casi todas las ramas del Análisis, es de suma importancia el problema de justificar la integración término a término de los sumandos de una serie de funciones que converge pero no necesariamente de manera uniforme. P. du B. Reymond probó en 1883 que en el caso en que la serie de Fourier sea la de una función continua, ésta puede ser integrada término a término, lo cual mostró que en una clase de ejemplos muy importante tal resultado era válido (pág. 111 (2)). Se realizaron esfuerzos adicionales para resolver este problema con el fin de encontrar condiciones generales que permitieran este procedimiento, sin embargo la integral de Riemann resultó ser poco útil ya que el límite no uniforme de funciones Riemann integrables puede no serlo. El teorema de Arzela-Osgood (1898) sobre la convergencia acotada es el mejor resultado de este tipo (TEO 22.14 pág. 288 (1)).

Por otro lado, estudiando la estructura de los conjuntos de unicidad para series trigonométricas, desde 1870, G. Cantor introduce las nociones básicas de la teoría moderna de los conjuntos; teoría que no sólo revolucionó el enfoque y el lenguaje del problema de medida e integración sino todas las áreas de las Matemáticas. La retroalimentación entre la teoría de la integración y la de las series trigonométricas es el perfecto ejemplo de como los problemas y avances en un área enriquecen a otra (5).

Los primeros intentos modernos por asociar un valor numérico llamado medida (longitud, área o volumen) a la mayor cantidad de objetos geométricos A se deben a A. Harnack, O. Stolz y G. Cantor (1884-1885) (págs. 61-70 (2)). Estos fueron infructuosos pues sólo proponían aproximaciones para A por afuera, asignándole el ínfimo de las sumas de las medidas ordinarias de objetos más simples, como intervalos o celdas cuyas uniones finitas cubren a A. Parte esencial del fracaso fue que dicha asignación no resultaba ser aditiva, propiedad aceptada como básica para una medida. Dicha falla fue reconocida por G. Peano y C. Jordan quienes introdujeron aproximaciones por fuera y desde adentro de A, llamadas “el contenido exterior” y “el contenido interior” de A respectivamente. Cuando ambos valores coinciden lo definen como el contenido (Inhalt) de A. Dicho concepto sin embargo, posee todavía un valor limitado, ya que a conjuntos tan comunes e importantes como el de las racionales no se les puede asignar un contenido (2) (Si A 5 Q ∩ [0,1] entonces el contenido exterior de A es igual a 1, mientras que el contenido interior es igual a cero).

E. Borel ataca este problema para subconjuntos de R extendiendo primero la longitud ordinaria de intervalos a abiertos más generales, basándose en que todo conjunto abierto es la unión numerable y disjunta de intervalos abiertos, y asignándole la suma de las longitudes de los intervalos que lo conforman, la cual puede muy bien ser infinita. Mediante iteración indefinida y al mismo proceso de extensión, obtiene una medida s2 aditiva sobre la clase, llamada hoy en día, de conjuntos de Borel.         

El paso decisivo es dado por H. Lebesgue en su tesis doctoral “lntegrale, longeur, volume” (1902) en la que combina las ideas de sus predecesores Jorden y Borel, sabe que en las aproximaciones utiliza cubiertas numerables en lugar de cubiertas finitas tanto para subconjuntos de R como de Rn. A continuación define la integral (de Lebesgue) de funciones no negativas como el “área” del conjunto ordenado inferior cuando este conjunto es medible en el sentido de Lebesgue y que en evidentemente es la afirmación correspondiente a la poco formal, pero muy sugestiva, de que la integral en el “área bajo la curva”.

Las ventajas de la nueva integral fueron reconocidas de inmediato y aplicadas primero al estudio de series de Fourier por el mismo Lebesgue, P. Fatou, N. N. Luzin y A. Denjoy, por mencionar sólo algunos, extendiendo cada uno de los resultados (5). Además de ampliar la familia de funciones susceptibles de ser integradas, la nueva integral posee una propiedad fundamental que no comparte con la integral de Riemann, que es un teorema muy general de convergencia monótona, y su corolario el teorema de la convergencia dominada (pág. 128 (2)).                   

Los trabajos de M. Frechet, en 1915 y de K. Caratheodory, en 1915 abstraen los conceptos de Lebesgue y los desligan de su origen en espacios euclideanos, así como del marco topológico, para estructurar una teoría axiomatizada de la medida de integración en la cual sólo se considera un conjunto no vacío X, una familia especial de subconjuntos de X llamada una s-álgebra, una medida definida sobre dicha familia y las fusiones que son medibles (4). Este mismo marco es usado en la teoría moderna de Probabilidad, en la que X es el espacio de muestras, la s-álgebra es la familia de eventos y una medida de probabilidad sobre ella. Las funciones medibles corresponden a las variables aleatorias.         

El estudio de funciones absolutamente continuas (i.e. integrales indefinidas de funciones integrables) iniciada por G. Vitali en 1905, así como la teoría de diferenciación de éstas, son extendidas por M. J. Radon y O. Nikodym (4) a espacios abstractos de medida y constituye hoy en día una herramienta básica en la Teoría de Probabilidad (teoría de martingalas, por ejemplo).                    

Otro enfoque usado en el problema de la integración es el de W. H. Young (1911) y especialmente el de P. J. Daniell (1917-1918), ambos influidos sin duda por el desarrollo del Análisis Funcional, que consiste en tomar a la integral como el concepto fundamental y considerarla como una funcional lineal, no negativa, con la propiedad de la monotonía (correspondiente al T. C. M. de Levi) y definida sobre un espacio vectorial V de funciones acotadas, que además es cerrado bajo toma de máximos y mínimos.

Mediante un procedimiento de extensión se obtiene una nueva integral para la familia W de límites no decrecientes de elementos de V. A continuación si -W denota la familia de funciones - f con f  W, entonces se define ∫(- ƒ)=-∫ƒ con la intención de preservar la linealidad. Finalmente, dada una función arbitraria ƒ, se le aproxima mediante funciones g  - W y h  W, tales que g < ƒ < h y se define la integral de ƒ en el caso de que el supremo de las integrales de las g  - W coincida con el ínfimo de las integrales de h  W y el valor común se le llama la integral de Daniell de ƒ (3).

En el caso especial de la integral de Lebesgue en un intervalo [a,b], se empieza con V igual al espacio de funciones continuas definidas en él. Para este caso W consiste en las funciones semicontinuas inferiormente y -W en las funciones semicontinuas inferiormente y la clase de funciones que resultan ser integrables con el método de aproximación descrito coincide con la familia de funciones que son Lebesgue integrables.

En años recientes el panorama se vuelve más abstracto todavía, ya que se consideran funciones o medidas tomando valores en un espacio vectorial normado en el que el concepto de orden pierde sentido (un ejemplo elemental es el de funciones o medidas complejas) y así, las integrales son vectores también. Algunos de los métodos y resultados válidos para la integral de Lebesgue se generalizan para esta nueva integral (llamada la integral de Bochner (1933)), mientes que en otras es necesario usar métodos sofisticados del análisis funcional (v.gr. resultados que corresponden al de Radon-Nikodym) ¿Cuál será el siguiente nivel de abstracción? Lo desconozco, aunque creo que al tema le resta todavía mucha cuerda. 

 
 articulos
 
Referencias bibliográficas

1. Bartle, R. G., 1964, The Elements of Real Analysis, Wiley.
2. Hawkins, T., 1977, Lebesgue Theory of Integration, It´s origins and Development, Chelsea.
3. Loomis, L. H., 1953, An Introduction to Harmonic Analysis, Van Nostrand.
4. Saks, S., 1964, The Theory of the Integral, Dover.
5. Zygmund, A., 1959, Trigonometrical Series Vol. 1, Cambridge.

     
____________________________________________________________      
Guillermo Grabinsky S.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     

como citar este artículo  →

     

 

orión        
 
  menu2
PDF  
             

El pulsar más veloz

 

Supernova en la nube mayor de Magallanes

 
Julieta Fierro
   
   
     
                     

 EL PULSAR MÁS VELOZ

Una de las propiedades comunes a todos los cuerpos celestes es la rotación. La Tierra gira sobre su eje cada 24 horas, Júpiter cada 10 horas, y el Sol cada 28 días. Los pulsares son los objetos estelares en los que se he medido la mayor velocidad de rotación. Son los restos de algunas estrellas en sus últimas etapas de evolución y están constituidos exclusivamente por neutrones. Tienen campos magnéticos muy intensos, sus masas son parecidas a la del Sol, pero sus radios son de unos cuantos kilómetros.               

Hasta ahora, la marca de mayor velocidad de rotación la tenía PSR 1937 1 21, un objeto ultradenso y diminuto, que efectúa millones de revoluciones durante el tiempo que se lee esta oración: su período de rotación es de 1.6 milésimas de segundo.            

El nuevo pulsar, llamado GX 339 2 4 fue descubierto por el Dr. Imamura, de origen japonés; completa una vuelta en 1.13 milésimas de segundo, es decir, da 885 vueltas sobre su eje cada segundo. El estudio de este objeto nos permitirá conocer mejor la estructura de la materia superdensa.

 

SUPERNOVA EN LA NUBE MAYOR DE MAGALLANES

Probablemente uno de los eventos esperados con mayor interés en el mundo de la Astronomía es la explosión de una Supernova cercana.

Las estrellas masivas terminan su evolución con un estallamiento violento, en que arroja al espacio la mayor parte de la materia que las constituye. La parte interior de la estrella puede implotar y formar un agujero negro o una estrella de neutrones. Durante el estallamiento de una Supernova se sintetizan los elementos químicos más pesados, que al integrarse al medio interestelar, formarán más tarde las nuevas generaciones de estrellas. Además, durante la explosión de una Supernova se espera que se produzca un fuerte flujo de neutrinos (partículas neutras con masas cercanas a cero, que viajan a velocidades cercanas a la de la luz y que prácticamente no interaccionan con la materia), además de ondas gravitacionales.               

Durante la noche del 23 al 24 de febrero de 1987, el astrónomo Ian Shelton descubrió una Supernova en la Nube Mayor de Magallanes. Es la primera Supernova brillante visible a simple vista, desde la Supernova que observó Kepler en 1604. Las Nubes de Magallanes son dos galaxias enanas, satélites de la Galaxia a la que pertenece el Sistema Solar, cada una de ellas tiene aproximadamente mil millones de estrellas.

Shelton es asistente del telescopio de 60 pulgadas del Observatorio Canadiense de Cerro las Campanas en Chile. Tomó una muy buena fotografía de la Nube Mayor de Magallanes la noche previa y la misma noche de la explosión. Su conocimiento de esta galaxia es tan bueno que pudo encontrar una estrella “nueva” entre miles. Le fue sumamente difícil reportar a la prensa astronómica su descubrimiento debido a que estaba descompuesto es radio del observatorio y fue necesario mandar un vehículo a la estación telegráfica más cercana. Nunca antes se había observado una Supernova en instantes tan cercanos a su estallamiento.

En la Tierra, la Supernova sólo se pudo observar ópticamente desde el Hemisferio Sur y lugares del Hemisferio Norte cercanos al Ecuador. En cuanto se detectó, cientos de astrónomos de todo el mundo se dedicaron a observarla en todas las frecuencias de radiación electromagnética a su alcance: rayos X y gama, luz ultravioleta, visible e infrarroja, microondas y ondas de radio. Pero además, el hecho de que la Supernova haya sido tan brillante permitió que, por vez primera, se realizaran observaciones muy detalladas.             

Se registraron pulsos de neutrinos y de ondas gravitacionales provenientes de la Supernova, desfasados entre sí por algunas fracciones de segundo, lo que permitiría calcular la masa de los neutrinos.

Se llevó a cabo la medición de la composición química detallada de la materia arrojada al espacio durante la explosión, que ayudará a entender mejor la rapidez con la que el medio interestelar de la Nube Mayor de Magallanes se enriquece de elementos pesados.               

Las explosiones de Supernova se utilizan para calibrar las distancias a las galaxias lejanas, pues si se supone que las que ocurren de manera semejante son de aproximadamente la misma intensidad y emiten cantidades de luz similares, su brillo aparente permite medir sus distancias. Entre más débil se observe el estallamiento de una Supernova, más lejana será la galaxia en donde se encuentra.        

Resulta que la Supernova de Shelton fue mucho más débil de lo que se esperaba teóricamente, esto quiere decir que no todas las explosiones de Supernova son iguales y que hay que tener mucho cuidado al utilizarlas como patrones luminosos para obtener distancias.

  articulos  
       
_____________________________________________________________
     
Julieta Fierro

     
_____________________________________________________________
     
como citar este artículo   →
 [En línea]
     

 

 

 

 

 

 
 
  menu2 índice 14  
siguiente  
anterior  
PDF  
   
   
Rosaura Ruíz G.       
               
               

A partir del libro de H. F. Judson, El Octavo día de la creación, he aquí narrada la historia de las múltiples conjeturas e intentos por descifrar la estructura del código genético.

El octavo día de la creación es sobre todo una narración del surgimiento de conceptos (como gen, cistrón, codón) de una ciencia (la biología molecular); de términos (el porqué de la utilización de la palabra código en lugar de cifra o clave o la palabra degenerado para referirse a la codificación por más de un triplete para determinados aminoácidos). Es también una descripción de las personas, nos habla por ejemplo de las grandes capacidades de teorización de Jaques Monod y Francis Crick, (sin lugar a dudas los teóricas más destacados en la biología molecular), del rechazo de este último por la experimentación, de la prodigiosa capacidad de Francois Jacob para planear las experimentos necesarios para encontrar evidencias a una concepción, de la petulancia aunada a la creatividad de James Watson, de la genialidad de Linus Pauling.                                          

Da cuenta también de la mezquindad que a veces se genera en esta área donde se han presentado las más recientes y más intensas competencias científicas; por ejemplo la emoción que sintió Watson cuando demostró los errores del modelo de triple hélice que Pauling propuso, el cual, además de no explicar nada, tenía errores de química básica en cuanto a la estructura del ADN; “los enlaces de hidrógeno que sostenían la triple hélice de Pauling desde el meolio eran un sin sentido químico. Requerían que los grupos de fosfato llevasen hidrógeno suplementario para hacer conexiones P-O…H-O-P, cancelando las cargas eléctricas locales, al punto de que el ácido nucleico de Pauling, en cierto sentido, no era ningún ácido”. Esta demostración provocó en Watson el placer de que “un gigante se hubiera olvidado de la química escolar elemental”.                                          

A las feministas les interesará saber que en este libro se mencionan también las situaciones desventajosas que las mujeres, particularmente en Estados Unidos, aunque no tanto en Francia, padecieron al escoger como área de trabajo la bioquímica o la biología molecular, como las casos de Rosalind Franklin y Barbara MacClintock. A pesar de no ser propiamente un análisis al estilo de alguna escuela epistemológica, menciona determinadas circunstancias que favorecieran el rápido avance de la biología molecular, entre ellos el impacto que tuvo la lectura del libro de Schrodinger What is life? en las mentes de varios físicos entre ellos Wilkins, Delbruck, Benzer y Crick, quienes se convencieron de que los seres vivos podían ser explicados en términos que no contradijeran o superaran los lujos físicos o introdujeran a la biología métodos propios de la física. Igual convencimiento llevó a Monod a la biología aún antes de leer a Schrodinger.

Hay fundamentalmente tres cuestiones que trata este libro: la elucidación de la estructura y la función del material genético, el desciframiento del código genético y la solución al problema de la estructura y la función de las proteínas. En lo personal me interesó sobre todo el segundo problema, el desciframiento del código genético por el papel que el trabajo teórico-deductivo jugó en el éxito de tal empresa. De manera breve, dado que el libro tiene más de 800 páginas, con el fin de interesarlos en su lectura haré una síntesis de la forma en que se logró entender, cómo se expresan los genes.                                      

En abril de 1953 apareció en Nature el artículo en el que Watson y Crick, polemizando con Pauling, presentan su modelo de doble hélice para el ADN. En mayo del mismo año apareció el segundo artículo de estos autores, en el que analizan la significación biológica de la estructura del ADN y plantean que “la secuencia precisa de las basas es el código que lleva la información genética”. George Gamow, físico teórico de Washington, D. C., famoso por haber propuesto el Big Bang (el estallido primordial, la teoría de la bola ardiente primigenia para el origen del universo) lee ambos artículos. Gamow también conocía ya los últimos resultadas de Frederik Sanger sobre la secuencia de aminoácidos de la insulina bovina (primera secuencia conocida). De manera sorprendente Gamow relacionó las dos cuestiones y sugirió un esquema para explicar cómo la secuencia de bases púricas y pirimídicas del ADN podía ordenar directo y físicamente la estructura secuencial de las proteínas y se los envió a Watson y Crick. Crick relata que el esquema de Gamow fue decisivo porque lo obligó a pensar en el problema de la codificación.      

 

 
Linus Pauling en una manifestación antinuclear. 

                  

Si los genes eran ADN, escribía Gamow, y el ADN era un par de cadenas juntas, formadas por sólo cuatro clases de nucleótidos y unidos por las bases apareadas, entonces todas las propiedades hereditarias de cualquier organismo viviente pueden ser caracterizadas por un largo número escrito en un sistema de cuatro dígitos que contiene muchos miles de dígitos consecutivos. Como había 20 aminoácidos, o algunos más, que se encontraban comúnmente en las proteínas, la cuestión era buscar cómo esos largos números basados en cuatro eran traducidos a esas palabras basadas en veinte.                                 

Gamow infirió directamente de la estructura del ADN (no se conocía el ARN mensajero) la clave: sugirió que las combinaciones de las bases formaban agujeros de diferentes formas en los que encajarían específicamente determinados aminoácidos. El esquema de Gamow tenía fallas evidentes, no conocía en absoluto los datos que manifestaron la participación de ARN en la síntesis de proteínas, ni siquiera los testimonios de que éstas eran fabricadas en el citoplasma. Cuestiones que se desprendían de investigaciones de Brachet (1942) y Caspersson (1940) donde mostraran que la síntesis de proteínas iba siempre asociada a abundancia de ARN y que éste estaba localizado en el citoplasma, mientras que el ADN estaba confinado al núcleo celular.                                            

Los resultadas de Brachet demostraron que los gránulos de ribonucleoproteína son estructuras preexistentes en la célula viviente, dentro de la cual ejercen importantes funciones fisiológicas. “Cuando se aíslan gránulos de eritrocitos, resulta que contienen una pequeña cantidad de hemoglobina, los gránulos pancreáticos contienen insulina. Estos hechos apuntan a la siguiente hipótesis: los gránulos de ribonucleoproteína bien pudieran ser los agentes de la síntesis de proteína en las células”.                       

Monod señaló después que “no se hubiera podido pensar en serio en el código genético mientras no se reveló, por principio de cuentas, que una proteína es sin lugar a dudas un polipéptido y que los aminoácidos en verdad están dispuestos en una sucesión genéticamente determinada, constante y definida —sucesión (esto es lo más importante) sin ninguna regla por la cual pudiese determinarse a sí misma. O sea que debe haber un código, esto es, instrucciones completas expresadas de alguna manera que ordenen como existir”. Recordemos, agregó Monod, que por aquellos días los bioquímicos conjeturaban que había reglas generales de armado, que un polipéptido estaba hecho de una sucesión repetitiva de aminoácidos, por ejemplo: lisina, ácido aspártico, glutamina, treonina, repetidos cuantas veces se quiera. Aquello hubiera sido una regla química como la de los azucares que formen los polisacáridos.                                                

El descubrimiento de Sanger revelaba una secuencia que carecía de regla, que estaba llena de información, en ningún lugar redundante, en ninguna parte predecible a partir de otros lugares. De ahí la necesidad de un código, pues ya era evidente que las proteínas no se determinan a sí mismas. Antes de la solución final se presentaron otras hipótesis alternativas. Entre ellas la de Sir Cril Hinshelwood, de Oxford: “En la síntesis de proteína, el ácido nucléico, por un proceso análogo a la cristalización, guía el orden en el que varios aminoácidos son depositados, en la formación de ácidos nucléicos sucede lo contrario”.                           

Dounce planteó en 1952 que el ARN debiera ser el molde para las proteínas y el ADN el molde del ARN. Señaló de manera rotunda que el orden de los aminoácidos en cada proteína específica deriva del orden de los nucleótidos en el ADN. Dounce fue el primero en plantear que el código debería ser de tripletes.

 
Rosalind Franklin en 1950, antes de que iniciara su trabajo con ADN.

Estos planteamientos teóricos requerían de evidencia experimental. A principio de la década de los 50 muchos bioquímicos y biólogos moleculares trataban de lograr la síntesis de proteínas fuera de la célula. El grupo de Paul Zameniche, del Massachusetts General Hospital, tuvo la idea de poner varias combinaciones de componentes y 27 jugos celulares en ausencia de células vivas, y entonces agregar aminoácidos marcados para ver cuál mezcla formaba proteínas. Pasaron a la historia porque lo lograron con sus experimentos en hígado de rata fresco, picado y homogeneizado. Después de centrifugarlo les quedaba un líquido que contenía núcleos, fragmentos de retículo endoplasmático y de otras estructuras celulares, ADN, ARN, abundantes enzimas y sustancias desconocidas. Esta mezcla podía separarse en otras fracciones ultracentrifugando una o más veces a velocidades muy grandes. Podían recombinarse fracciones escogidas. Podían suministrarse aminoácidos en diferentes combinaciones. Podían ser destruidos el ARN o el ADN por adición de enzimas adecuadas. Era entonces posible introducir ácidos nucléicos de procedencia y carácter conocidos. Los efectos eran seguidos con gran detalle cuando una u otra sustancia estaba marcada con isótopos radioactivos.                        

Beymour Benzer del grupo del fago, junto con Luria y Delbruck fue quien inventó lo que debía ser el camino más directo para entrar en la relación entre gen y proteína: hágase el mapa del gen, determínense las secuencias de las proteínas correspondientes de los mutantes para averiguar en que aminoácidos difieren, y compárense. De esta forma demostraría la colinealidad entre proteínas y ácidos nucléicos. Benzol llevó así el mendelismo a nivel molecular logrando su objetivo con el bacteriófago llamado T2, perteneciente al conjunto de fagos rII (recordemos que fue quien elaboró los conceptos de gen como cistrón, recón y mutón).                                

De manera por completo teórica, sin ninguna evidencia experimental, Crick (más o menos en 1954) concebí[o que tenía que haber un género de molécula pequeña que tuviese dos puntas. Una se vincularía a un aminoácido específico y la otra se acoplaría al ácido nucléico. Así separaba el problema de la captación de aminoácidos del de su ordenación. Brenner propuso que se llamara adaptador a esta molécula. Se demostró posteriormente su existencia y se reconoció que se trataba de ARN. En el laboratorio de Zamecnik se descubrió que, en efecto, era el transportador de aminoácidos, y Benzer y Limpmann probaron que era el ARN quien hallaba el lugar que le correspondía al aminoácido en la proteína.                    

Dos veces más, escribe Judson, se consumaron proezas intelectuales análogas: postular por necesidad teórica una nueva entidad bioquímica. La siguiente vez fue cuando Jacob salió del callejón ciego genético que requería la existencia de la molécula del represor y la última, cuando las ideas de Jacob y Monod chocaron con las de Crick y Brenner y fue convocada la molécula del mensajero.

Los últimos años de la década de los 60, Jacob y Monod anunciaran la teoría de la regulación del gen: una molécula que llamaban “represor”, bloqueaba el ADN impidiendo al gen ser leído hasta que la necesidad de la célula, por la proteína particular inscrita en el gen, hacía que el represor fuese desactivado y se elaboraba el mensajero. El mismo Crick se manchó las manos en el laboratorio, escribe Judson y realizó algunos experimentos con Brenner y el bacteriófago, a fin de mostrar que el código genético era leído en grupos de tres nucleótidos sin traslapamiento, especificando cada triplete un aminoácido de la cadena polipeptídica.                                  

Un famoso experimento proporcionó la solución a dos grandes problemas. Se trata del experimento PaJaMo (Pardec, Jacob, Monod) que tuvo gran impacto en París, donde fue realizado, y fuera de Francia. En París enderezó la lógica de la regulación de la síntesis de enzimas que Monod venía investigando y llevó a una teoría general del represor y de grupos de genes controlados en conjunto, que se llamarían el operón: “La hipótesis del operador implica que entre el gen clásico, unidad independiente de función bioquímica, y el cromosoma entero, existe una organización genética intermedia. Esta comprende unidades coordinadas de expresión (operones) constituidas por un operador y el grupo de genes estructurales coordinados por éste” (Jacob y Monod, 1960).

Más allá de la fronteras, el experimento PaJaMo acabó con el freno a la comprensión de Crick y Brennen, de cómo la información de la serie de bases del ADN llegaba a expresarse en forma de una secuencia de aminoácidos en proteínas conduciendo así a la teoría del mensajero y a la solución del problema de la codificación.                        

El experimento PaJaMo reunió varias técnicas recién descubiertas: la recombinación de bacterias a través de la cual una bacteria macho o donadora pasa una copia de un material genético a una bacteria hembra, junto con el material genético bacteriano, solos pueden transferirse aunque también los genes del fago, que entonces constituyen un profago. Incluía también la técnica de un experimento de curioso y explicativo nombre: el coitus interruptus, a través de la cual era posible controlar la parte de cromosoma donado, de acuerdo al tiempo en que el apareamiento fuese permitido. La penetración génica provocaba el inicio de la síntesis de una enzima que no poseía la hembra: la B galactosidasa. La síntesis se iniciaba tres minutos después de introducido el gene, lo cual hablaba de una imposibilidad de construcción de ribosomas ex profeso en tan poco tiempo. Entonces, la síntesis de proteínas se realiza en el citoplasma, específicamente en los ribosomas, pero requiere del control genético. ¿Cómo explicar la relación entre ambos fenómenos?                                        

Jacob, Monod y Pardee pensaron que el ADN producía un portador intermedio de información (tal vez un ARN distinto del ribosomal).                                   

Fue durante esta época (1957) que la idea es resumida y propuesta por Crick como el dogma central: el ADN hace ARN que a su vez hace proteína (entonces Crick se refería al ARN de los ribosomas). En torno a este punto Monod señaló que la biología molecular ha probado, más allá de toda duda, la completa independencia de la información genética con respecto a acontecimientos ocurridos fuera de la célula y hasta dentro de ella. Por la estructura misma del código y el modo como es transcrito, ninguna información del exterior, de ningún género, puede penetrar jamás en el mensaje genético heredable. Crick recordaba después que el nombre de dogma surgió porque para él, un completo ignorante en cuestiones religiosas, un dogma es algo sobre lo que sabe muy poco.                                      

El experimento siguiente pareció obvio, si los ribosomas son estables, una vez que han recibido la información del gen para hacer la enzima, podrían seguir produciéndola aún si el ADN es destruido.                                

Las pruebas fueron realizadas en Berkeley por Pardes y Mónica Riley. Consistió en eliminar de la célula el gen Z1 (para la B galactosidasa) después de haber empezado a funcionar.                           

Cultivaron las bacterias en un caldo en el que el fósforo disponible era radioactivo (32P). Se mezclaron con bacterias receptoras (hembras) y la cepa de machos transfirió el gen Z1 diez minutos después de empezar la conjugación.                                    

Al desintegrarse el 32P se destruyeron los genes Z1, entonces se observó que la producción de B galactosidasa disminuía paulatinamente. Esto les indicó que la inactivación del gen abolió en el acto la síntesis de proteína. Quedaban descartados los ribosomas como agentes intermedios entre el gen y su proteína. Era necesaria la acción continua del gen m, ya fuese directamente o pasando por un intermediario inestable, que por serlo, habría de ser renovado de continuo.

Unos años antes (1956) Elliot Uolkin y Lazarus Astrachan, en Tennessee, descubrieron ese tipo de ARN que se renovaba rápidamente. No en ARN ribosómico sino en ARN de transferencia. Entrevistado recientemente por Judson, Crick opinó que Uolkin y Astrachan habían llegado al ARNm sin darse cuenta. Igual que los de París.

Crick relacionó el experimento PaJaMo y el de Uolkin Astrachan y concluyó que los ribosomas son dispositivos de lectura que no tienen nada que ver con el mensaje: al portador del mensaje le llamó ARN genético. Fue la primera idea firme de la existencia del ARN mensajero.

Jacob por su parte empezó a idear los experimentos que probarían la existencia de una molécula encargada de la información genética para la síntesis de determinada proteína y que fuese destruida al tiempo de la síntesis de proteína: los experimentos por fago. Se trataba de ver si después de la infección, a nuevas ribosomas iba nuevo ARN, o si —como sostenía la nueva teoría— no había tales ribosomas nuevos y los preexistentes estaban disponibles para recibir el mensaje. Para distinguir entre nuevos y viejos ribosomas marcarían éstos con isótopos radioactivos (paradójicamente el 13C que utilizaron fue una donación que Pauling consiguió de la Academia de Ciencias de la URSS, controlada todavía por el enemigo número uno de la genética: Lisenko).                 

Los resultados son obvios hoy: encontraron sólo ribosomas marcados y nuevo ARN.                            

Watson también entró a la carrera, acaloradamente competitivo, a decir de Judson. Watson y Francois Gros, en Harvard, mostraron que las bacterias no infectadas contenían un ARN transitorio que aparentemente se comportaba como el ARN nuevo formado después de la infección por un fago.                          

En el otoño de ese año (1960) Jacob y Monod bautizaron ARN mensajero al inestable intermediario portador de información entre gen y proteína. Casi al mismo tiempo (diciembre de 1960) publicaron su teoría del operón.    

Simultáneamente tuvieron lugar otros avances teóricos y técnicos que condujeron a la clarificación del código genético. Leon Heppel y Mary Singer elaboraron moléculas sintéticas de ARN formadas por un sólo tipo de base: poli-uracilo, poli-citocina y poli UC.                       

Como ya se dijo Zamenick logró síntesis de proteínas en sistemas libres de células. La meta siguiente era introducir a esos sistemas información genética conocida y obtener la proteína específica. Con estos intentos no lograron gran cosa hasta que llegó Heinrich Matthaei: “sabíamos de antemano que íbamos a hacer una prueba de ARN mensajero”.                         

En 1961 Matthaei y Marshall Nirenberg agregaron a los ingredientes antes mencionados, ribonucleasa para provocar destrucción del ARN; con ello la producción de proteína se detenía en seco. Cuando ponían desoxirribonucleasa la síntesis de proteína no era inhibida instantáneamente, decaía rotundamente después de unos treinta minutos.                     

Matthaei tenía dos tubos en los que puso poli-U, dos para poli-A, el poli-AU y dos para poli-A. El poli-U produjo una fibra artificial compuesta por entero de fenilalanina, se encontró así la primera palabra del código. Después con policitocina se obtuvo poli-prolina.     

Nirenberg presentó los resultados de sus experimentos junto con Matthaei ante el 5o. Congreso Internacional de Bioquímica (agosto de 1961). Nadie que lo oyera aquel día en Moscú, escribe Judson, recordaría ya las dos cuidadosas pruebas con las que Avery demostró que el principio trasformador de los neumococos, la base material de la herencia, era el ADN. Los hombres de ciencia, medita Judson, suelen considerar que interesarse en la historia de un asunto es síntoma de actitudes declinantes.      

Al enterarse de estos descubrimientos, Crick decidió participar también en la investigación experimental. Trabajó con Brenner en mutaciones producidas por colorantes acridínicos. Encentró que las mutaciones que provocan la adición o la supresión de una base desplazaban la lectura de la sucesión siguiente de nucleótidos, de suerte que eran introducidos diferentes aminoácidos. Encontró también que una tercera mutación, una tercera base añadida o una tercera deleción podrían combinarse con los dos primeros para devolver la lectura al marco correcto. La interpretación surgió de inmediato: el código genético era de tripletes y el mensajero se leía desde un punto de partida fijo. Brennen llamó al triplete codón, recordando los términos de Benzer (cistrón, recón y mutón). Crick, Brenner y Barnet publicaron la confirmación de lo que se sabía en teoría: a) Un grupo de tres bases codifica un aminoácido. b) No hay traslapamiento. c) Lo secuencia de bases es leída desde un punto de partida fijo. d) El código es “degenerado”.                                

Cinco años tardó en completarse el conocimiento del resta del código genético. Con las técnicas de Nirenberg, Matthaei, Severo Ochoa y Har Gobind Khorana, se dio razón de los veinte aminoácidos, la leucina y la arginina tenían cada una seis codones sinónimos diferentes; los demás iban teniendo menos, hasta llegar a la metionina y el triptofano cada uno con un sólo codón. A tres codones —los tripletes UAA, UAG y UGA, no les tocaban aminoácidos. Garen, Brenner y Crick demostraron que eran codones sin sentido, cuya función es señalar el fin de la cadena polipeptídica.                       

Como antes comenté, en la elucidación del código genético tuvieron un papel fundamental las aproximaciones teóricas. No es que sea un caso especial, es sólo que en él quedó manifiesto, por la relativa separación de los momentos de especulación científica, el planteamiento de conjeturas para explicar los fenómenos biológicos. Este último es un punto esencial, pues el científico no puede limitarse a describir los fenómenos, tiene que intentar explicaciones, teorías. Este caso, al igual que muchos otros, proporciona evidencias en contra de los planteamientos enductivistas y empiristas que sostiene el continuismo; lo que quiero decir es que la investigación científica se inició con una concepción teórica previa, nunca con la mente en blanco, los experimentos tienen su valor fundamental en la verificación o refutación de las teorías, pero ya lo ha escrito Canguilhem, las teorías no surgen directamente de la observación o de la experimentación, las teorías sólo pueden contrastarse empíricamente después que han sido formuladas.                           

Esta concepción del método científico nos lleva a otra cuestión de gran importancia, la realidad es interpretada por el científico, los datos son construcciones epistemológicas, no son algo que este ahí y que el científico pueda tomar directamente. En efecto, el ADN tiene una existencia objetiva independiente del sujeto que lo estudia, pero su verdadera estructura es inferida, no directamente observada. Repito, el resultado de las inferencias conducidas por observaciones y experimentos es una construcción epistemológica: el modelo de doble hélice.

 
 articulos
 
 
     
       
____________________________________________________________
     

Rosaura Ruíz G. 
Departamento de Biología, Facultad de Ciencias, UNAM

como citar este artículo  →

     

 

nota        
 
  menu2
PDF  
             
La imprescindible relación entre cerebro y computación
 

 
Jesus Cervantes Servin 
   
   
     
                     

Si bien la polémica en el pasado reciente de los sesentas,   acerca del proyecto de simular a través de circuitos digitales, la conexión y funcionamiento neuronal del cerebro, delimitó y aclaró las confusiones y las analogías de llevar a cabo tal objetivo, el avance en la tercera generación de computadoras y los microprocesadores replantean en algunos aspectos las posibilidades y analogías en relación a este tema.

La era de los microprocesadores (y la próxima generación de bioprocesadores) y la facilidad por reducir a espacios de dimensiones cada vez más pequeñas la capacidad de procesamiento, no de una o dos computadoras, sino de un número indefinido de ellas, llevan a pensar en la generación de sistemas integrados comparable a las capacidades que la neurofisiología ha encontrado para las neuronas o conjuntos de ellas. Esta vía depende de tres cuestiones: 

a) El estado actual de las computadores y la corriente de aplicaciones que hacen cada vez más intercambiable y dinámica la interacción entre el diseño (hardware) con el software, han hecho surgir más claramente algunas necesidades centrales. 

a1) Investigación de programas. A medida que los costos de software se elevan debido por una parte a la diversidad de lenguajes de alto nivel y sus intentos de compatibilización y por otra parte a las dificultades intrínsecas del lenguaje natural, han dejado sentir una necesidad de orientar cada vez mayores recursos al problema del lenguaje y compilación. Las bases actuales de la relación entre la sintaxis y la semántica del lenguaje, donde hasta hace poco predominaba la primera se vuelca en una intensa investigación hacia esta última.                 

El estilo fortran dominante produce programas que son secuencias ordenadas de ejecución de subprogramas débilmente acoplados que consisten más o menos de lo mismo. La descomposición termina hasta que el subprograma se puede expresar en un lenguaje sencillo. Pero las necesidades de nuevos sistemas obliga a la evolución de estos controles y a reconocer nuevas estructuras a partir de una complejización por casos, ejemplo de este desarrollo son lenguajes algol y pascal y los asociados a los de inteligencia artificial que se encuentran asociados a modelos de la percepción cerebral o estructuras del lenguaje natural.                  

En particular el estudio de algoritmos en su forma general a través de la teoría de algoritmos da actualmente al problema la complejidad y sus resultadas con la interconexión práctica del hardware, una similitud con las conexiones en paralelo existentes en el cerebro. Desde la organización de los datos hacia sus consecuencias en nuevas formas de programación en los lenguajes, la teoría de la complejidad apunta a abrir analogías con las características neurofisiológicas de las localizaciones neuronales de varias funciones cerebrales y una cierta topología general de éste.

b) El desarrollo de distintos aspectos en el área de la inteligencia artificial y la polémica alrededor de sus resultados y perspectivas, obliga a una constante comparación de procesos y analogías con el cerebro. Desde la vieja polémica sobre la máquina pensante o inteligente emergen ideas sobre la capacidad y/o potencialidad de los procesos de control computacional de una máquina en relación a lo que en el cerebro se realiza como son: su capacidad de aprender, memorizar, crear. Claramente estos puntos remiten a problemas filosóficos serios, pero en general es posible ahora admitir que se puede romper el círculo vicioso lógico en las máquinas por medio de la idea de una evolución en contacto con el exterior, de etapas de autoprogramación cada vez más sofisticadas.

Así la investigación heurística, los patrones de reconocimiento a través de sensores y perceptores, el desarrollo de los lenguajes naturales y de los lenguajes de alto nivel (asociado a la investigación de programas citado en el inciso 1) y las técnicas del aprendizaje estocástico conducen a una dinámica de búsqueda de relación entre el funcionamiento cerebral y la computación en donde los pares por el lado de las máquinas, de contexto-representación interna, semántica-sintaxis, etc., o de ambiente­individuo, esencia-accidente, etc., en el cerebro tratan de desentrañar las analogías conceptuales entre ellas.       

c) Por último el propósito mismo y como resultado directo o indirecto (la mayor de las veces es este último) de la simulación del funcionamiento y estructura cerebral a través de modelos y su posible implementación electrónica, plantea nuevas e interesantes perspectivas. A partir del estudio biopsicológico de los mecanismos de la memoria (almacenamiento intra e intercelular bioquímico) y la localización de funciones y la plasticidad cerebral de la información del individuo es posible proponer una visión integral del sistema nervioso y sus funciones, como una estructura diferenciada de subsistemas jerarquizados pero múltiple y complejamente interconectados, que dan como resultado un control unificado. A partir de esta idea se intenta representar fenómenos tan complejos como el lenguaje y las emociones hasta los aspectos sensoriomotrices. La modelización computacional de este modelo se ve factible a partir de una estructura conformada por microprocesadores y sensores jerárquicamente interconectados en paralelo con un control basado en sistemas de control y programación compleja.         

En resumen, se puede decir que bajo nuevas condiciones y desarrollo técnico conceptuales, el viejo intento de lograr una reproducción y explicación del funcionamiento cerebral toma nuevos rumbos.

  articulos  
       
_____________________________________________________________
     
Jesus Cervantes Servin
Departamento de Física, Facultad de Ciencias,UNAM.
     
_____________________________________________________________
     
como citar este artículo  →
 [En línea]
     

 

 

 

 

 

R14Articulo02   menu2 índice 14 
siguiente
anterior
PDF
   
   
Ruy Pérez Tamayo      
               
               

Creo que lo mejor será iniciar esta plática  señalando que
el término alopatía significa, según el diccionario de la Real Academia Española, “Terapéutica cuyos medicamentos producen en el estado sano fenómenos diferentes de los que caracterizan las enfermedades en que se emplean”. La palabra fue construida con las raíces griegas allos, que significa otro, y pathos, que quiere decir sufrimiento o afección. Su inventor fue nadie menos que el famoso médico alemán Samuel Christian Friedrich Hahnemann, quien vivió de 1755 a 1843 y a quien se conoce como el padre de la homeopatía, en vista de que no sólo inventó el nombre sino también esa forma peculiar de ejercer la medicina. El mismo Diccionario de la Real Academia Española define el término homeopatía como: “Sistema curativo que aplica a las enfermedades, en dosis mínimas, las mismas sustancias que, en mayores cantidades producirían al hombre sano síntomas iguales o parecidos a los que se trata de combatir”. Hahnemann basó su sistema terapéutico homeopático en el principio latino Similia similibus curandur, o sea que los síntomas (pues él rechazó la existencia de enfermedades) deberían ser tratados con drogas cuyo efecto fuera desencadenar en el sujeto sano los mismos síntomas, pero más intensos; de esa manera, el malestar inducido artificialmente desplazaría a las molestias espontáneas. Para contrastar su homeopatía con el sistema médico científico, Hahnemann señaló que la alopatía sigue la máxima Contraria contraris, puesto que escoge para administrar drogas que en sujetos sanos producen síntomas diferentes a los que manifiesta el paciente. Naturalmente, eso era (y sigue siendo) completamente falso; los médicos alópatas nunca han seleccionado sus elementos terapéuticos sobre esa base tan absurda. Pero así fue como se bautizó a la medicina no homeopática, y como la tradición siempre ha sido más fuerte que la lógica, el nombrecito pegó.

Sin embargo, yo me he referido a la medicina alopática como el sistema médico científico, lo que requiere una aclaración. La medicina es tan antigua como el hombre, aunque la enfermedad es todavía más antigua, como lo atestiguan los fósiles de dinosaurios y otros animales que precedieron al ser humano en su aparición sobre la Tierra. Pero desde que el primer Homo sapiens se sintió enfermo y buscó ayuda para sus molestias en otro Homo sapiens, se inició el desarrollo de la medicina. Los comienzos deben haber sido totalmente empíricos, basados en intentos torpes y muchos errores, frecuentemente trágicos. Pero a lo largo de miles de años, poco a poco se fueron acumulando una serie de observaciones prácticas y de creencias sobrenaturales que constituyen las bases de lo que hoy conocemos como medicina primitiva. El pensamiento primitivo es fundamentalmente mágico-religioso; sus profundas raíces se nutren de una de las características más específicamente humanas, que es nuestra incapacidad para vivir en la incertidumbre. Desde tiempo inmemorial, el hombre ha reaccionado siempre de la misma manera frente a lo que ignora o desconoce: inventando la explicación. Cuando el mundo era joven, la fracción de él que era conocida por nuestros antepasados humanoides era todavía menor que la que pretendemos conocer en estos días, y además ellos todavía no contaban con la historia escrita, que desde su inicio nos permitió enriquecemos progresivamente de manera casi continua e ininterrumpida. En esas condiciones, es fácil entender que nuestros más remotos antepasados dieran rienda suelta a su imaginación y construyeran su concepto de la realidad con 5% de elementos objetivos y 95% de componentes sobrenaturales. En forma simplista, pero no por ello totalmente equivocada, podemos decir que el progreso de la humanidad a través de toda su historia puede concebirse como la sustitución, lenta y dolorosa, pero implacable, de nuestros mitos y supersticiones más queridas, por el conocimiento objetivo de la realidad.

Lo anterior era necesario como prólogo al tema central de esta plática, que puedo resumir de la manera siguiente: dadas las características del ser humano, así como las condiciones de su desarrollo y crecimiento histórico, es natural que en distintos tiempos hayan surgido diferentes formas de pensamiento médico. También es explicable que medicinas distintas, aunque racionalmente incompatibles entre sí; hayan coexistido y sigan coexistiendo hasta nuestros días. Todavía estamos muy lejos (por fortuna, pienso yo) del día en que de verdad seamos sujetos completamente razonables. Pero me interesa subrayar que el reconocimiento de la coexistencia de distintas medicinas en nuestro tiempo está muy lejos de concederles a todas la misma credibilidad, eficiencia y racionalidad. En mi opinión, sólo una de todas las medicinas contemporáneas es objetivamente válida: me refiero a la medicina científica. Además, postulo que todas las otras medicinas sólo sirven en la medida en que cumplen con los principios de la medicina científica. El resto de esta plática está dedicado a explicar lo que entiendo por ese portento, por esa maravillosa creación del intelecto humano que se conoce como la medicina científica.          

Lo primero que debe señalarse es que la ciencia estableció un parteaguas entre la medicina anterior o su irrupción en el mundo del pensamiento y la que se generó bajo su sombra. Para usos prácticos, la medicina científica empieza en 1543, con la publicación del famoso libro De Fabrica, de Andreas Vesalio. Este volumen es un texto de anatomía humana, escrito por un jovenzuelo de 27 años de edad y bellísimamente ilustrado, quien en ese libro se dio el lujo de renovar una actitud antigua pero ya olvidada frente al mundo real: hasta esas tiempos, el conocimiento sobre la naturaleza debía buscarse no en la realidad sino en los libros autorizados por la Santa Madre Iglesia. Se daba el caso de que un anatomista, disecando el cadáver de algún ajusticiado, se encontraba con una estructura no descrita (o descrita en forma radicalmente distinta) por Galeno. La conclusión era obvia: el que estaba equivocado era el cadáver. En esa época la realidad aceptable por las autoridades debía coincidir con las Sagradas Escrituras y con los textos compatibles con ellas. Vesalio cambió de juez para legitimar sus observaciones: en el lugar de los Evangelistas colocó a la naturaleza.                              

Cuando se habla de las diferentes medicinas generalmente se hace referencia a unas cuantas, tres o cuatro, como la brujería, la herbolaria, la homeopatía, la quiropráctica y la ciencia cristiana. Pero en realidad son muchas más, y a través de la historia ha habido muchísimas, aunque la mayoría han tenido una vida relativamente breve. Para ilustrar este punto me voy a permitir leerles una lista incompleta de las medicinas que coexistían en Alemania a mediados del siglo pasado: “Metafísicos, Idealistas, Iatromecánicos, Fisiólogos experimentales, Filósofos naturales, Místicos, Magnetizadores, Exorcistas, Galénicos, Homúnculos Paracelsianos modernos, Stahlianos, Humoralistas, Gastricistas, Infartistas, Broussaistas, Contraestimulistas, Historiadores Naturales, Fisiatristas, Patólogos Idealistas, Teósofos Germano-Cristianos, Epígonos Schoenlenianos, Pseudoschoenlenianos, Homeobióticos, Homeópatas, Isópatas, Alópatas Homeopáticos, Psoristas, Scoristas, Hidroporistas, Hambergerianos, Heinrothianos, Sachsianos, Kieserianos, Hegelianos, Morisonianos, Frenólogos, Iatroestadígrafos, etc.”. Como mencioné antes, la lista es incompleta y podría haber sido mucho más larga, si en lugar de haber usado los diferentes conceptos de enfermedades para distinguirlas, el autor hubiera basado su clasificación en las distintas medidas terapéuticas recomendadas por cada escuela.

Todas las medicinas tienen los mismos tres objetivos; conservar la salud, aliviar o curar la enfermedad, y evitar la muerte prematura. Pero también comparten otras tres funciones, naturales y características del ser humano: el efecto benéfico de una relación médico­paciente satisfactoria, la tendencia natural del organismo a resistir agresiones y a regresar al atado de salud (la antiguamente llamada vis medicatrix natura), y la influencia favorable e inespecífica que se agrega a casi cualquier tipo de acción terapéutica que se lleve a cabo, conocida con el nombre de “efecto placebo”. Como estas tres funciones son suficientes para explicar la mayoría de los ejemplos de “curas maravillosas” que generalmente se usan para demostrar la validez de diferentes tipos de medicinas, veámoslas con más detalle. El impacto positivo que tiene la figura del médico (o mago, brujo, comadre, yerbero, niño Fidencio, etc.) sobre el paciente se conoce desde tiempo inmemorial; en muchos casos su autoridad y sabiduría se subrayan con ropas o disfraces ad-hoc, como la bata blanca, la máscara o las patas de conejo amarradas al cinturón, y con la exhibición de símbolos relevantes, como el título y otros diplomas colgados en las paredes del consultorio, los dibujos en la arena en el piso de la choza del mago, o la imagen del santito con sus velas prendidas en el cuarto del brujo. Es muy común que en la sala de espera, los pacientes se conforten unos a otros comentando que el doctor les inspira mucha “confianza”, y sólo en casos muy graves el enfermo siempre se siente mejor cuando ha visto al médico. Este efecto psicológico resulta de la interacción entre el que necesita ayuda y la busca y el que la ofrece y la proporciona, al margen de la estructura de pensamiento en que ocurra el encuentro y la naturaleza de las acciones resultantes. Si el sujeto que busca ayuda cree que va a encontrarla en un contexto determinado y este contexto se da, la encuentra, o sea que el resultado es psicológicamente positivo. Todo el mundo sabe que el contacto entre dos seres humanos mutuamente bien intencionados es reconfortante, sobre todo para aquel que busca y necesita confort. Es la base del buen trato entre sujetos civilizadas, de la amistad y del amor, y es también la base de la relación médico-paciente, que alguna vez el Maestro Ignacio Chávez llamó “una confianza frente a una conciencia”.

 La segunda función que comparten todas las medicinas es la conocida desde hace muchos años como vis medicatrix natura. Este latinajo se refiere a la tendencia de todos los organismos vivos a la autoconservación, basada en mecanismos fisiológicos genéticamente determinados, muchos de ellos razonablemente bien conocidos en la actualidad. Mencionaré dos ejemplos: 1) Muchas características de nuestra fisiología, como la frecuencia cardíaca o el nivel de glucosa en la sangre, se mantienen constantes dentro de límites relativamente estrechos, a pesar de que existan grandes variaciones en el medio ambiente. Tal constancia no es accidental, sino debida a mecanismos nerviosos y endócrinos de regulación cuyo conjunto se conoce con el nombre de homeostasis. Cuando estos mecanismos fallan se producen síntomas o enfermedades, pero los mecanismos no han desaparecido sino que siguen ahí, todavía funcionando en la buena dirección pero sin lograr corregir el desperfecto. Con cierta frecuencia el problema es solamente de tiempo, que una vez transcurrido el defecto se corrige y el sujeto vuelve a la normalidad; cuando esto ocurre, no importa qué tipo de medicina se está utilizando (siempre que no interfiera con el proceso), el enfermo se cura.        

La tercera función que comparten todas las medicinas es el efecto “placebo”, que seguramente incluye elementos de las dos funciones anteriores pero también algo más, y es la que se conoce menos bien. Imaginemos tres enfermos con fiebre elevada, de 40°C uno de los cuales recibe aspirina, otro sal, y el otro nada; el resultado es que al que recibió aspirina se le quitó la fiebre y tiene 37°C, al que no le dimos nada sigue igual, con 40°C pero al que le dimos sal le bajo la fiebre a 38°C. Como ya mencioné antes, este efecto benéfico es inespecífico (la sal no es un antipirético, como sí lo es la aspirina) de modo que también puede observarse con chiqueadores de papa, con infusión de cabellos de elote, con pastillas de piel molida de víbora, o con cualquier otra cosa que no tenga influencia fisiológica sobre la temperatura del cuerpo humano.             

Me he extendido en las tres funciones anteriores porque son comunes a todas las medicinas, en vista de que no dependen de ellas sino de la interacción humana. Pero ya es tiempo que señale las diferencias que, en mi opinión, separan de manera irreconciliable a la medicina científica de todas las demás. Creo que pueden resumirse en las siguientes tres:    

1) La medicina científica es la única que tiene conciencia de su inmensa ignorancia y de su correspondiente impotencia para enfrentarse a muchos de los problemas más graves de salud que afectan al hombre, como muchas formas de cáncer, muchas enfermedades degenerativas cerebrales y vasculares, las lesiones que afectan la función del sistema nervioso central, ciertas anomalías genéticas, etc. Al hacerse científica, esta variedad de la medicina aceptó la postura filosófica de la ciencia, que distingue entre lo que se sabe, lo que se cree y lo que no se sabe; aceptó los criterios objetivos para definir lo que se sabe: aceptó el análisis riguroso de los hechos y su separación clara de las creencias, corazonadas, imaginaciones, sueños; mentiras, y todas las otras formas que el hombre usa para relacionarse con su realidad; aceptó que la verdad se encuentra fuera de nosotros y que es independiente de nuestros deseos; y aceptó que no es posible imponerle al mundo una realidad distinta a la que posee, ni aún por medio de la autoridad más bien intencionada o poderosa. En cambio, las medicinas no científicas no tienen estas dificultades, la ignorancia no forma parte de su bagaje. Hay remedios para todos los problemas, hay medicinas para todas las enfermedades, hay rezos y encantamientos para todas las molestias. Incluso hay yerbas que sirven para la diabetes, la gota, el sarampión y el flujo, o bien otras que curan enfermedades de las articulaciones y de las vías nerviosas y urinarias; hay rituales que sirven para recuperar el alma, cuando se ha perdido como consecuencia de un “susto”; y naturalmente hay todas esas cosas y muchas otras más, como inyecciones de sangre de chivo, caldo de piel de víbora, semillas de durazno, sesiones con los espíritus, vacunas hechas con testículos de toro, rezos a San Miguelito, etc., contra el cáncer. Todo este inmenso carnaval terapéutico no muestra agujeros, no contiene excepciones; el médico no científico se enfrenta a todas las enfermedades y a todos los síntomas, tiene uno o más remedios que son buenos para combatirlos a todos.

2) La medicina científica es la única que ha cambiado con el tiempo, que ha progresado, que se ha ido enriqueciendo con los descubrimientos hechos científicamente. En cambio, todas las demás medicinas han surgido completas, establecidas y terminadas; cualquier intento de modificar hasta el detalle más insignificante se recibe como herejía y hace fracasar todo el procedimiento. Las indicaciones para la preparación de los medicamentos dadas por Hahnemann eran intocables; sus libros fueron equiparados a las Sagradas Escrituras y, posteriormente, al Capital de Marx. Los rituales de los brujos que “chupan” las enfermedades o que hacen “curas” de maleficios o de males de ojos no están sujetos al método experimental y no pueden cambiarse, en vista de que han sido establecidos para siempre por poderes sobrenaturales.

3) La medicina científica no es la única que cumple con los objetivos de la medicina, que fueron enumerados como conservar la salud, aliviar o curar la enfermedad, y evitar la muerte prematura; otras medicinas también lo logran. Pero la medicina científica es la única que, cuando cumple tales objetivos, lo hace sabiendo por qué, o sabiendo que no sabe por qué. En otras palabras, la medicina científica es la única que se interesa por conocer los mecanismos de los fenómenos que observa y por generar explicaciones verificables de ellos. En cambio, las otras medicinas operan en otra u otras dimensiones: en primer lugar, no explican nada porque no tienen nada qué explicar, en vista de que las cosas, simplemente, son así: en otros casos (la herbolaria, la frenología) se trata de dar explicaciones ad hoc, como que “las flores de calabaza son buenas para el cólico renal”, o que “la frente amplia es signo de inteligencia”; finalmente, se echa mando de la fe (el niño Fidencio, los científicos cristianos) uno de cuyos oráculos dijo Credo qui absurdum.

Quiero terminar esta breve discusión refiriéndome a un punto que con frecuencia surge en discusiones sobre el valor de las distintas medicinas, y en especial con la herbolaria. Se dice que nuestros abuelos indígenas habían desarrollado un extenso catálogo de plantas medicinales, y que este catálogo se perdió en gran parte durante la conquista; también se dice que hay una riqueza potencial de fármacos escondida en la botánica mexicana y que debemos descubrirla y explotarla; y también se dice (como prueba de lo anterior) que la medicina herbolaria mexicana que se practica en la actualidad es muy eficiente y que si no fuera por los médicos yerberos la salud de millones de mexicanos sería mucho peor. Todos estos pronunciamientos son expresiones de buena fe, pero los que los hacen realidad no saben si lo que dicen es cierto o no. Es posible que nuestros ancestros indígenas hayan tenido conocimientos profundos de farmacología y toxicología, pero si los documentos se perdieron durante el encuentro de los dos mundos ¿cómo lo saben? La verdad es que no lo saben, sino que se lo imaginan, con más o menos buenas bases; yo también creo que nuestros ancestros indígenas habían acumulado una gran cantidad de datos, pero ignoro cuántos de esos “datos” era reales y cuántos eran imaginarios o simplemente equivocados. La riqueza farmacológica potencial de nuestras plantas es también intuitiva, y yo coincido en esta creencia, pero me parece que no hay ninguna razón para que lo mismo no sea posible de las plantas de Canadá, de Vietnam o de las Islas Malvinas; la capacidad de contención de sustancias útiles en medicina no depende de que sean mexicanas, sino de que son plantas. Además, una cosa es la capacidad potencial y otra es la realidad: antes de cantar victoria, las plantas llamadas medicinales deben someterse a un riguroso estudio químico y farmacológico, con todas las reglas de los análisis científicos, y si resulta que sí existen principios útiles en medicina, qué bueno, pero si resulta que no existen tales principios, ni modo. Finalmente, la opinión de que la medicina herbolaria está contribuyendo de manera positiva a la salud de los mexicanos que la usan, por encima de lo que podría esperarse si descontamos los tres factores inespecíficos mencionados antes (la influencia psicológica de la autoridad, la vis medicatix natura y el efecto placebo), es una pura expresión de fe, en vista de que no hay control, o sea que no sabemos qué estaría pasando con la salud de los usuarios en ausencia de esa medicina.

Quiero concluir con una observación que podría parecer cínica, pero que sólo pretende ser realista. No deseo dejar la impresión de que yo pienso que hay dos clases de medicina, la científica, que es la buena, y todas las demás, que no sirven para casi nada. Mi opinión personal es que todas las medicinas, incluyendo a la científica, a las tradicionales, a las marginadas y a todas las demás, son bastante malitas. Todas provienen de la misma necesidad humana de buscar ayuda y de proporcionarla, todas intentan hacerlo, y todas (no con granes diferencias) lo logran. Pero también en mi opinión, la única que conoce sus enormes deficiencias y que posee la capacidad para progresar, es la medicina científica.

 
 articulos
 
 
     
 Conferencia dictada en el Museo de la Cultura en noviembre de 1987.      
____________________________________________________________
     

Ruy Pérez Tamayo
Miembro de El Colegio Nacional.

como citar este artículo

     
You are here: Inicio Búsqueda Titulo revistas revista ciencias 14