![]() |
![]() |
PDF→
|
|||||
Johanna Broda |
|||||||
Existe una larga tradición de estudios eruditos sobre el calendario en Mesoamérica, derivados éstos del análisis de textos históricos y de las inscripciones encontradas sobre estelas. Recientemente, nuestros conocimientos sobre las observaciones astronómicas de los antiguos mexicanos, han registrado grandes avances, al constituirse, en los últimos 20 años, la nueva especialidad de la arqueoastronomía. Ésta ha incorporado sus métodos y conocimientos especializados al estudio histórico de los calendarios, y además, ha abierto un nuevo campo de investigación: el estudio sistemático del principio de la orientación en la arquitectura mesoamericana y en la planeación de ciudades y centros ceremoniales. Un rasgo particular de las antiguas civilizaciones mesoamericanas, es el de que las observaciones astronómicas no sólo se registraban en inscripciones y textos jeroglíficos, sino que el tiempo y el espacio estaban coordinados en el paisaje mediante la orientación de edificios y sitios ceremoniales. Las fechas más importantes del curso anual del sol se fijaban por medio de un sistema de puntos de referencia sobre el horizonte. El interés que despierta el estudio de las orientaciones consiste en el hecho de que constituyen un principio calendárico) diferente al representado en las estelas y los códices. Se trata, ciertamente, de un principio ajeno al pensamiento occidental. La "escritura" con la cual se escribe es, en este caso, la arquitectura y la coordinación de ésta con el ambiente natural. Es de hecho un sistema de códigos plasmados en el paisaje. Edificios aislados, conjuntos de edificios y planos de asentamiento de sitios enteros, muestran ciertos alineamientos particulares; en muchos casos, estos sitios están coordinados con puntos específicos del paisaje, ya sean cerros u otros elementos naturales, o también con marcadores artificiales en forma de petroglifos o de construcciones hechas en estos lugares. Finalmente, parece haber existido toda una compleja estructura que relacionaba entre sí a los asentamientos humanos con sus jerarquías políticas. Estos puntos sobre el horizonte o la orientación de los templos hacia las salidas o puestas del sol o de ciertas estrellas, también estaban en coordinación con el culto. Las elaboradas actividades rituales se mantenían en concordancia con los ciclos agrícolas, debido al hecho de que la estructura básica del calendario era el año solar y la principal función del culto era la de regular y controlar la vida social y económica. En la perspectiva de las presentes reflexiones, nuestra posición con respecto a lo que constituye la ciencia, necesariamente tiene que ser muy general. La ciencia de las civilizaciones arcaicas, se ve históricamente como parte de un todo social; al igual que la ciencia moderna es el producto histórico de la evolución cultural occidental, pero no representa el único parámetro para definir lo que es la ciencia. Este enfoque histórico que analiza a la ciencia como un cuerpo de conocimientos exactos, ligados a un contexto social, nos permite discutir la interrelación que existía en la sociedad prehispánica entre la observación de la naturaleza, la astronomía, la geografía, el clima, la ideología y la estructura socio-política y la cosmovisión en general. La observación de la naturaleza constituye la observación sistemática y repetida de los fenómenos naturales del medio ambiente que permite hacer predicciones y orientar el comportamiento social de acuerdo con estos conocimientos. La observación de la naturaleza proporciona uno de los elementos básicos para construir una cosmovisión. Por cosmovisión entendemos la visión estructurada en la cual las nociones cosmológicas estaban integradas a un sistema coherente. La cosmovisión explicaba el universo conocido en términos de un cuerpo de conocimientos exactos al mismo tiempo que satisfacía las necesidades ideológicas de las sociedades mesoamericanas. Sostengo, en términos generales, que la conceptualización de la naturaleza en una sociedad dada, constituye, la reelaboración en la conciencia social —a través del prisma de la conciencia social— de las condiciones naturales. Estas últimas nunca se presentan de manera igual en diferentes sociedades: no existe una percepción "pura" desligada de las condiciones e instituciones sociales en las cuales nace. Calendarios y astronomía forman parte y son expresión de un mismo proceso: el incipiente desarrollo histórico de las observaciones exactas sobre la naturaleza, el cielo, el ciclo de las estaciones y el medio ambiente; es decir, sobre el cosmos en el cual el hombre se veía inmerso y del cual se sentía partícipe. La observación astronómica era la condición previa para el diseño del calendario. Sin embargo, debe señalarse que calendario y astronomía no son idénticos, pues el calendario, como creación humana, constituye tanto un logro científico como un sistema social. El calendario es vida social, y el esfuerzo de su elaboración consiste precisamente en buscar denominadores comunes para ser aplicados tanto en la observación de la naturaleza como en la sociedad. El calendario se vincula estrechamente con el ritmo de las estaciones y el clima, así como con los ciclos agrícolas, —impone una medida del tiempo, socialmente definida— y además regulaba las actividades de la sociedad. Conforme va creciendo en forma considerable los datos sobre los alineamientos de los templos y de los asentamientos prehispánicos, vemos más claramente su intrínseca vinculación con las fechas calendáricas. Propongo la hipótesis de que en la cosmovisión mesoamericana, lo que más importaba eran las fechas, es decir, los días precisos del ciclo anual (los cuales estaban físicamente presentes en los alineamientos mediante la observación del sol sobre el horizonte). Estas fechas tenían un significado especial, tanto para la observación metereológica, como para la vida económica (su vinculación con los ciclos agrícolas, las fechas tributarias, etc.) y la vida social y política de las comunidades. Además jugaba un papel determinante en el registro histórico (la cronología de los anales indígenas) así como en los ciclos míticos del calendario ritual de fiestas. La conjunción de los fenómenos astronómicos con estas complejas asociaciones sociales (i.e. culturales), es lo que más les preocupaba a los antiguos mexicanos. Al preguntarnos sobre la función del calendario y de la astronomía en la sociedad prehispánica, nos estamos situando en el contexto sociocultural, materia ya de la antropología y la etnohistoria, que son las disciplinas que han desarrollado este tipo de análisis. Una de sus aportaciones fundamentales del estudio interdisciplinario de la arqueoastronomía, consiste en considerar el desarrollo de la astronomía en estrecha interacción con los ritos, las bases económicas y las estructuras de poder. De su vinculación con las actividades económicas se derivaba el importante papel que jugaba el calendario en la vida diaria, mientras que en su sacralización se basó su enorme poder religioso y el papel que llegó a desempeñar en la legitimación del poder de las clases gobernantes. La íntima relación que existía en la sociedad prehispánica entre la economía, la religión y la observación de la naturaleza, hizo posible que los sacerdotes-gobernantes actuaran aparentemente sobre los fenómenos que pretendía regular el calendario. Así, calendarios y astronomía proporcionaban también elementos esenciales de la ideología de esta sociedad, ya que, al basarse en la observación de ciclos recurrentes, hacían que quienes los manejaban adquirieran la apariencia de, controlar estos fenómenos y de poder provocarlos deliberadamente. En las fechas significativas, el calendario imponía la celebración de ciertas ceremonias. Éstas sólo podían realizarlas los sacerdotes-gobernantes, ya que ellos tenían el monopolio del culto estatal. Aunque íntimamente relacionado con la agricultura, este culto tenía lugar en las grandes pirámides que formaban el centro del asentamiento urbano y eran al mismo tiempo, el símbolo territorial del poder político. De esta manera la clase dominante aparecía como indispensable para dirigir el culto, del cual dependía la recurrencia de los fenómenos astronómicos y climatológicos, que, a su vez, eran una condición necesaria y real para que crecieran las plantas y se cumplieran exitosamente los ciclos agrícolas. El culto como acción social producía una transferencia de asociaciones que invertía las relaciones de causa y efecto, haciendo aparecer los fenómenos naturales como consecuencia de la ejecución correcta del ritual. De este nexo derivaba la extraordinaria importancia que se atribuía a la astronomía en los procesos de la legitimación del poder político en el Estado prehispánico. Sin embargo, también hay que tomar en cuenta otras circunstancias. Aunque el conocimiento astronómico daba a los sacerdotes-gobernantes una firme base para predecir los fenómenos naturales, estos últimos, conservaban siempre un aspecto inconocible y misterioso. La recurrencia de los ciclos de los astros nunca era completamente simétrica: el ciclo más regular era el solar, que variaba sólo un día cada cuatro años. Los ciclos de la luna y los planetas eran aun menos regulares y más difíciles de predecir, y, de hecho, sólo algunos de los planetas fueron conocidos en el mundo prehispánico. Si bien es cierto que la legitimación del poder de los sacerdotes-gobernantes se vinculaba con su dominio del calendario, ellos también fueron víctimas del sistema cosmológico que habían creado, pues estaban obsesionados por predecir los fenómenos recurrentes, por encajarlos dentro de la pretendidamente perfecta armonía de los ciclos calendáricos y por plasmar estas relaciones en la arquitectura de sus centros sagrados. Este esfuerzo era sumamente difícil de realizar y muy riesgoso, por lo que sus eventuales fracasos hicieron tambalear los fundamentos mismos de la cosmovisión. Por ejemplo en el caso de los mexica, en vísperas de la conquista española, esta cosmovisión estaba basada nada menos que en la creencia de que el moviendo del sol, la alteración entre día y noche y el ciclo anual de las estaciones, eran consecuencia directa de la participación de los hombres mediante los incensantes sacrificios humanos. Del derramamiento de la sangre humana La Mesoamérica prehispánica, al igual que otras civilizaciones arcaicas, se caracterizaba, en términos generales, por la polivalencia funcional de sus instituciones. Es decir, sus instituciones económicas no pueden estudiarse desligadas de las instituciones sociales, políticas e ideológicas, puesto que todas ellas formaban un todo inseparable. Sólo en la sociedad industrial moderna estas instituciones se vuelven entidades claramente delimitadas que desarrollan, cada una, su dinámica propia. Hoy en día, las ciencias se han emancipado del contexto religioso y la búsqueda del conocimiento es una tarea profana del acervo científico-intelectual. No era así en las civilizaciones arcaicas, donde los primeros conocimientos científicos se desarrollaron inmersos en la vida religiosa y social. La sede de la labor intelectual de los astrónomos-sacerdotes prehispánicos fueron los templos, que simultáneamente eran el símbolo del poder político. El auge que tuvieron las observaciones astronómicas a partir del primer milenio a.C. en Mesoamérica, se vincula con los procesos socio-económicos del surgimiento de la sociedad agrícola altamente productiva, su diferenciación interna en clases sociales y la formación de los primeros estados mesoamericanos. La astronomía, los calendarios, las matemáticas y la escritura, expresan el surgimiento del conocimiento exacto en la civilización prehispánica. Es pues, una tarea importante integrar los campos especializados de la investigación monográfica dentro de una historia general de las ciencias en Mesoamérica, y reivindicar estos temas como legítimos campos de estudio, tan legítimos como la investigación sobre las actividades científicas en etapas posteriores de la historia de México. |
|
![]() |
|
||||
|
|||||||
Refrerencias Bibliográficas Aveni Anthony F. 1977 Native American Astronomy. University of Texas Press, Austin (existe traducción española). |
|||||||
____________________________________________________________
|
|||||||
Johanna Broda Instituto de Investigaciones Históricas, UNAM.
como citar este artículo → |
|
![]() |
PDF→
|
|||||
Mercedes de la Garza |
|||||||
En el mundo mesoamericano en general, las maneras de vivenciar, comprender y expresar la realidad, se inscriben en el campo de la religión, pues el origen y la existencia toda del cosmos se adjudica a la acción de seres o energías sobrenaturales. Los dioses, el mundo y el hombre son los tres grandes reinos temporales (y por ello polivalentes), que conforman el cosmos maya. Ellos no son concebidos como órdenes separados e independientes, pero tampoco se confunden en un todo indiferenciado; más bien son aspectos distintos de una misma realidad, cada uno con cualidades y funciones bien definidas, que, en constante interrelación dinámica, constituyen un universo armónico y equilibrado. Una de las características esenciales de la cosmovisión maya es el sitio principal que ocupa en ella la temporalidad, entendida como el dinamismo del espacio: dioses, mundo y hombre no son realidades estáticas, sino en un constante movimiento que les da cualidades cambiantes. Pero ese movimiento tiene un orden, una racionalidad, que permite la permanencia y la estabilidad. El Sol, por ejemplo, es una deidad que, de acuerdo con su trayectoria diaria y con su ciclo, es benéfica y maléfica, celeste e infraterrestre, fuente de vida y energía de muerte; pero su trayectoria y su ciclo siempre se repiten, repitiéndose así sus cualidades y la influencia que ejerce a su alrededor. De esta manera la temporalidad del cosmos es cíclica. El universo en el que el hombre habita es concebido por los mayas como una compleja estructura de planos horizontales superpuestos, poblados por fuerzas sagradas, que en múltiples combinaciones, de acuerdo con la temporalidad, determinan los cauces de todo acontecer. Esas energías divinas van, desde los grandes dioses cuyas epifanías son los astros, la lluvia, el relámpago, las montañas, el viento o la Tierra, hasta los protectores de los animales, las plantas sagradas (como el maíz y las psicoactivas), los patronos de las actividades humanas y las deidades maléficas. Hay tres grandes ámbitos del cosmos, que son el cielo, dividido en trece estratos, tal vez con forma de pirámide escalonada; la tierra, concebida como una plancha cuadrangular, y el inframundo, dividido en nueve estratos quizá como una pirámide invertida. Estos tres espacios cósmicos, se dividen a su vez horizontalmente en cuatro partes o "rumbos" (asociadas con colores y signos del calendario ritual), que más o menos coinciden con los puntos cardinales. En cada rumbo terrestre, y participando del color asociado, hay un árbol sagrado (ceiba) y un pájaro también divino, que parecen sostener la pirámide celeste, al lado de cuatro dioses antropozoomórficos, los Bacabes. Y en el centro de la tierra, fungiendo como axis mundi, se yergue la "ceiba madre", de color verde, cuyas raíces comunican el plano terrestre con el inframundo y cuyas ramas penetran en el nivel celeste. Entre las múltiples imágenes simbólicas que creó la mentalidad religiosa de los mayas para representar los niveles cósmicos, hay también formas animales, sobre todo grandes reptiles. De esta manera la tierra era un cocodrilo o lagarto fantástico, al que los mayas yucatecos llamaron Itzam Cab Ain, "Brujo-del-agua-tierra-cocodrilo" o Chac Mumul Ain, "Gran cocodrilo lodoso". Este ser flotaba en el agua, y sobre su espalda crecía la vegetación. Del nivel terrestre proceden dos de los animales sagrados por excelencia, que fueron concebidos como epifanías de fuerzas divinas de los tres ámbitos del cosmos: la serpiente, que encarna al agua, al cielo y a la tierra, como la fuerza fecundante y engendradora de la vida, y el jaguar, que simboliza las fuerzas irracionales, la destrucción, la naturaleza salvaje, el cielo nocturno y el Sol en su viaje por el inframundo. Dentro de esta misma concepción, bajo el nivel terrestre está el inframundo, de nueve estratos, el más profundo de los cuales (Mitnal o Xibalba), es la morada de los dioses de la muerte, encabezados por Ah Puch ("El descarnado"). Estos dioses se representan en los códices como esqueletos humanos o como cuerpos en estado de corrupción. En el simbolismo animal, el inframundo es el vientre de la deidad terrestre, la cual, en su asociación con la muerte, se representa en las artes plásticas como un gran mascarón descarnado. Pero en tanto que vientre, el inframundo es al mismo tiempo origen de vida nueva, por eso contiene agua y semillas. Así, la vida se toma muerte y la muerte, vida, en una alternancia cíclica de contrarios. Y sobre el plano terrestre se encuentran los cielos: trece estratos donde moran distintos dioses, por lo general astrales, el que está regido por Oxlahuntiku; "Trece Deidad", dios uno y trece al mismo tiempo. El estrato más alto es el sitio de la deidad suprema: Hunab Ku, "Dios Uno", para los mayas yucatecos, identificado con Itzamna. Itzamna fue simbolizado, en toda el área maya, por un dragón serpiente emplumada bicéfala o animal fantástico con cuerpo de serpiente, plumas, patas de lagarto o pezuñas de venado, que encarna la energía sagrada fecundante del cosmos. Sus dos cabezas representan la dualidad de contrarios cósmicos, cuya armonía hace posible la vida. Esta deidad es a la vez uno y cuatro, ya que hay un Itzamna en cada "rumbo", que comparte el color de este. En los códices, Itzamna se representa como un dragón, pero también en forma humana: como un anciano con rasgos serpentinos en el rostro; a su lado aparece su parte femenina, señora del tejido y la pintura con la que se coloreó el mundo. En su aspecto antropomorfo, Itzamna fue dios creador y héroe cultural, pues se dice que inventó la agricultura, la escritura, el calendario y la medicina. Además de este dios supremo y creador, fueron principales las deidades directamente asociadas con la fertilidad de la tierra: el Sol y el agua, llamados por los mayas yucatecos respectivamente Kinich Ahau y Chaac. La estrecha liga entre dioses, mundo y hombre dentro del pensamiento indígena, se manifiesta ante todo en las cosmogonías. El proceso de creación cósmica se produce según las leyes de la temporalidad cíclica y tiene como eje la creación y destrucción alternativas de los hombres, dinámica de la que deriva la existencia de los otros seres; el complejo universo maya fue creado, según los mitos cosmogónicos, para que ahí viviera el ser que tendría por misión venerar y sustentar a los dioses: el hombre. En los mitos quichés, los dioses creadores, en sucesivas edades del universo, modelan varios tipos de hombres, usando distintos materiales, hasta que encuentran la sustancia sagrada, el maíz, que dará por resultado al hombre requerido: el que es consciente de los dioses y de la finalidad de su existencia. Los hombres de maíz de la última edad, son formados, además, con sangre de la serpiente y el tapir, animales sagrados por representar, la primera, el principio vital del cosmos y el segundo, la diosa madre. Este hombre es cualitativamente distinto de los anteriores, porque es el resultado de una fusión de sustancias vegetales y animales sagradas; todo esto pone de manifiesto que para los mayas la materia es la que condiciona el espíritu y no éste el que da vida a la materia, como ocurre en otras cosmogonías. Esa edad de los hombres de maíz es la época actual, en la que siguiendo la inexorable ley cíclica, un nuevo diluvio destruirá algún día a los seres humanos. En esta concepción cíclica del devenir cósmico no encontramos ni la idea de un inicio absoluto, ni la de un fin, por lo que es evidente que, para ellos, el universo temporal es infinito. Y la idea de los dioses que se desprende de esta cosmogonía es la de unos seres sobrehumanos, capaces de crear, pero imperfectos, ya que requieren ser venerados y alimentados; tal concepción de lo sagrado fue la base del complejo ritual de los mayas, que tuvo como centro el sacrificio sangriento, porque la sangre fue considerada como el principio vital por excelencia en el que reside el espíritu y, por ello, como el alimento fundamental de los dioses. Además de la finalidad común de la existencia humana, cada hombre tiene un destino individual determinado por las influencias de los dioses regentes del día de su nacimiento; este destino se conocía elaborando un horóscopo que revelaba la carga de influencias, y era esencial en la vida del hombre, pues constituía la anticipación de su futuro y por ello, debía ser la guía de su vida. Si el destino era bueno, el individuo hacía todo lo posible por cumplirlo, pero si era malo, podía alterarlo con ritos diversos. Esto expresa que para los mayas las determinaciones no implican un fatalismo, ya que en ellas interviene la voluntad humana, la acción libre del hombre. Por otra parte, el hombre es, en su propia naturaleza, un ser dual compuesto, de cuerpo visible y espíritu; éste, a su vez (aunque hay variantes entre los distintos grupos mayances), parece estar dividido en una parte inmortal, consciente y racional, que está ligada al cuerpo humano y que lo abandona en el momento de la muerte, y una parte impulsiva, irracional y mortal que desde que el hombre nace encarna en un animal salvaje, relacionado con el día del nacimiento. Ese animal se convierte en un alter ego que comparte el destino y el carácter del hombre, e incluso su posición social (mientras más alta sea ésta, el animal es más fuerte y poderoso). Todo lo que le ocurra al animal, incluso la muerte, le acontece también al hombre y viceversa. Las ideas mayas acerca de los dioses, el mundo y el hombre, destacadas aquí muy breve y generalmente, constituyen una cosmovisión original, en la que sólo extrínsecamente caben las clasificaciones lógicas occidentales. El mundo de los valores es distinto también, así como el sitio del hombre en el cosmos, empezando por la idea de que el ser humano forma un todo unitario, incluso consubstancial, con su mundo y, aunque tiene la responsabilidad de la existencia toda, no se asume como el dueño que pueda dominar y explotar a la naturaleza para su propio beneficio. |
|
![]() |
|
||||
|
|||||||
Nota: Este breve trabajo resume algunas ideas desarrolladas en mis libros “El hombre en el pensamiento religioso náhuatl y maya” (unam, 1978) y “El universo sagrado de la serpiente entre los mayas (unam, 1984), así como en el artículo “El universo temporal de los mayas y los nahuas”, 42p., Relativismo cultural y filosofía, perspectivas norteamericana y latinoamericana, Ed. León Olivé. |
|||||||
____________________________________________________________
|
|||||||
Mercedes de la Garza
como citar este artículo → |
|
![]() |
PDF→
|
|||||
Alfredo López Austin |
|||||||
La preocupación por el tiempo Si tuviéramos que describir el pensamiento de los pueblos mesoamericanos a partir de unas cuantas características, una de ellas sería su obsesión por el flujo del tiempo. Esta obsesión estuvo presente a lo largo y a lo ancho de Mesoamérica como parte fundamental de una tradición que fue común. El complejo sistema calendárico mesoamericano existe al menos desde el siglo vii a.C., antigüedad que se atribuye a sus más antiguos signos1. Estos signos son suficientes para establecer que desde esa época o antes y hasta los días de la conquista española, hubo un solo sistema mesoamericano de cómputo de tiempo, aunque con importantes variantes. Más aún, las antiguas formas de calcular el arribo de los destinos subsisten hasta hoy, aunque escasas, dispersas y ocultas, en México y en Centroamérica. Las mayores variantes del sistema radican en lo que respecta a su complejidad. Serían los mayas, entre todos los mesoamericanos, quienes elaboraran en su periodo Clásico (de fines del siglo iii d.C. a principios del siglo x d.C.) los más artificiosos sistemas de cómputo y registro del tiempo. En contra de lo que constantemente se sostiene, la obsesión por el flujo del tiempo no tuvo su origen en las graves especulaciones de los sabios adscritos a las cortes. La obsesión fue parte de una concepción del mundo que se creó, siglo tras siglo, en el trato social cotidiano general y en la acción transformadora de los hombres sobre la naturaleza. En efecto, y volviendo en particular a los mayas, el asombroso adelanto de su calendario y su escritura se debió a que ambos servían de sustento a la legitimidad de los linajes dominantes. Por medio de los complicados mecanismos, cómputos y registros, las historias dinásticas se enlazaban con las de los dioses. En esta forma habían marchado juntos el poder, la sabiduría especializada y la preocupación por las vueltas del destino. El acrecentamiento del dominio político y del desarrollo del aparato gobernante, llevó el calendario y la escritura a muy elevados niveles, lo suficiente como para hacer inobjetable el poder de quienes se ostentaban como hombres llenos de divinidad y encargados de la conducción de los pueblos. Pero mucho antes de que el calendario y la escritura llegaran a tales alturas, ya aparecen ligados a la estructura del poder. Su unión original se debió a que la obsesión por el flujo del tiempo, existente en las comunidades campesinas, fue aprovechada para ir montando sobre ella uno de los soportes de los aparatos gobernantes de linaje. Puede afirmarse que la preocupación por el tiempo y posiblemente los principios básicos del sistema calendárico, nacieron en el estrato campesino; después, los grupos dominantes aprovecharon el calendario en beneficio de su legitimación y lo desarrollaron por la vía de la complejidad y el esoterismo. La naturaleza del tiempo El calendario mesoamericano estuvo basado en la idea de la materialidad del tiempo. Era éste, según el pensamiento antigüo, una sustancia divina, imperceptible, que fluía al mundo del hombre con ritmos regulados por un turno muy semejante al de la participación tributaria de los individuos en el orden político indígena: ciclos por los que cada unidad de sustancia temporal diferenciada, cumplía su cometido de aparición sobre la Tierra. Eran ciclos de distintas dimensiones, que correspondían a las diferentes regularidades descubiertas en la naturaleza: de 365 días, próximo a la duración del año trópico y segmentado en las épocas de lluvias y de secas; de un día, con sus unidades diurna y nocturna; de los movimientos astrales, principalmente el de las fases de la Luna. Pero también había ciclos importantísimos cuya dimensión correspondía a procesos naturales imaginarios o cuyo origen no han podido encontrar las investigaciones actuales: el de los 9 días de los señores de la noche; el de 360 días, próximo al año trópico, pero redondeado por los 18 "meses" de 20 días cada uno, y uno de los más importantes, el de 260 días, cuyo origen se atribuye a la combinación de dos números fundamentales en el orden cósmico: el 13 y el 20. Pueden encontrarse otros más; pero era básica la combinación de dos de ellos: el de 365 días, que marcaba tanto las actividades laborales como las rituales, y el de 260, que establecía el orden de los destinos que regían la vida de los seres mundanos. Con éstos se combinaba, además, en el mundo maya, el de 360 días, cuya función principal era el registro histórico. Cada ciclo explicaba así la regularidad de las vueltas de la naturaleza; la combinación de los ciclos, las complejas particularidades de los sucesos de la superficie de la Tierra. Si fuese un solo ciclo el que ordenara las influencias divinas, la historia se repetiría una y otra vez, siempre la misma. En cambio, si cada realidad sobre la Tierra era el producto de múltiples influencias simultáneas, que fluían en ciclos diferentes, la repetición histórica, matemáticamente irrebatible, se daría sólo en la vuelta de un enorme turno, producto de todas las distintas combinaciones de los ciclos. A esta vuelta del tiempo parecen referirse un proverbio náhuatl y su explicación, según se encuentran registrados en el Códice Florentino: "Otra vez será así, otra vez así estarán las cosas, en algún tiempo, en algún lugar." Lo que se hacía hace mucho tiempo y ya no se hace, otra vez se hará, otra vez así será, como fue en lejanos tiempos: ellos, los que ahora viven, otra vez vivirán, serán2. Tiempo intrascendente, tiempo trascendente y tiempo del hombre La creencia en los flujos planteó la necesidad de imaginar su fuente. El tiempo llegaba al mundo del hombre porque procedía de un ámbito distinto; así concibieron los mesoamericanos que había un otro tiempo que originó el tiempo del hombre: era el tiempo de los dioses. Éste puede dividirse, sintéticamente, en un periodo de intrascendencia y en otro de trascendencia divina. El primero es el del ocio de los dioses, tiempo de repetición de hechos circulares. Los dioses oran, barren, tejen. Nada crean sus acciones indefinidamente repetidas. Pero el ocio feliz se rompe por la aventura: el deseo de ser adorados, la lujuria, la ira, la ruptura de la norma. Cuando los dioses actúan desenfrenadamente, se produce un corte transformador que los convierte en seres de lo que se crea como tiempo del hombre: de una diosa muerta nacen las plantas; de la incineración de los dioses, los astros; de la decapitación, el alacrán; de un proceder divino, la institución de un rito; de la intervención de un personaje mítico sobre la naturaleza, una técnica heredada… El mundo del hombre se va poblando como fruto de la vida —muchas veces violenta— de las divinidades. La aventura mítica, en suma, crea el mundo del hombre. Al sucederse las creaciones, se origina el orden calendárico. Cada ser del mundo nace en un día de creación, y ese ser llevará el nombre del día como nombre propio. Por ejemplo, para los antiguos nahuas, los árboles eran 1-agua; los venados, 7-flor; el maíz, 7-serpiente; el fuego, 4-caña; la sustancia térrea, 1-muerte. El mecanismo cósmico. El tiempo-espacio del hombre y el tiempo-espacio de los dioses Si el orden calendárico nace de la creación y para el mundo del hombre, se debe a que en el mundo de los dioses las aventuras divinas se encuentran en un estado de perpetua presencia. Allá no hay transcurso: en el ámbito divino existen simultáneamente todas las posibilidades de existencia. Este espacio divino está dividido en dos grandes mitades, y cada una de ellas en 9 pisos. Míticamente esto corresponde a la historia del ser original, llamado Cipáctli por los antiguos nahuas. Era el monstruo marino, femenino, primordial (fig. 1). Dos dioses convertidos en serpientes ciñeron su cuerpo y lo cortaron en mitades. Con una hicieron los cielos superiores; con la otra, el inframundo. Como ambas partes tendían a recomponerse, los dioses crearon 5 postes de separación: 4 para los extremos de la Tierra y uno para el centro. El espacio de separación al que los postes dieron lugar, fue el mundo del hombre: la superficie terrestre y los cuatro pisos celestes inmediatos por los que corren los astros y los meteoros. Es el espacio en el que transita el tiempo. Los flujos temporales llegan sucesivamente por el interior de los 4 árboles de los extremos de la Tierra. Del cielo baja una corriente caliente de sustancia divina; del inframundo sube una fría. Ambas van como torzal, corriendo helicoidalmente. Salen de los cuatro árboles para ser distribuidas por el Sol, antagónicas, en una lucha en la que, como contendientes, van desvaneciéndose al ser conquistadas por los nuevos flujos cotidianos. Su orden es levógiro: el árbol del este vierte su contenido; luego el del norte, luego el del oeste, luego el del sur, para volver al del este. El calendario y los distintos ciclos Los mesoamericanos imaginaron que por los cuatro árboles se vertían las corrientes de los distintos ciclos. Los ciclos se ajustaban entre sí para formar otros ciclos mayores. Tomemos como ejemplo dos ciclos básicos: el compuesto por 13 días enunciados por números del 1 al 13, y el de 20 días, identificados con signos de seres naturales o artificiales (palma, oscuridad, lagartija, señor, caña, aguacero, muerte, conejo, cuchillo de pedernal, mono, hierba torcida, etcétera) (Figs. 2 y 3). Cada día se conocerá por la unión de dos nombres, uno de cada serie. Si partimos del punto de confluencia 1-ceiba (fig. 4a), llegaremos al fin del ciclo de los números con 13-caña; pero en la serie de los 20 signos faltará el curso de 7 más. El ciclo más pequeño se reinicia, y al terminar el vigésimo y último signo de la otra serie, lo acompañará el séptimo del ciclo menor: 7-señor. En esta forma, para que pueda darse la nueva coincidencia de 1-ceiba, necesitarán pasar 260 pares no repetidos. Este ciclo de 260 días fue el usado con fines adivinatorios. Se combinaba, a su vez, con el ciclo de 365 días, el próximo a la duración del año trópico. El ciclo de 365 días estaba formado por 18 meses, cada uno de ellos con 20 días, y a la cuenta se agregaban 5 días "inútiles", con los que se completaba la cuenta (Figs. 5 y 6). La combinación del ciclo religioso de 365 días con el adivinatorio de 260 días se hacía en forma semejante a la de los pequeños ciclos de 13 y 20 días: para que coincidieran nuevamente en un día los nombres 1-venado del ciclo adivinatorio y 14° del mes "ave quechol" del ciclo de las fiestas religiosas (fig 4b), deberían transcurrir 18,980 días, o sea 73 giros del ciclo adivinatorio y 52 giros del ciclo de 365 días. La combinación de más ciclos, posible gracias al sistema maya de numeración posicional, llevó a cálculos impresionantes (fig. 7). Los mayas establecieron como punto de referencia para sus cómputos el día en que coincidieron los siguientes nombres: 4-señor del ciclo de 260 días; octavo del mes cumkú del ciclo de 365 días, y 13.0.0.0.0 del ciclo de 360 días (fig.8). Esto corresponde al año 3113 a.C. de nuestro calendario, época, por cierto, en la que no existían ni el sistema calendárico mesoamericano ni el pueblo conocido en sentido estricto como maya. La aproximación al año trópico Uno de los problemas más interesantes en materia religiosa es el de la aproximación del cómputo del año de 365 al año trópico. La cuenta estricta de 365 días hubiera provocado un desfase entre el cómputo y la realidad natural, y con ésta la realidad social de la distribución estacional del trabajo. La solución dada al problema de la fracción de día del año trópico, que supera los 365 días de la cuenta calendárica tendría graves repercusiones en materia religiosa: de la justa aproximación del ciclo calendárico y el natural se deriva la posibilidad de correspondencia de los ritos "mensuales" y las actividades productivas ligadas al ciclo de las estaciones. Hoy se centra la discusión entre los estudiosos de los pueblos del Altiplano Central de México, y específicamente de los mexicas. Se debate la existencia de una corrección que permitiera, en periodos breves, el ajuste entre el ciclo religioso y las fracciones de días acumuladas año tras año debido a la duración astronómica del año. Entre los diversos autores que han intervenido en la polémica, es muy sugerente la propuesta de Castillo Farreras, quien, con base en la interpretación de las fuentes documentales, propone una corrección en el "mes" de "crecimiento" (izcalli), en una ceremonia que sólo se celebraba cada 4 años3. En esta forma —explica Castillo Farreras— el problema del bisiesto entre los mexicas quedaría resuelto. |
|
![]() |
|
||||
|
|||||||
Refrerencias Bibliográficas Aveni, Anthony F., Skywatchers of Ancient México, prólogo de Owen Gingerich, Austin & London, University of Texas Press, 1980. Notas Las ideas centrales de este trabajo están desarrolladas en mi libro “Los mitos del tlacuache”.
|
|||||||
____________________________________________________________
|
|||||||
Alfredo López Austin
como citar este artículo → |
![]() |
![]() |
PDF→
|
|||||
Luis E. Acevedo Gómez |
|||||||
EFECTOS A LARGO PLAZO. EL INVIERNO NUCLEAR Cuando un volcán grande hace erupción en la superficie de la Tierra, expele hacia la estratósfera alrededor del globo una gran cantidad de materia. En algunos casos se puede conocer cuánto polvo llega a la alta atmósfera, el tamaño de las partículas (generalmente menores a 1 micra) y la composición de dichas partículas (generalmente ácido sulfúrico y silicatos). Como la estratósfera es muy seca, la lluvia no arrastra dichas partículas; y como el movimiento por convección es casi nulo en la estratósfera, los movimientos atmosféricos no desechan el polvo en la misma. El resultado es que las partículas caen por su propio peso, lentamente ya que son muy livianas y le toma a la estratósfera más de un año limpiarse totalmente. Para muchas explosiones volcánicas existen mediciones que indican un descenso de aproximadamente un grado en la temperatura global. Hoy en día, es posible calcular dichas bajas con gran precisión gracias a diversos métodos desarrollados. Actualmente se sabe que las explosiones nucleares envían grandes cantidades de polvo fino hacia la atmósfera y se han calculado los efectos climáticos que dicho fenómeno puede causar. Además se han hecho estimaciones preliminares de la cantidad de humo que puede surgir debido a incendios en los bosques y ciudades, causados por una guerra nuclear de grandes proporciones. Existe hoy en día en los arsenales de la Unión Soviética y de Estados Unidos, una capacidad de explosión de alrededor de los 60000 megatones. Esto sin incluir, por supuesto, los arsenales nucleares del resto del mundo, principalmente los de Inglaterra, Francia y China, que suman unos pocos cientos de megatones. No se sabe qué cantidad de estas armas podrían detonarse en una guerra nuclear, sólo como consecuencia de ataques directos a silos de misiles y vehículos cargados nuclearmente, además de las que podrían ocurrir por simples fallas técnicas. Sin embargo, sería casi imposible detener una pequeña guerra nuclear antes de que se utilice gran parte de los arsenales mundiales. Por estas razones, al examinar las posibles consecuencias de una guerra nuclear, se debe pensar en la posibilidad de que se desate un intercambio del orden de entre 5000 y 7000 megatones en su totalidad. Sin embargo, muchos de los artefactos que a continuación se discutirán podrían iniciarse con intercambios mucho más pequeños. Existen menos de 2500 ciudades en el mundo con una población de más de 100000 habitantes, de tal forma que la devastación de las mismas está al alcance de los arsenales mundiales. Las más recientes estimaciones de muertes inmediatas, debidas a los efectos directos de explosiones nucleares, y que fueron consideradas para el desarrollo de la primera parte de este trabajo, fluctúan entre 100000000 y 1100000000 que sucederían en el caso de un intercambio nuclear a gran escala. Además, alrededor de 110000000 de personas más sufrirían lesiones serias. Esto significa que cerca de la mitad de la población mundial moriría o sufriría lesiones que requieren atención médica inmediata. La desorganización social, la falta de electricidad, combustible, transporte, comida, comunicación y otros servicios, como los médicos y los de sanidad, así como la proliferación de enfermedades y de severos desórdenes psiquiátricos, causarían aún más muertes entre los sobrevivientes. Otros efectos que no han sido considerados hacen todavía más sombrío el panorama. Existen cuatro efectos que constituyen los principales adversarios del ambiente y que surgen como consecuencia de una guerra nuclear; sin embargo puede haber otros que ni siquiera nos imaginamos. Entre los efectos contemplados destacan: 1. La gran cantidad de partículas condensadas y polvo fino que sube a la alta tropósfera y a la estratósfera, como consecuencia de la vaporización, derretimiento y pulverización de la tierra en explosiones superficiales o de baja altura. 2. La gran cantidad de humo negro generado por los fuegos causados por explosiones sobre ciudades y bosques, el cual sube a la tropósfera (atmósfera baja) y en caso de tormento de fuego puede llegar a la estratósfera (atmósfera alta). 3. Las partículas radioactivas que son enviadas a la tropósfera en ataques de baja explosividad y a la estratósfera en ataques de alta explosividad. 4. La producción de óxidos de nitrógeno en la estratósfera como resultado de la combustión de dicho elemento. Esta combustión estaría causada por el fuego generado por explosiones de entre 0.1 y 1 megatón. Los óxidos de nitrógeno atacarían y destruirían químicamente la capa de ozono que se encuentra en la estratósfera media y causaría un aumento en el flujo de la radiación ultravioleta solar hacia la superficie de la Tierra. El polvo, y en especial el hollín negro, absorbería la luz visible ordinaria que proviene del Sol, calentando la atmósfera y enfriando la superficie. Hoy día está probado que después de una guerra nuclear, sobrevendría una prolongada etapa de temperaturas bajas severas, lo que se conoce como el invierno nuclear. Estos efectos no estarían restringidos a las latitudes medias del hemisferio norte, donde principalmente ocurriría el intercambio nuclear. Hay evidencia sustancial de que el calentamiento atmosférico sobre estas latitudes cambiaría fuertemente la circulación atmosférica global. Las partículas y el polvo atravesarían el ecuador en cosa de semanas llevando el invierno nuclear al hemisferio sur. Todo esto sin tomar en cuenta que también en el hemisferio sur estallarían alrededor de 100 megatones contribuyendo así localmente al invierno nuclear. Aunque en esta zona sería menos intenso, aún así se generarían desórdenes climáticos y ambientales masivos en la región. Debido a la alta capacidad calórica del agua, la temperatura en los mares y océanos bajaría aunque como máximo sólo serían unos cuantos grados. Esto originaría que las temperaturas en las costas no bajaran tanto como en las zonas continentales. Sin embargo, este contraste entre continentes congelados y mares poco fríos, produciría tormentas continuas de intensidades sin precedente en las costas, lo que provocaría gran cantidad de radiación en los vientos y lluvias que llegaran a dichas costas. Se han estudiado los efectos tan serios que se han causado en el mundo entero, cuando se han producido disminuciones en la temperatura global, menores a la que podemos esperar como consecuencia de una guerra nuclear. Estos descensos de temperatura se han dado varias veces debido a las explosiones volcánicas que envían polvo a la estratósfera y obstruyen el paso de la luz solar. Asimismo se ha observado que los pequeños cambios globales están asociados con cambios regionales de considerable magnitud. En los últimos mil años las bajas en la temperatura global no han pasado de 1°C. En una era glacial una baja en temperatura típica es alrededor de 10°C. Algunas estimaciones conservadoras indican que una guerra nuclear de pequeñas proporciones, causaría una baja global en la temperatura de este orden, aunque claro, ésta no duraría tanto como una era glacial. Debido al oscurecimiento del Sol, la luz a pleno día podría llegar a tener la intensidad de la penumbra crepuscular. En las latitudes medias del hemisferio norte estaría tan oscuro a mediodía que no se podría ver nada por espacio de cuatro semanas. En muchas partes del planeta los niveles de intensidad de luz bajarían a un porcentaje por debajo de la intensidad normal y, en algunos casos, podría llegarse a lo que se conoce como punto de compensación, en el cual la fotosíntesis no puede proveer la energía suficiente para que se realice normalmente el metabolismo vegetal en las plantas. La normalización de las temperaturas en todo el mundo puede tardar desde 100 días hasta un año, dependiendo de la cantidad de los arsenales mundiales que sean detonados. Mientras la lluvia radioactiva cae, los niveles de intensidad de luz aumentan calentando nuevamente la superficie. Ahora la reducida capa de ozono permite el paso de la radiación ultravioleta en grandes proporciones. Considerando, como ejemplo, un intercambio de 5000 megatones, se considera que para la radiación que llega pronto a la Tierra (la de mayor intensidad), los contornos de radiación esparcidos por el viento cubrirían 30% del hemisferio norte, con alrededor 250 rems. En adición, habría una dosis de 100 rems distribuida sobre todo este hemisferio. Existen también otros efectos, como serían agujeros en las nubes de polvo, congelamientos inmediatos, dispersión de nubes de humo, circulación atmosférica regional, efectos de precipitación de agua, variación diurna de temperaturas y otros más que pueden causar cambios en el esquema presentado. Algunos de estos podrían mejorar el panorama mientras que otros podrían hacerlo más sombrío. Por esta razón, los cálculos hechos no representan pronósticos completamente acertados, que deban forzosamente cumplirse en caso de una guerra nuclear. Sin embargo, hay acuerdo general en un sentido: después de una guerra nuclear hay un periodo de varios meses, caracterizado por un frío extremo y por penumbra radioactiva, seguido (luego de que se despeja el cielo) por un considerable y extenso periodo de aumento de la inestabilidad de la luz ultravioleta que llegaría a la superficie terrestre. Lo que se ha expuesto hasta aquí, en esta segunda parte es grosso modo lo que se conoce como el invierno nuclear. Sin embargo, cabe mencionar que otro efecto de gran importancia a considerar, es la producción de gases tóxicos provocados por los fuegos desatados. La combustión de una variedad de materiales que se encuentran en las ciudades, como por ejemplo, los empleados en la construcción, los químicos y otros, genera grandes cantidades de prototoxinas, entre los que se cuentan el monóxido de carbono, los cianuros, los cloruros de vinil, los óxidos de nitrógeno, las dioxinas y muchos más. En especial las ciudades de reciente construcción, al incendiarse, contribuirían en mayor cantidad a la generación de dichos químicos. Aunque la magnitud del daño causado por este efecto no se conoce, sí se considera que el ambiente cargado con dichos químicos podría permanecer por varios meses. A todo esto podríamos añadir los sinergismos, los cuales, según discutimos ya en la primera parte, incrementarían las condiciones adversas. Como ejemplo podríamos considerar el siguiente: el número de los depredadores de insectos, digamos, las aves, se reducirían notablemente (por no decir que se extinguirían), debido al frío y a la radiación. Entonces los insectos, siendo más resistentes a cambios severos en el ambiente, proliferarían enormemente. La radiación podría producir formas particularmente virulentas de microorganismos, los que a su vez, podrían ser transmitidos a los seres humanos por los insectos mismos, cuyo sistema inmunológico de alguna forma, se encontraría afectado por los efectos directos o indirectos causados por la guerra nuclear. Los cálculos hechos indican que una guerra nuclear que comprenda tan solo 100 megatones, puede desatar el invierno nuclear. Pero 100 megatones representan sólo el 0.8% de los arsenales mundiales. Este umbral de 100 megatones fue rebasado por los Estados Unidos a principios de la década de los 50. La Unión Soviética los rebasó a mediados de los 60. En ninguno de los dos casos se sabía que se estaba rebasando este límite, ya que no se habían hecho estudios en torno a los efectos climatológicos que podrían ser causados. Hoy en día, se conocen estos efectos y, sin embargo, la proliferación de las armas nucleares mantiene un aumento precipitado. LAS CONSECUENCIAS BIOLOGICAS DE UNA GUERRA NUCLEAR El destino de 2000 o 3000 millones de personas que no mueran inmediatamente en la guerra nuclear, incluyendo los de los países alejados de los blancos nucleares, podría, en muchos sentidos, ser peor que el de las personas en los países atacados. Esta gente, además de sufrir directamente de temperaturas de congelación, oscuridad y radiación, sufriría el peor efecto a largo plazo: el impacto de la guerra sobre los sistemas del medio ambiente del planeta. Para entender esto se debe conocer un poco de lo que en biología se denomina en ecosistema. Un ecosistema es una comunidad biológica (todos los animales, plantas y microorganismos que viven en un área), combinado con el medio ambiente físico en que ellos existen. El medio ambiente incluye la radiación solar, los gases de la atmósfera, el agua de los ríos, los minerales del suelo y otros elementos. La esencia de un ecosistema es una cadena de procesos que conectan a los organismos entre ellos y su medio ambiente físico. Estos procesos incluyen un flujo de energía unidireccional a través del ecosistema y un movimiento cíclico de material en el mismo. La luz solar es la fuente de todos los ecosistemas significativos, no sólo por el papel que juega en la fotosíntesis, sino también porque provoca procesos puramente físicos como la evaporación de agua de los mares y de las superficies terrestres para su recirculación. Se puede comprender entonces, fácilmente por qué un evento que bloquee la luz solar puede tener efectos catastróficos en el funcionamiento de los ecosistemas. Es aquí donde se debe entender que, siendo los humanos parte del ecosistema, su dependencia del mismo es total, para la producción agrícola y para otros servicios públicos. Estos servicios incluyen aspectos como: regulación de climas y mantenimiento de la composición gaseosa de la atmósfera, distribución de agua, eliminación de desechos, reciclamiento de nutrientes, preservación de suelos, control de una gran pare de las plantas que afectan al agro o al hombre, suministro de alimentos del mar y mantenimiento de una biblioteca genética basta, con la cual el hombre ha mantenido la base de la civilización. La perturbación de los ecosistemas significa la eliminación de estos servicios, y los que sobrevivan a la guerra nuclear necesitarán de ellos mucho más que nosotros actualmente. En una guerra nuclear los efectos mayores sobre los ecosistemas serían básicamente dos: la oscuridad extendida sobre el planeta y el frío extremo en los continentes. Sin embargo, hay que considerar otros más, como son los fuegos, la contaminación tóxica, la radiación ultravioleta (que entre otras cosas daña al material genético), la radiación nuclear, las lluvias ácidas, la contaminación química del suelo y de los cuerpos de agua y las tormentas violentas en zonas costeras. Las conclusiones biológicas de los efectos sobre los ecosistemas dependen menos de los patrones exactos de detonación que de los efectos inmediatos de la onda de choque, calor y radiación inicial. Sólo en caso de una guerra de pequeña escala el análisis a hacerse no aplicaría; sin embargo, según se ha discutido ya, una guerra de pequeñas proporciones no es muy factible. Es posible que las conclusiones subestimen las consecuencias debido a que no se conoce el mecanismo detallado global de los ecosistemas y, por lo tanto, no es posible evaluar las interacciones sinergísticas envueltas. Sin embargo, aunque los efectos climáticos no cubrieran el hemisferio norte o el planeta en su totalidad, los impactos de la guerra nuclear en los ecosistemas del planeta serían sustanciales. EFECTOS DEL FRIO Y LA OSCURIDAD Las temperaturas bajas tendrían efectos dramáticos en las poblaciones animales, muchas de las cuales serán eliminadas debido a que éstos no están acostumbrados a tales temperaturas. Sin embargo, la clave para los efectos sobre los ecosistemas, es el impacto de la guerra sobre las plantas. Su actividad se conoce como producción primaria (captura de energía solar a través de la fotosíntesis) y como la acumulación de nutrientes que son necesarios para el funcionamiento de todos los componentes biológicos de ecosistemas naturales y agrícolas. Sin la actividad fotosintética todos los animales dejarían de existir. El impacto de las temperaturas bajas en las plantas, depende, entre otras cosas, de la época del año en que ocurran, de su duración y de la resistencia de las plantas a la congelación. Un descenso abrupto en la temperatura es particularmente dañino. Después de una guerra nuclear las temperaturas bajarían rápidamente sin permitir que las plantas que posean cierta resistencia al frío pudieran aclimatarse antes de que la temperatura descendiera a niveles letales. Incluso si se dieran temperaturas considerablemente más altas que el punto de congelación, causarían daño a algunas plantas… Además, las plantas enfermas o dañadas poseen una reducida capacidad de aclimatación al frío. Todo esto causaría que virtualmente todas las plantas terrestres en el hemisferio norte se dañaran o murieran después de una guerra, si ésta ocurre durante una temporada de crecimiento o antes. Una guerra en otoño o invierno no causaría una gran devastación de cosechas, ya que el trigo, el arroz, el maíz y otros granos, ya estarían recogidos y almacenados. Sin embargo, debido a que el invierno nuclear duraría varios meses, la cosecha de la temporada siguiente no prosperaría. También, como las temperaturas de invierno alcanzarían extremos mayores a lo de costumbre, también serían destruidas las cosechas perennes como los árboles frutales y otras. Aunque las semillas de plantas de climas templados no se dañarán por el frío, las de plantas tropicales sí se afectarían. Una guerra en otoño o invierno tendría mucho menos impacto en las plantas de altas latitudes, que una guerra de primavera o verano; sin embargo, en los trópicos, donde las plantas crecen todo el año, sería catastrófico. Sólo en las zonas costeras las plantas terrestres no serían devastadas por el frío, pero las de estas zonas se verían sometidas a las tormentas causadas por las diferencias de temperatura entre los mares y los continentes. Además del frío, el bloqueo de la luz solar terminaría con la actividad fotosintética. Esto tendría consecuencias innumerables que se propagarían a lo largo de la cadena alimenticia. La producción primaria se vería reducida en proporción a la cantidad de luz que llegara del Sol. Si el nivel de luz decayera un 5% o menos, cosa que es muy probable en las latitudes medias del hemisferio norte, la mayoría de las plantas cesaría de crecer. Entonces, aún si las temperaturas permanecieran normales, la productividad de las cosechas y los ecosistemas naturales se vería reducida por el bloque de la luz. Combinados el frío y la oscuridad constituirían una catástrofe sin precedentes para los ecosistemas. EFECTOS DE LA RADIACION ULTRAVIOLETA Los óxidos de nitrógeno enviados a la estratósfera provocarían una reducción de la capa estratosférica de ozono del orden de 50%. Normalmente esta capa de ozono filtra la luz solar de la radiación ultravioleta. Aunque durante los primeros meses posteriores a la guerra, el polvo y el hollín impedirían que dicha radiación llegara a la superficie terrestre, la ausencia de ozono duraría más tiempo y cuando la atmósfera se despejara, los organismos se verían sometidos a niveles de radiación ultravioleta mucho más altos que los considerados como dañinos para ecosistemas y seres humanos. Las plantas reducen el proceso de fotosíntesis en presencia de la radiación ultravioleta. Pero además, las hojas que se han desarrollado en luz de poca intensidad, son dos o tres veces más sensitivas a esta radiación que las que se han desarrollado normalmente bajo luz solar. En este caso se complicaría el daño a las plantas por la radiación ultravioleta. El sistema inmunológico humano y de otros mamíferos se debilita, incluso, en presencia de bajas dosis de radiación ultravioleta. Este efecto, en combinación con las enfermedades y otras circunstancias más, afectaría de manera crítica la habilidad de recuperación del organismo. También se ha sugerido que la exposición prolongada a dicha radiación con niveles aumentados, produce pérdida de la visión. EFECTOS DE LA LLUVIA RADIOACTIVA Hechos estimados sugieren que las primeras 48 horas en el hemisferio norte un total de 2000000 de millas cuadradas serían expuestas a niveles de radiación sobre 1000 rems, en la dirección en que sopla el viento desde los puntos de detonación. Estas dosis son letales para todas las personas, animales y plantas expuestas. Aproximadamente un 30% del área de las latitudes medias del hemisferio norte, se expondría a más de 500 rems en las primeras 24 horas, con las consecuencias ya discutidas en la primera parte de este trabajo. El número total de personas afectadas en esta parte del globo sería mayor al 1000000000. Dosis más pequeñas que las anteriores cubrirían la mitad o quizás más, del hemisferio norte causando cáncer y mutaciones genéticas. El efecto de la radiación sobre los ecosistemas es más difícil de predecir, debido a que los distintos organismos poseen diferente susceptibilidad a la radiación. Los más vulnerables resultan ser las coníferas, que forman bosques extensos sobre las partes más frías del hemisferio norte. Esta vegetación quedaría destruida en un área total de más del 2% del hemisferio norte. Esto, a su vez, propiciaría las condiciones para el desarrollo de fuegos extensos. Aparte de las coníferas, las aves y los mamíferos son también muy sensitivos a la radiación. Así, pues, este fenómeno contribuiría al trastorno del funcionamiento normal de los ecosistemas. Además, algunos isótopos radioactivos entrarían en los ciclos alimenticios, concentrándose en el proceso y aumentando los daños sobre los organismos ya afectados. EFECTOS DE LOS FUEGOS Y LA NUBE DE POLVO Y OLLIN Muchos de los ecosistemas se dañarían o destruirían como resultado de la onda de choque, de la bola de fuego y de la radiación, durante las miles de explosiones nucleares en los distintos blancos. Además, los pozos petroleros, las reservas de carbón, etc., continuarían ardiendo por meses. Así, los fuegos secundarios, que cubrirían posiblemente 5% o más de la superficie del hemisferio norte, tendrían efectos devastadores sobre los ecosistemas. En el caso de las áreas extensamente quemadas, durante la siguiente temporada lluviosa se propiciarían inundaciones y erosiones catastróficas. Los desechos tóxicos y radioactivos arrastrados por las aguas, podrían matar gran pare de la fauna de los ríos, lagos y zonas costeras. En ese caso, se eliminaría esta fuente de alimentos para los humanos sobrevivientes, al morir o contaminarse los peces y otros alimentos. Los grandes fuegos calentarían suficientemente el suelo como para matar las semillas durmientes. Además, ha hechos que indican que los fuegos podrían llegar a cubrir hasta 600 millas cuadradas. Esto generaría un fuerte smog en la atmósfera, compuesto de una variedad de químicos tóxicos, y traería, como consecuencia probable, lluvias ácidas de alta toxicidad. La dinámica alterada de la atmósfera tendría por resultado severas sequías en ciertas áreas. Al someter los ecosistemas a la combinación de varios de los efectos ya considerados (frío, oscuridad, fuego, lluvia ácida, etc.) se podrían desatar plagas y enfermedades que se extenderían en tiempo y espacio, más allá de la devastación directa de la guerra. EFECTOS SOBRE VERTEBRADOS Y ORGANISMOS TERRESTRES Los herbívoros y carnívoros salvajes, al igual que los animales domésticos, morirían debido al frío, al hambre o inclusive a la sed, ya que los cuerpos de agua estarían congelados. Así, proliferarían, después de la guerra, los animales que se alimentan de organismos descompuestos gracias a la gran cantidad de cuerpos humanos y animales insepultos. Debido a esto, después del deshielo, los animales más numerosos serían: ratas, cucarachas, moscas y otros semejantes. Los organismos que no fotosintetizan podrían permanecer inactivos por largos periodos, No se verían muy afectados por el frío y la oscuridad. Pero en muchas áreas la ausencia de vegetación expondría el suelo a una gran erosión gracias al viento y al agua, por lo que, aunque estos organismos no son especialmente susceptibles a los efectos atmosféricos de la guerra, se verían afectados porque los ecosistemas en que ellos se encuentran sí serían destruidos. EFECTOS SOBRE LOS SISTEMAS AGRICOLAS Los sistemas agrícolas se afectarán mediante el mismo tipo de mecánica que los ecosistemas naturales. En los centros urbanos se almacenan pocos alimentos básicos, y en el caso de la carne y de otros productos perecederos, las existencias acumuladas son mínimas por tratarse de producción reciente. Sólo los cereales se guardan en cantidades significativas, pero, usualmente los lugares de almacenamiento se encuentran en sitios alejados de los centros urbanos. Debido a todo esto, después de la guerra las fuentes de comida en el hemisferio norte serían destruidas o contaminadas, o localizadas en áreas inaccesibles, o agotadas en poco tiempo. Los sobrevivientes de la guerra pronto estarían pasando hambre. Los países dependientes de importaciones, aunque no hayan sufrido ataques directos, resentirían el cese de dichas importaciones. Entonces estos países tendrían que depender de su agricultura y ecosistemas naturales, lo que para muchos países en desarrollo podría significar hambre en gran parte de su población. La recuperación de la agricultura en la posguerra sería muy difícil. Muchas cosechas dependen grandemente de subsidios de energía y fertilizantes. Además, la producción agrícola en masa necesita buena luz solar, fuentes de agua adecuada, supresión de plagas y otras circunstancias. Luego de que las condiciones ambientales regresaran a lo “normal”, la facilidad con que se pueda recuperar la agricultura, dependería de la reorganización de los sistemas sociales (la disponibilidad de energía y condición psicológica de la población), y del grado en que haya sobrevivido la producción de semillas y animales. Como las semillas para la mayor parte de Norteamérica, Europa y la Unión Soviética no se almacenan en granjas individuales, se reduciría aún más su disponibilidad para el cultivo. A todo esto le podemos añadir que, debido a la hostilidad del clima, las cosechas serían menos abundantes que lo normal si no es que fracasan. Se debe enfatizar que los sistemas agrícolas dependen inevitablemente del ecosistema natural en que ellos se encuentran. EL DESTINO DE LOS TROPICOS Para cualquier escenario de guerra nuclear, la propagación del frío y oscuridad en los trópicos de ambos hemisferios, es similar. Aunque estos efectos se encontraran perfectamente concentrados en las regiones más templadas del norte, los pulsos de aire frío penetrarían hacia los trópicos. Muchas plantas en las regiones tropicales y subtropicales no poseen mecanismos que les permitan inactivarse para tolerar temporadas frías. Y aunque las temperaturas no descendieran al punto de congelación, aún así se producirían daños en gran escala sobre las plantas. Además, grandes áreas de la vegetación tropical se encuentra cerca del “punto de compensación” fotosintético (su toma de CO2 es sólo un poco mayor que la expulsión del mismo). Si los niveles de luz bajan, aunque la temperatura no baje, dichas plantas empezarían a expulsar más CO2 del que toman. Si la oscuridad permaneciera por mucho tiempo o si además bajara la temperatura simultáneamente, desaparecerían muchos bosques tropicales. Al desaparecer se estaría perdiendo con ellos la diversidad genérica, incluyendo especies animales y vegetales. Los animales tropicales son más susceptibles al frío que los de las zonas templadas, por lo tanto muchos morirían. En resumen, las consecuencias debido a los cambios climáticos en las zonas tropicales, serían más severas que en las zonas templadas. Además, aún en ausencia de frío y oscuridad, en las zonas tropicales la dependencia de los humanos de importación de comida y fertilizantes, llevaría a problemas serios. Gran número de gente se vería forzada a salir de la ciudad a cultivar las áreas restantes de bosques lluviosos tropicales, acelerando su destrucción al forzar el sistema más allá de su capacidad. EFECTOS SOBRE LOS ECOSISTEMAS ACUATICOS En general, como la temperatura de los océanos bajaría un poco según se discutió ya, los sistemas acuáticos sufrirían menos los efectos del frío que los sistemas terrestres. Sin embargo, los cuerpos de agua dulce (ríos, lagos) se congelarían hasta profundidades considerables. Esto reduciría los niveles de intensidad de luz en los mismos, y por lo tanto, el oxígeno se acabaría y muchos organismos acuáticos morirían. En los océanos la oscuridad impediría la fotosíntesis de las algas que es la base de la cadena alimenticia. La reproducción de estas algas, conocidas como fitoplancton, sería reducida o eliminada en muchas partes y el fitoplancton sobreviviente sería consumido pronto por el zooplancton (consumidores de fitoplancton). Cerca de la superficie oceánica, la producción de fitoplancton se reduciría debido a los niveles de radiación ultravioleta. Mientras que en el hemisferio norte, las cadenas alimenticias marinas podrían ser alteradas gracias a la extinción de muchas especies de peces. A esto hay que añadir que las aguas del mar, después de la guerra, se verían convertidas en zonas tormentosas, lo que haría de la pesca una tarea difícil, si no es que imposible. En general, la situación tiende a indicar que la alimentación proveniente de la vida marina sería inaccesible para los sobrevivientes. EL DESTINO DE LA TIERRA Debido a los efectos del frío y la oscuridad, la sobrevivencia humana se vería claramente restringida a las islas y zonas costeras del hemisferio sur y la población humana retrocedería a niveles prehistóricos. Aún admitiendo esta posibilidad, es cuestionable la sobrevivencia de estos grupos de gente, o de individuos solitarios. Los humanos son animales sociales, son muy dependientes de las estructuras sociales que han construido. Tendrían que enfrentarse a un medio ambiente, no sólo extraño para ellos, sino además mucho más maligno de lo que jamás han experimentado. Los sobrevivientes se enfrentarían a una mundo salvaje donde tendrían que cazar para sobrevivir. Aquí debemos señalar que en el pasado, los que han tenido que vivir de esta forma conocían ampliamente su medio ambiente, mientras que después del holocausto nuclear, los sobrevivientes se encontrarían con un medio ambiente nunca antes experimentado por el hombre. El estado psicológico de los sobrevivientes es difícil de imaginar, por lo que no hay que descartar la posibilidad de que los sobrevivientes sean incapaces de reconstruir sus poblaciones y que al cabo de algunos siglos, o posiblemente décadas, el Homo sapiens sea una especie extinta. |
|
![]() |
|
||||
|
|||||||
Refrerencias Bibliográficas Glasstone, S. P. J., Dolan, 1977, The effects of nuclear weapons, U.S. Department of Defense and Energy, Washington, D. C. Amenaza nuclear I apareció en CIENCIAS 17, enero, 1990. |
|||||||
____________________________________________________________
|
|||||||
Luis E. Acevedo Gómez
como citar este artículo → |
|
![]() |
PDF→
|
|||||
Alfredo Bueno Hernández |
|||||||
Luego dijo Dios: Produzca la tierra seres vivientes según su género, bestias y serpientes y animales de la tierra según su especie. Y fue así. E hizo Dios animales de la tierra según su género y todo animal que se arrastra sobre la tierra según su especie. Y vio Dios que era bueno. El concepto de centro de origen ha permeado la biogeografía, prácticamente desde sus inicios. La búsqueda de centros de origen constituyó una parte esencial del programa de investigación dominante en la biogeografía, durante un periodo que abarcó aproximadamente un siglo, desde la publicación, en 1849, de El Origen de las Especies hasta la década de los años sesenta de este siglo, cuando se publicó la traducción al inglés de Phylogenetic Systematics de Henning (1966) y cuando se consolidó la teoría sobre tectónica de placas. Este ensayo pretende hacer un breve bosquejo de este concepto considerando las implicaciones que ha tenido para los dos paradigmas que han dominado la biogeografía histórica de este siglo: la biogeografía dispersionista y la biogeografía de la vicarianza. La biogeografía tiene como objeto de estudio los patrones de distribución de los taxa presentes y pasados sobre la superficie de la tierra. Así mismo se interesa tanto por descubrir la historia del cómo se han adquirido estos arreglos, como por investigar las causas que los han producido (Simberloff, 1983). Tradicionalmente se ha hecho una distinción entre biogeografía histórica y ecológica. La primera se enfoca al estudio de las causas históricas de la distribución y se apoya fundamentalmente en la sistemática, las ciencias de la tierra y la paleontología. La comprensión de los patrones actuales de distribución de las biotas, depende en gran medida del conocimiento de los cambios históricos que han ocurrido en los climas, la geografía y la distribución de las biotas. La biogeografía ecológica se circunscribe preferentemente al estudio de los factores que en la actualidad influyen sobre la distribución de los organismos, como son las interacciones bióticas y las condiciones del entorno físico. La descripción de las distribuciones de plantas y animales, tanto extintos como recientes, así como su explicación, son asuntos sobre los que se encuentran preferencias desde mucho antes que se publicara, en 1761, la primera parte de la Histoire Naturelle de Jean Louis Leclerc, conde de Buffon. Ya en libros tan antiguos como la Biblia se encuentran ciertas ideas al respecto. En el mundo occidental, desde antes de iniciarse la edad media, hasta el llamado Siglo de las Luces, prevaleció una “visión cristiana de la vida” (Templado, 1974). Bajo esta concepción del mundo, bajo esta “epiteme” (sensu Foucault, 1989), se creyó que todas las especies que han fatigado la tierra se originaron por un acto de creación divina en el Edén bíblico, que se convirtió así en el centro de origen por excelencia. A partir del Concilio de Trento (que duró de 1545 a 1563), en el que se decidió la interpretación literal de la Biblia, se reafirmó la creencia en un acto de creación único en el tiempo y localizado en el espacio. Sin embargo, ya desde fines del siglo XV habían comenzado los grandes viajes de exploración. El descubrimiento de nuevas especies vegetales y animales, que tanto asombro causaron a los primeros europeos que llegaban a las ignotas tierras, así como el encontrar otras similares a las que ellos conocían en lugares tan remotos, hizo que comenzaran a plantearse los primeros problemas biogeográficos. Los nuevos hechos no cazaban con la aceptación de un centro único de creación. El oidor Tomás López Medel (in Trabulse, 1985) escribía a mediados del siglo XVI: “Es admirable la naturaleza en la variedad con que para mayor contento del hombre reparte en diversas provincia y regiones las cosas producidas. En Indias hay especies que en ningún otro lugar se hallan; y ante todas cosas parecen ser de aquellas partes y pertenecerle…”. La idea que se manifiesta en este antiguo párrafo, es decir, que en diferentes partes del mundo se encuentran especies también distintas, seguirá apareciendo de manera recurrente y constituye un punto de partida importante para el esclarecimiento de ideas biogeográficas fundamentales. De entrada, la noción mencionada, a la que Nelson (1978) denomina “ley de Buffon”, provocó conflictos entre los primeros exploradores europeos que, como el padre de Joseph de Acosta, estaban profundamente influidos por el relato del Génesis Bíblico. Este jesuita español, que llegó por primera vez a América en 1570, manifiesta las dudas y conjeturas que en él provocaron los nuevos hechos de distribución. En su Historia Natural y Moral de las Indias (in Templado, 1974), al tratar de explicar cuál es el origen de los hombres que habitan América, razona: “…porque no se trata qué es lo que pudo hacer Dios, sino qué es conforme a razón y al orden y estilo de las cosas humanas”. “…es para mi una gran conjetura para pensar que el nuevo orbe, que llamamos Indias no está del todo diviso y apartado del otro orbe. Y por decir mi opinión, tengo para mi días ha que la una tierra y la otra en alguna parte se juntan, y continúan, o a lo menos se avecinan y allegan mucho…” “…si esto es verdad, como en efecto me lo parece, fácil respuesta tiene la duda que habíamos propuesto: cómo pasaron a las Indias los primeros pobladores de ellas, porque se ha de decir que pasaron no tanto navegando por mar, como caminando por tierra; y ese camino lo hicieron muy sin pensar, mudando sitios y tierra poco a poco; y unos poblando las ya halladas, otros buscando de nuevo, vinieron por discurso de tiempo a henchir las tierras de Indias de tantas naciones y gentes y lenguas”. Al preguntarse sobre el origen de los animales que poblaban América, llega el jesuita a conclusiones semejantes: “Halláronse, pues, animales de la misma especie que en Europa, sin haber sido llevados de españoles. Hay leones, tigres, osos, jabalíes, zorras y otras fieras y animales silvestres, de los cuales hicimos en el primero libro argumento fuerte, que no siendo verosímil que por mar pasasen en Indias, pues pasar a nado el océano es imposible, y embarcarlos consigo hombres es locura, síguense que por alguna parte donde el un orbe se continúa y avecina al otro, hayan penetrado, y poco a poco poblando aquel nuevo mundo. Pues conforme a la Divina Escritura, todos estos animales se salvaron en el arca de Noé y de allí se han propagado en el mundo”. “Mayor dificultad hace averiguar qué principio tuvieron diversos animales que se hallan en Indias y no se hallan en el mundo de acá. Porque si allá los produjo el Creador, no hay para qué recurrir al arca de Noé, ni aún hubiera para qué salvar entonces todas las especies de aves y animales si habían de crearse después de nuevo; ni tampoco parece que con la creación de los seis días dejara Dios el mundo acabado y perfecto, si restaban nuevas especies de animales por formar, mayormente animales perfectos, y de no menor excelencia que esotros conocidos”. “…todos los animales salieron del arca, pero por instinto natural y providencia del cielo, diversos géneros se fueron a diversas regiones, y en algunas de ellas se hallaron tan bien que no quisieron salir de ellas, si salieron no se conservaron, o por tiempo vinieron a fenecer, como sucede en muchas cosas. Y si bien se mira esto no es cosa propia de Indias, sino de muchas otras regiones y provincias de Asia, Europa y África, de las cuales se lee haber en ellas castas de animales que no se ha hallan en otras”. Resulta admirable la forma en que el padre Acosta interpreta los nuevos descubrimientos de distribución, apegándose estrictamente a la narración bíblica del Diluvio y del Arca de Noé, rechazando la posibilidad de un acto de creación múltiple en el espacio y escalonado en el tiempo. Sin embargo, no es capaz de distinguir que los animales que él considera compartidos por los dos mundos, no son de la misma especie. En su explicación de los hechos de distribución, está implícito el supuesto de un centro único de origen, y la ocurrencia de especies propias de América, la explica a partir de una migración gradual. He citado extensamente al padre Acosta con la intención de dejar asentado que ya, desde un escrito del siglo XVI, aparece la asociación entre dos ideas que reaparecerían vigorosamente como el núcleo central del programa de investigación de la biogeografía tradicional, iniciado por Darwin y Wallace y continuado por Matthews, Simpson, Darlington, Mayr y Uvardy entre otros: la búsqueda de centros de origen y de rutas de dispersión. Así, por ejemplo, Uvardy razonaba hace apenas veinte años (1969): “Cada especie animal se originó a partir de unos pocos ancestros confinados en un área limitada; si una especie en particular se encuentra ahora ampliamente extendida, por necesidad debe haber alcanzado partes de su actual área de distribución en un periodo anterior”. En la última edición de El Origen de las Especies, aparecen dos capítulos dedicados a la distribución geográfica. En ellos, la intención fundamental de Darwin es demostrar que la teoría de la descendencia con modificación, es congruente con los hechos de distribución, mientras que éstos no tienen sentido si se asume una posición creacionista. Ya desde el siglo XVIII, Buffon se había percatado de que las regiones diferentes estaban habitadas por animales totalmente distintos; de esto se dio cuenta, a pesar de que previamente había compartido la opinión, tan generalizada en su tiempo, de que las faunas y floras de las distintas regiones, eran el “producto” de dichas regiones, y de que las características propias de cada fauna, tenían como causa principal las condiciones físicas locales. Al comparar a los mamíferos que habitaban el Nuevo Mundo y el Viejo Mundo, Buffon concluía: “Ninguna especie de la zona tórrida de un continente se encuentra en el otro”. (in Nelson, 1978). Este principio, que actualmente se reconoce en el concepto de alopatría, fue generalizándose sucesivamente, hasta establecerse en términos más formales. A principios del siglo XVIII, Humboldt encontraba que la ley de Buffon era aplicable a las dicotiledóneas y monocotiledóneas, con excepción de algunas especies. Para entonces, este principio de Buffon se había extendido de los mamíferos a las aves, reptiles, insectos y plantas, y a cualquier tipo de región separada por alguna barrera, aun cuando fueran regiones con idénticas condiciones físicas y climáticas. Así, cuando en 1820 aparece la Geografía Botánica, de Candolle hace una clara distinción entre las causas históricas y las que hoy llamaríamos ecológicas, de la distribución. Señala que la afirmación de que las floras y faunas de cada región son el producto de las circunstancias, contradice al hecho de encontrar faunas y floras con composición de especies muy distinta en diferentes regiones, aun cuando éstas compartan el mismo clima, y la misma elevación; en fin, las mismas condiciones físicas. En otras palabras, ello significa que la distribución de las biotas no se explica satisfactoriamente por las condiciones físicas, sino que existen además razones históricas. A partir de tales hechos de distribución, de Candolle deduce el concepto de regiones botánicas, es decir, áreas con una composición propia y particular de especies. De esta manera, a partir del planteamiento expuesto por de Candolle, la biogeografía toma como su objeto de estudio, las áreas de endemismos. La biogeografía se constituye así como una disciplina que tiene como finalidad encontrar las explicaciones causales de las áreas de endemismos. De Candolle propone que la explicación de las áreas de endemismos, debe buscarse en causas geológicas que ya no operan en la actualidad. Si bien Darwin reconoce al igual que de Candolle que en la distribución de los organismos intervienen causas históricas y causas físicas (ecológicas), da un giro radical a la explicación de las áreas de endemismos: su causa debe buscarse en episodios de “dispersión”, que se deben entender como migraciones a grandes distancias. Para Darwin, los patrones de distribución (áreas de endemismos) se habrían originado por migraciones de organismos que, alcanzado un área, se modificaban en el transcurso del tiempo. De Candolle y el propio Lyell en cambio, nunca le atribuyeron mucha importancia a la dispersión. Para ellos este fenómeno sólo explicaba los casos relativamente raros de distribuciones cosmopolitas, que representaban las excepciones a la ley de Buffon. De este modo, se constituye lo que podríamos llamar el núcleo duro de la concepción biogeográfica darwiniana: dispersiones sobre una geografía estable. Esta concepción fue desarrollada ampliamente por Wallace, quien además agregó la noción de que, a través de la selección natural, habían surgido especies dominantes, con gran capacidad competitiva, en pequeños centros de origen, a partir de los cuales se habían dispersado por toda la Tierra. No deja de ser curioso el percatarse de la gran similitud que hay entre estas concepciones de las narraciones bíblicas y la biogeografía dispersionista. Al igual que las faunas dominantes, las ideas darwiniano-wallaceanas, comenzaron a desplazar a las ideas rivales. El mismísimo Hooker, al que Darwin trató siempre con tan marcada deferencia, fue escarnecido por sus colegas cuando tuvo el atrevimiento de sugerir que una separación de los continentes podría explicar algunos casos de distribuciones disyuntas. Así, durante el denominado periodo wallaceano de la biogeografía (Platnick y Nelson, 1984), el paradigma fue explicar los patrones de distribución de las biotas por episodios de dispersión. Dentro de la tradición darwiniano-wallaceana, se distinguirían dos tipos de dispersión: 1. Dispersiones normales, que ocurren sin ninguna barrera de por medio, seguidas por la extinción local de la especie en la zona intermedia. El resultado de tal fenómeno sería el aislamiento entro dos poblaciones anteriormente continuas. 2. Dispersiones improbables a través de barreras, en donde se adquiriría un aislamiento inmediato. Debido a que se fueron descubriendo cada vez más casos de distribuciones anómalas, que no se explicaban por primer tipo de dispersión, se recurrió cada vez con mayor frecuencia a la dispersión improbable, como explicación causal de la ley de Buffon. Nelson (1978) comenta al respecto que de este modo la escuela biogeográfica que continúo la tradición de Darwin y Wallace, se convirtió en una ciencia de lo raro, lo milagroso, lo misterioso y lo improbable. Por otra parte, la ley de Buffon, que ya se había generalizado con de Candolle, alcanzó todavía un nivel más amplio a través de la visión penetrante de Sclatter. Phillip Lutley Sclatter, inventor de la mítica Lemuria (Wendt, 1982), el hipotético continente sureño, que durante el Mesozoico ocupaba la mayor parte de lo que hoy es el Océano Índico, afirmaba que todas las especies animales fueron creadas exactamente en el mismo lugar en donde hoy se encuentran; este mismo investigador, el mismo año en que Darwin presentó su celebérrimo trabajo a los “fellows” de la Linnean Society, hizo notar un hecho fundamental: las propias regiones biogeográficas están relacionadas entre sí; dos regiones están más relacionadas entre sí que con cualquier otra. Tal derivación de la ley de Buffon, que era un patrón ya intuido con anterioridad, fue expresado por vez primera por Sclatter. Él mismo proponía que cada investigador, trabajando con el taxón de su interés, propusiera sus propias regiones, para al final ver qué tanto podían coincidir entre sí las divisiones establecidas con diferentes grupos. Sin embargo, a pesar del interesante patrón que había descubierto Sclatter, la investigación biogeográfica se centró tanto en mantener y justificar las seis regiones biogeográficas propuestas por Sclatter y Wallace, bajo un esquema dispersionista, como en la búsqueda de centros de origen y de rutas de dispersión. El problema planteado por Sclatter pasó a segundo término. Con todo, desde entonces quedó planteada una disyuntiva: ¿existe algún principio general que pueda explicar las áreas de endemismos?, o ¿las áreas de endemismos no son más que la resultante accidental de múltiples y singulares episodios de dispersión? Durante un siglo, la opinión prevaleciente entre los biogeografos, fue la de considerar a las áreas de endemismos como meros artefactos construidos casualmente por dispersiones, con una utilidad meramente descriptiva y que servía como marco de referencia para evidenciar distribuciones anómalas. No obstante, desde el principio de este siglo aparecieron posturas disidentes. Según refieren Croizat, Nelson y Rosen (1974), Briquet, en 1901 opinaba que el concepto de centro de origen había ejercido influencia desafortunada sobre la investigación fitogeográfica. El concepto, decía, implicaba varios supuestos de dudosa validez. En 1943, Caín analizó los criterios, por medio de los cuales, podían reconocerse los centros de origen en los estudios biogeográficos; al menos se habían propuesto 13 criterios diferentes, de los cuales, ninguno era plenamente confiable: “Parece haber sólo una conclusión posible, que sobrepasa los propósitos de esta discusión, sobre los criterios para establecer centros de origen. Las ciencias de la geobotánica y de la geozoología padecen de una pesada carga de hipótesis y supuestos que han surgido de un abuso del razonamiento deductivo. Lo más necesario en estos campos es una vuelta completa al razonamiento inductivo, reduciendo a un mínimo los supuestos y proponiendo hipótesis basada en hechos demostrables, sólo cuando sea necesario. En muchos casos los razonamientos que resultan de los razonamientos deductivos han permeado tan extensamente la ciencia de la geografía y han sido tanto tiempo parte de su trama y urdimbre, que los estudiantes de esta área sólo con dificultad pueden distinguir los hechos de la ficción”. De manera independiente, Croizat, llegó a la misma conclusión y elaboró en consecuencia un enfoque más inductivo para la biogeografía histórica. Sin embargo, se han seguido usando, a pesar de sus desventajas los criterios para encontrar centros de origen, como rutina preliminar para el análisis zoogeográfico. Por ejemplo, Mayr (in Croizat et al., 1974) dividió la avifauna de Norteamérica de acuerdo a sus presuntos centros de origen: “Entre las aves estrictamente terrestres, hay ocho familias tan ampliamente extendidas, que su análisis en este momento es muy difícil”. No obstante, Mayr pudo adivinar, según comenta Crisat, Nelson y Rosen, que los caprimúlgidos bien pudieron originarse en el Nuevo Mundo así como los carpinteros, “aunque el hecho de que sus parientes más cercanos (Jyngiade) sean exclusivos del Viejo Mundo, parece indicar lo contrario”. Por razones similares, Mayr tuvo que desistir de establecer centros de origen para cerca del 30% de las familias de aves de Norteamérica. Darlington también es muy confuso al tratar de establecer centro de origen (in Croizat et al., 1974): “En cierto sentido, las aves son los animales mejor conocidos. Se conocen casi todas las especies que existen, además de millares de subespecies geográficas, y la distribución de muchas de las especies se conoce al detalle… sin embargo, todavía encuentro la distribución de las aves como algo muy difícil de entender. El patrón actual es suficientemente claro aunque complejo; el proceso que ha producido el patrón —la evolución y la dispersión es muy difícil de rastrear y entender”. El comentario mordaz de Croizat no se hace esperar: “Aparece en Darlington la curiosa idea que de acuerdo a su método de análisis, entre mejores son los datos, más difícil, y hasta imposible es su interpretación” (Croizat et al., 1974). León Croizat, que durante mucho tiempo se dedicó a recopilar la información sobre distribuciones de muchos grupos, retomó la línea de investigación que habían planteado Sclatter. Desarrolló un método, la panbiogeografía, mediante el cual descubrió que las distribuciones no muestran un patrón al azar, sino que por el contrario muestran congruencia para muy diversos grupos, lo que indicaría que comparten una misma historia. Con estos resultados, Croizat se dedicó sistemáticamente a hacer una feroz crítica, tanto de la biogeografía dispersionista, como de sus más destacados proponentes. Precisamente uno de los puntos que más atacó fue el de los supuestos centros de origen. Croizat sostuvo dos principios fundamentales: 1. La explicación causal de la ley de Buffon, es el cambio tectónico y no la dispersión. 2. Las grandes regiones biogeográficas propuestas por Sclatter y Wallace, para los organismos terrestres, no corresponden a los continentes actuales, sino a las bases oceánicas. Por otra parte, la confirmación experimental de la expansión del piso oceánico y la aceptación de la teoría sobre tectónica de placas, dio gran auge a una nueva corriente dentro de la biogeografía histórica: la biogeografía de la vicarianza. Mientras que los dispersionistas recurren a eventos de dispersión únicos e irrepetibles, para explicar las distribuciones disyuntas, la biogeografía de la vicarianza propone que los patrones generales de distribución de las biotas actuales, se explican por los cambios geográficos que subdividieron a las biotas ancestrales. Mientras que en el caso de la dispersión, no hay forma de someter a prueba una hipótesis que se basa en episodios únicos e irrepetibles, la biogeografía de la vicarianza tiene el atractivo de proponer hipótesis susceptibles de falsificarse en el sentido popperiano (Popper, 1974). Lo que no deja de ser intrigante, es la razón por la cual no se siguió la línea de investigación planteada explícitamente por de Candolle: buscar la explicación causal de las áreas de endemismos. Por qué, a pesar de que su trabajo fitogeográfico fue ampliamente conocido, se olvidó su recomendación. Podrían al menos darse dos posibles explicaciones. La primera tiene que ver con el espíritu colonialista que campeaba durante la edad dorada del expansionismo inglés (para hacer un poco de historia externalista). Ello queda claramente ilustrado por un botón de muestra: la opinión de Huxley, quien creía fervientemente en el advenimiento de una era inglesa, en la cultura y en la ciencia. En este contexto puede entenderse el fervor nacionalista de Thiselton Dyer (Nelson, 1978), colega de Wallace, y a quien le parecía lo más natural que las formas dominantes, por supuesto las nórdicas, se hubiesen desplazado hacia el sur, lo mismo que la raza inglesa que colonizaba diversas partes australes. La segunda razón (esta vez de carácter interiorista), es que antes de que se desarrollara la teoría sobre tectónica de placas, nadie, en su sano juicio hubiera concebido una fuerza tan poderosa como para desgarrar y separar continentes enteros. Actualmente, la búsqueda de centros de origen no tiene sentido para muchos destacados biogeógrafos. La intención es pasar de un estado narrativo de la biogeografía a uno analítico. Se intentan, mediante la metodología cladista y las evidencias geológicas, establecer hipótesis que sean susceptibles de someterse a pruebas rigurosas. Esta tendencia es congruente con las ideas planteadas por Popper (1974): no se trata de buscar evidencias acumulativas que apoyen cada vez más una hipótesis, sino, al contrario, se piensa que la mejor manera de probar su validez, es someterla a pruebas rigurosas. En la medida que la hipótesis las resista, será una buena hipótesis. Ciertamente en algún lugar tuvieron que originarse las especies, sólo que la búsqueda de estos lugares parece, como muchas otras empresas humanas que se han frustrado, la persecución de fantasmas inasibles. |
|
![]() |
|
||||
|
|||||||
Refrerencias Bibliográficas Croziat, L., G. Nelson, y D. Rosen, 1974, Centers of Origin and Related Concepts, Syst. Zool., 23 (2):265-287. Este trabajo fue resultado de los seminarios de posgrado: Historia y Filosofía de la Biología y Biogeografía Avanzada en la Facultad de Ciencias, UNAM. |
|||||||
____________________________________________________________
|
|||||||
Alfredo Bueno Hernández
como citar este artículo → |
|
![]() |
PDF→
|
|||||
Javier Valdés Gutiérrez |
|||||||
La vida universitaria del Instituto de Biología se inició precisamente el año de la autonomía el día 9 de noviembre de 1929, fecha en que su primer director, nombrado por el H. Consejo Universitario, Profesor Isaac Ochoterena, recibió a nombre de la Universidad Nacional Autónoma de México, los restos de la antigua Dirección de Estudios Biológicos de manos de Don Alfonso L. Herrera, mediante el oficio número 5860 de la Sección de Control de la, en ese entonces, Secretaría de Agricultura y Fomento. Dicho oficio, particularmente extenso, hacía mención en su hoja número 9 en términos francamente dramáticos de lo inadecuado de los edificios y de las pésimas condiciones en que se encontraban, la escasez y deterioro del equipo y la completa desorganización de la valiosísima biblioteca y el abandono en que se encontraban los archivos. Así se inició la Universidad en ese mismo año, y hacer funcionar el nuevo Instituto de Biología y el patrimonio físico recibido, que consistió de dos edificios en el Bosque de Chapultepec y el Museo de Historia Natural establecido en la Colonia de Santa María de la Ribera, en las calles del Chopo, conocido durante más de cincuenta años como “Museo del Chopo". Los edificios de Chapultepec fueron la bellísima Casa del Lago, que aún existe como parte de la Dirección General de Difusión Cultural de la UNAM y la llamada Casa de la Reja, que también existe como parte de la administración del bosque. Para el funcionamiento de estas instalaciones se contó con un reducido grupo de investigadores y unos cuantos empleados administrativos. Algunos de esos investigadores fundadores del Instituto de Biología, surgieron de un grupo de jóvenes discípulos de Ochoterena, que había preparado durante la década de los años veinte, en el Departamento de Biología de la Escuela Nacional Preparatoria de San Ildefonso, del cual fue Jefe. Otros procedían de la extinta Dirección de Estudios Biológicos. Estos fundadores fueron: Leopoldo Ancona Hernández En el año 1930 el Instituto contó por primera vez con un presupuesto universitario que consistió de $93600.00 para la totalidad de sus gastos, incluyendo los sueldos del personal, siendo interesante destacar que en la década de los años 1919 a 1929 la Dirección de Estudios Biológicos contenía además de las instalaciones otorgadas a la UNAM, el Jardín Botánico de Chapultepec, actualmente desaparecido y el Parque Zoológico, los cuales permanecieron por un tiempo como dependencias de la Secretaría de Agricultura y Fomento y posteriormente fueron incorporados al Departamento del Distrito Federal. Aunque en años posteriores el presupuesto continuó descendiendo, hasta la cantidad de $78800.00 en 1935, en los años siguientes poco a poco se fue acrecentando y permitiendo un mejor funcionamiento así como la incorporación de nuevo personal académico. No obstante es importante indicar que la estrechez económica y la situación académica del país, principalmente en el aspecto científico, durante la década de los años treinta, determinaron que la estructura inicial del Instituto de Biología no obedeciera a los cánones ortodoxos de la investigación biológica en esa época, ni siquiera fue a semejanza de alguna institución similar en el mundo, sino que obedeció a aquello de lo que se disponía, tanto en recursos económicos como en personal académico. En sus primeros años de funcionamiento el Instituto estuvo organizado en secciones; la más conocida, la de botánica que en aquél entonces contenía al Herbario Nacional, con un acervo de 30000 ejemplares, los que afortunadamente se catalogaron rápidamente. Otra sección era la de consultas, destinada a contestar interrogantes sobre plantas o animales que plantearon las Secretarias de Estado o algunos otros organismos gubernamentales; esta sección duró como tal muy poco tiempo. La sección de Zoología estuvo formada por varios laboratorios, varios de ellos dedicados a insectos, como los de entomología general, entomología útil y entomología médica. Además había secciones de vertebrados, de histología, de hidrobiología, de farmacología y química y de helmintología. Esta última fue en su momento una verdadera novedad, por ser en esa época prácticamente el primer laboratorio en México dedicado a esa especialidad. Por otra parte se mantuvo funcionando con éxito el Museo de Historia Natural, ya que mientras en 1929 recibió solamente 5000 visitantes anuales, en 1934 sobrepasaron los 170000. A fines de la década de los años treinta y durante los primeros años de la de los cuarenta, las condiciones presupuestales permitieron el ingreso de nuevos elementos del personal académico, algunos ya completamente formados, como era el caso de dos destacados miembros de la migración española: Don Enrique Rioja y Don Faustino Miranda, hidrobiólogo y botánico respectivamente, y de los mexicanos Bernardo Villa y Maximino Martínez, este último con antecedentes en la antigua Dirección de Estudios Biológicos. Esto determinó una nueva estructura formada por departamentos donde se agrupaban las secciones ya existentes con algunas nuevas. Así se formaron dos grandes departamentos, el de Botánica y el de Zoología. El Departamento de Botánica contaba con dos secciones: la de criptogamia, dedicada a la investigación sobre bacterias y levaduras de bebidas fermentadas de México, además de hongos, líquenes, hepáticas, musgos y helechos, y la de fanerogamia, dedicada a la taxonomía de las plantas con semillas; esta segunda sección tenía a su cargo el Herbario Nacional que en ese tiempo contenía ya alrededor de 60000 ejemplares. El Departamento de Zoología estaba formado por las secciones de entomología, helmintología, ictiología, herpetología, ornitología, mastozoología, hidrobiología y paleontología en las cuales, además de las investigaciones propias de esas especialidades, se iniciaron o se enriquecieron las colecciones respectivas, que en la actualidad son las más importantes del país. Además continuó funcionando la Sección de Histología y se establecieron un laboratorio de bioquímica y dos nuevas secciones de servicio, la de fotografía y la de dibujo. Por estos años el Instituto de Biología comenzó a experimentar en nuevos campos, ya que Miranda, prácticamente inició los estudios de sinecología vegetal, con sus investigaciones sobre las comunidades vegetales de México; y con Rioja, el Instituto empezó a enfocar seriamente los aspectos marinos de la biología. El Museo de Historia Natural también continuó funcionando en el aspecto de exhibición al público, pero desafortunadamente el bello pero inadecuado edificio, construido en 1910 por Japón para exportar sus productos con motivo de las fiestas del Centenario de la Independencia de México, cada día se deterioraba más, al grado que las colecciones también empezaron a destruirse. En el año de 1947 Don Isaac Ochoterena fue relevado de la dirección del Instituto y fue sustituido por el doctor Roberto Llamas Flores, quien ejercería la dirección hasta el año de 1961, o sea, que durante sus primeros 37 años de existencia el Instituto de Biología tuvo tan sólo dos directores. Durante la década de los años cincuenta el Instituto experimento un cambio radical, como ocurrió con toda la Universidad, ya que por una parte en 1954 se establecieron los nombramientos de investigadores de tiempo completo y por otra se construyó e inauguró la Ciudad Universitaria, en la cual, por primera vez, se pudieron concentrar todos los Institutos de investigación científica. Estos dos hechos significaron un gran avance en la investigación universitaria. De 1956 a 1958 se realizó el cambio a las flamantes instalaciones, lo que desde luego implico el laborioso y delicado traslado del equipo y de las ya valiosas colecciones de plantas y animales, así como de las importantes y voluminosas bibliotecas. En estas nuevas instalaciones de Ciudad Universitaria, el personal académico ya pudo disponer de cubículos privados y de locales apropiados para las colecciones, el equipo y los materiales, lo que no sucedía en la hermosa pero inapropiada Casa del Lago. Este cambio físico se reflejó en una mejor interacción entre la investigación y la enseñanza de la biología en la Universidad, dado que propicio un contacto más cercano entre los alumnos del Departamento de Biología de la Facultad de Ciencias y sus maestros, casi todos investigadores del Instituto. Por otra parte, también en esta década, muy al principio, se consolidó otro departamento: el de Bioquímica. En 1959 la Universidad, bajo la rectoría de Don Nabor Carrillo y siendo el Secretario General el doctor Efrén C. del Pozo, decidió la creación de un Jardín Botánico, que por una parte, venía a reponer el desaparecido en Chapultepec y, por otra, enfocaba la botánica con una visión actualizada para contribuir a la enseñanza, la difusión cultural y la investigación científica. Este jardín universitario nació como una institución independiente, pero pocos años después, como veremos, fue incorporada al Instituto, iniciándose así la expansión territorial largamente cometida. El establecimiento de este Jardín Botánico se le encomendó al Doctor Faustino Miranda, quien se rodeo de un grupo de botánicos, también del Instituto. Todo este equipo emprendió la difícil tarea de sembrar, en el agreste pedregal de basaltos y escasos suelos ácidos, plantas provenientes de las selvas tropicales de México, para lo que se construyeron invernaderos especialmente adquiridos. También se propició el crecimiento de plantas de las zonas áridas, de suelos calizos y con precipitaciones mucho más reducidas que en el Valle de México. Así, del año 1959 al de 1963, se entabló una ardua lucha, un verdadero reto a la naturaleza, que si bien a la larga ganaron el ingenio humano y la adaptación de instalaciones, implicó muchos esfuerzos. En todo caso desde el mismo año de 1959 el Jardín Botánico proporcionó servicio a las escuelas de diversos niveles y al público en general, exhibiendo en vivo la diversidad de la flora mexicana en el propio recinto universitario, con lo que se contribuyó a la enseñanza y a la difusión botánica. Las primeras colecciones de plantas vivas procedieron de las zonas áridas del país y fueron principalmente cactáceas, pero casi simultáneamente se introdujeron plantas de zonas cálido húmedas, sobre todo orquídeas. De ambos grupos, con el tiempo, se ha llegado a tener colecciones muy importantes. Sin embargo, el Museo de Historia Natural no tuvo cabida en la planeación de la Ciudad Universitaria y permaneció en su inadecuado y cada vez más deteriorado edificio del Chopo, lo que dio como resultado que se perdieran y destruyeran numerosos ejemplares, hasta que durante la década de los años sesenta, se tomó la decisión de cerrarlo al público. Como contrapartida, durante el año de 1965, siendo rector de la UNAM Don Ignacio Chávez, el Jardín Botánico fue incorporado al Instituto de Biología, de manera que si por un lado se perdía una vieja unidad, por otro se ganaba una nueva; no quiero decir con esto que se haya establecido una compensación, ya que algunos de los ejemplares que se perdieron en el Museo eran de un valor irrecuperable, sin embargo, otros muchos ejemplares que aún estaban en buenas condiciones, pudieron trasladarse a colecciones de distintos laboratorios del Instituto e, inclusive, algunos muy llamativos y de gran tamaño se prestaron al Museo que el Departamento del Distrito Federal tiene en Chapultepec. En todo caso la desaparición del Museo de Historia Natural representó una sensible pérdida académica tanto para la Universidad como para el país; pérdida que hasta le fecha no ha sido subsanada, a pesar de que ha habido serio intentos para lograrlo. Como resultado de la reestructuración de la legislación universitaria a principios de los años sesenta, se implantaron cambios en varios aspectos, uno de ellos fue el establecimiento de periodos definidos para los directores de los institutos de investigación; así, durante 1967, fue nombrado director del Instituto el doctor Agustín Ayala Castañares en sustitución del doctor Roberto Llamas, quien ejerciera el cargo por espacio de veinte año. Fue precisamente al doctor Ayala a quien le tocó, por un lado, la ingrata tarea de desmantelar el viejo Museo del Chopo, y por otro, prácticamente al mismo tiempo, el llevar a cabo la incorporación total del Jardín Botánico, como una nueva entidad del Instituto. La llegada del doctor Ayala dio al Instituto de Biología un nuevo y vigoroso impulso; los Departamentos de Botánica y Zoología se reforzaron, el departamento de Bioquímica se transformó en el de Biología Experimental y se creó uno nuevo, el de Ciencias del Mar y Limnología. Precisamente en esta época comenzaron a tomar forma las ideas, nacidas en el Jardín Botánico, de contar con estaciones de campo que permitieran preservar los recursos bióticos y estudiar los fenómenos biológicos in situ, acercando así la investigación biológica a la realidad de la naturaleza, al contar directamente en el campo, con las instalaciones y el equipo necesarios. Por otra parte, se les dio al Instituto un espíritu de apertura lo que permitió establecer convenios y contratos con instituciones estatales y paraestatales encaminados a solucionar problemas biológicos a nivel nacional. Todo esto posibilitó la adquisición de equipos y materiales sin gravar el presupuesto universitario asignado al Instituto. También en esta etapa, se inició un movimiento tendiente a conseguir los conductos y los medios para enviar a jóvenes brillantes a especializarse en diversas ramas de la biología, en importantes universidades del extranjero; para que a su regreso pudieran ser asimilados por la UNAM, y así reforzar el nivel académico. En las postrimerías del periodo del doctor Ayala, en los años de 1971-72, la Universidad decidió concentrar en el lado oriental de la Ciudad Universitaria a todos los institutos de investigación científica, naciendo entonces el área de investigación tal como la conocemos hasta la fecha. Así fue como el Instituto abandonó el primer edificio que ocupó en Ciudad Universitaria y que estaba situado entre la Facultad de Medicina Veterinaria y el Instituto de Investigaciones Biomédicas del cual ahora forma parte; este local albergó al Instituto por espacio de dieciséis años. El nuevo edificio del Instituto de Biología fue el primero en construirse y en empezar a funcionar en la actual área de investigación a fines de 1972; pero precisamente en ese momento, durante la década de los setenta, siendo Rector de la UNAM el doctor Guillermo Soberón, el doctor Agustín Ayala fue sustituido en la dirección por el doctor Carlos Márquez Mayaudón; como otros institutos de investigación de la Universidad, el de Biología disfrutó del auge económico de esa época, de forma tal que el nuevo edificio que en 1972 parecía adecuado, en menos de diez años ya fue insuficiente, como lo sigue siendo hasta la fecha. Un poco antes del cambio al nuevo edificio surgió la idea de reforzar al Departamento de Biología Experimental, de manera que en 1972, aprovechando las nuevas instalaciones, se captó personal académico del Instituto de Investigaciones Biomédicas y del área de investigación de la Faculta de Medicina, con lo que se logró el deseado impulso al Departamento, ya que, además de la bioquímica, se ocupó de investigaciones en neuroquímica, fisiología celular, membranas biológicas y otras ramas afines. Precisamente durante ese mismo año, al Departamento de Ciencias del Mar y Limnología, se le construyó una gran ala del nuevo edificio. Para entonces lo que unos años antes había sido tan solo una idea, la de las estaciones de campo, comenzó a hacerse realidad, ya que después de largos y complicados trámites, el entonces Departamento de Asuntos Agrarios, donó a la Universidad, para uso del Instituto de Biología, una considerable extensión de tierras federales que abarca 750 hectáreas de selva tropical húmeda y bien conservada, situada en la región de Los Tuxtlas, en el Estado de Veracruz, precisamente donde fuera la Colonia Militar Montepío y que nunca se había ocupado. Las gestiones se realizaron a mediados del periodo del doctor Ayala Castañares y, a finales del mismo, la Universidad tomó posesión de dichos terrenos. Allí se iniciaron las actividades de lo que se llamó Estación de Biología de Campo Los Tuxtlas, contando entonces apenas con un jacal de techo de lámina, un encargado y un vigilante. No obstante, esta modestísima instalación permitió que algunos investigadores y estudiantes se albergaran en ella, y así se iniciaran, en 1867, las primeras investigaciones de biología en una estación de campo en México. Este hecho se puede considerar como el factor disparador de la descentralización de la investigación científica universitaria, que se inició formalmente en 1968 y además como el principio del establecimiento de estaciones de biología de campo y de biología marina en el Instituto de Biología, ya que muy poco tiempo después del inicio de las actividades en la Estación de Los Tuxtlas, la Universidad, también a través del Instituto de Biología, recibió por donación de un particular, el docto Antonio Urquiza Fernández de Jáuregui, un enorme promedio de 1600 hectáreas cubiertas por una selva mediana caducifolia, muy bien conservada, situado en la costa del Estado de Jalisco, entre Puerto Vallarta y Barra de Navidad, en la región denominada Chamela. Esta importante donación permitió proyectar una nueva estación de campo en un ecosistema muy diferente al de Los Tuxtlas, la cual con el nombre de Estación de Investigación, Experimentación y Difusión Chamela, inició sus actividades también de manera muy rudimentaria entre 1970 y 1971. Durante esos mismo años el Instituto, tras 40 años de experiencia en investigaciones de biología marina, también hizo sentir su presencia en las costas mexicanas, ya que se fundaron la Estación de Investigaciones Marinas El Carmen, en el Estado de Campeche, y la Estación de Mazatlán, en Sinaloa. Así terminó su gestión el Dr. Ayala Castañares. Durante los primeros años del régimen del doctor Márquez poco a poco se fueron estructurando las Estaciones de Los Tuxtlas y de Chamela, y se hicieron las primeras construcciones formales de concreto. Esto permitió que la Universidad hiciera sentir su presencia en dos selvas situadas una en cada costa del territorio nacional, a través tanto de contratación de personal administrativo de la región, como de la llegada de cada vez mayor número de investigadores y estudiantes que concurrían a realizar sus investigaciones y a enfrentarse con los aspectos prácticos de materias biológicas. Por otra parte, se empezaron a delinear proyectos de investigación a largo plazo, aprovechando la gran ventaja de contar con esas importantes áreas de reservas biológicas excluidas de la perturbación humana. En esta misma época el Jardín Botánico mejoró algunas de sus instalaciones y expandió sus zonas de exhibición al público, en especial las destinadas a cactus y plantas de zonas áridas, para lo cual se tuvo que elaborar un complicado sistema de riego en el escabroso pedregal de Ciudad Universitaria. Por otra parte, se iniciaron las clases de horticultura para niños que resultaron ser todo un éxito, al grado de que se impartieron algunas para adultos. También en los años setenta empezaron a regresar los primeros becarios del extranjero y al mismo tiempo el Instituto de Biología experimentaba un aumento muy considerable de personal tanto académico, dado que ingresaron numerosos nuevos investigadores y técnicos académicos, como administrativo. En este crecimiento se conjugaron varios factores, como el auge económico de la época, el inicio formal de las actividades en las Estaciones de Los Tuxtlas y Chamela, la expansión del Jardín Botánico y el incremento de los Departamentos de Zoología, Botánica y Biología Experimental. Sin embargo, en las postrimerías del periodo del doctor Márquez, a fines de 1978, el personal de este último Departamento estimó más conveniente no depender de un Instituto tan grande y se hicieron los trámites para que se organizara como un centro independiente, naciendo así el Centro de Investigaciones en Fisiología Celular como una nueva entidad universitaria. De esta manera el Instituto de Biología nuevamente daba forma y vida propia a un nuevo componente de la investigación científica en la Universidad. En marzo de 1979 terminó la gestión del doctor Carlos Márquez y lo sustituyó el doctor José Sarukhán Kermes y precisamente a él le tocó llevar a la práctica los movimientos internos de separación de dicho departamento, tarea particularmente complicada debido a la cantidad y calidad del equipo, la especialización de la biblioteca y el movimiento y reacomodo de personal. Con el doctor Sarukhán el Instituto de Biología inició una fructífera etapa de reafirmación y refinamiento tanto en el nivel académico como en el de instalaciones, equipo y recursos económicos. En el mes de noviembre de ese mismo año de 1979, se celebraron los cincuenta años de existencia del Instituto, para lo cual se realizaron una serie de actos alusivos, como la colocación de una placa conmemorativa en la aún bella Casa del Lago de Chapultepec, primera sede del Instituto, la plantación de un pequeño y hermoso pino mexicano en el jardín central del edificio actual con el nombre del “árbol del cincuentenario”; también se realizó un merecido homenaje a los académicos fundadores del Instituto brindándose un reconocimiento a los que aún están vivos y un merecido recuerdo a los ya fallecidos. En 1980 se dio comienzo a una etapa nueva de auge académico para el instituto, ya que por una parte se inició formalmente el regreso de varios becarios que habían obtenido sus doctorados en importantes universidades del extranjero y, por otra, se estimuló fuertemente a otros jóvenes para que salieran a obtener sus doctorados en ramas biológicas poco o nada desarrolladas en México. Además se procuró integrar al plantel académico a científicos nacionales y extranjeros especializados tanto en áreas que no se trabajaban aún en el Instituto como en las ya existentes, para reforzar y ampliar así los niveles. En los primeros años de la presente década, el Jardín Botánico se había concretado a realizar actividades puramente de exhibición descuidando notablemente las de investigación, además de que algunas de éstas duplicaban las líneas del Departamento de Botánica, por lo que el doctor Sarukhán decidió reestructurar a fondo esta dependencia, con la finalidad de que desarrollara nuevas e importantes líneas de investigadora además de las ya existentes. De esta forma se estableciendo las de cultivo de tejidos vegetales, la citogenética de plantas y la etnobotánica con fines de aplicación al futuro, ya que la etnobotánica histórica se ha trabajado en el Instituto desde siempre. Desde luego que este nuevo giro del Jardín Botánico, implicó la captación y formación de personal académico especializado y la obtención del equipo adecuado. Por otra parte, se estimularon las actividades de difusión y enseñanza, para lo cual se formó una nueva área especializada en estas funciones. Desde luego que este esquema académico no tenía cabida en las instalaciones del Jardín Botánico, por lo que en el año de 1983 se logró que la Universidad construyera un gran edificio diseñado especialmente para este fin, dotado inclusive con un bello auditorio y una gran sala de exhibición para exposiciones temporales. Casi simultáneamente con la reestructuración académica y fiscal del Jardín Botánico, vino la de las Estaciones de Los Tuxtlas y de Chamela, que si bien, como hemos visto, venían funcionando desde hacía varios años y ya contaban con algunas construcciones que facilitaban la estancia y el trabajo de los investigadores y estudiantes, aún no eran verdaderas entidades de investigación, sino más bien albergues temporales que brindaban ciertas facilidades. Por lo que se decidió darles un fuerte impulso; para ello se les dotó de programas de investigación específicos, así como del personal administrativo adecuado, y del personal académico propio; ambos grupos residentes en ellas. Así, se construyeron en plenas selvas de Los Tuxtlas y Chamela, edificios para personal académico residente, edificios para personal académico visitante además de comedores, cocinas, cuartos de lavado y secado de ropa, oficina, laboratorios, bibliotecas, radio y en general un ambiente apropiado para el trabajo científico. Por otra parte se les dotó de equipo adecuado. Aunque la nueva organización académica de las Estaciones de Chamela y Los Tuxtlas se inició desde el año de 1980, las estupendas instalaciones que funcionan hasta la fecha, se inauguraron en 1983 y 1984 respectivamente. Dos grandes Departamentos, el de Botánica y el de Zoología, recibieron también un vigoroso impulso durante esta etapa, en particular por lo que respecta a las diferentes colecciones de seres conservados, ya que a principios de los años ochenta, el Instituto, tras complicadas negociaciones, consiguió del Consejo Nacional de Ciencia y Tecnología un fuerte apoyo económico para enriquecerlas y conservarlas con el carácter de Colecciones Nacionales. Estas colecciones, las más importantes del país, constituyeron un invaluable acerco científico, que la Nación y la Universidad han puesto en custodia permanente del Instituto de Biología y que, en conjunto suman tres y medio millones de ejemplares catalogados. Las más importantes por su volumen son el Herbario Nacional, con 540000 ejemplares de plantas conservadas y la colección entomológica, con más de dos millones y medio, además de las de mamíferos, aves, reptiles y anfibios, peces, crustáceos y gusanos. Durante el año de 1984 se decidió elaborar un nuevo Reglamento Interno para el Instituto y a la vez reestructurar la organización académica constituyendo cinco Unidades de Investigación, de manera que se establecieron como tales el Jardín Botánico, la Estación de Biología Los Tuxtlas, la Estación de Biología Chamela y tres departamentos, los tradicionales de Botánica y Zoología y un nuevo, el Departamento de Ecología, al cual se integraron investigadores de los otros dos departamentos, así como elementos especialmente formados en distintas ramas de la ecología. En marzo de 1985, el doctor José Sarukhán fue reelecto para un segundo periodo como director del Instituto, periodo que no concluyó por haber sido nombrado en 1987, Coordinador de la Investigación Científica de esta Universidad. En junio de ese mismo año el maestro Antonio Lot Helgueras fue nombrado sexto director del Instituto de Biología y, evidentemente, estamos viviendo esta gestión, que a pesar de que aún es joven, ya ha protagonizado hechos que quedarán plasmados en la historia del Instituto; tal es el caso del Departamento de Ecología que desde su nacimiento en 1984, se definió con potencialidad académica, de manera que en muy poco tiempo, sus elementos pensaron en la conveniencia de construir una unidad independiente, no tan grande y diversificada, en la cual se concentraran más específicamente sus investigaciones. Así, una vez más, a partir del Instituto, a principios de 1988, se creó otra nueva dependencia universitaria de investigación con el nombre de Centro de Ecología, por lo que el Instituto de Biología es quizá la entidad que ha contribuido en mayor grado a la expansión de la investigación universitaria. También en el actual periodo del maestro Lot, aunque los planteamientos se iniciaron a mediados de la década de los ochenta, apenas en abril del presente año se inauguró en Pabellón, Aguascalientes, el Laboratorio de Investigación y Conservación de Granos y Semillas, del Departamento de Botánica, llevando al Instituto a la región del Bajío. Como se puede desprender de la narración que hemos hecho, el abuelo del Instituto de Biología, o sea, el Instituto Médico Nacional, existió de 1888 a 1915, 27 años; su hijo, la Dirección de Estudios Biológicos de 1915 a 1929, apenas 14 años y el nieto e hijo de estas instituciones, o sea, nuestro Instituto, cumplió en 1989 sesenta años, por lo que es muy justificada esta celebración en un medio en que rara vez se alcanza el abolengo científico. Pero no solamente por edad cabe esta celebración, sino además porque a través de estos años, los directores, funcionarios, personal académico y empleados, han sabido preservar, enriquecer y expandir dentro y fuera del ámbito universitario, lo iniciado en 1929. Durante 60 años el Instituto de Biología ha albergado, ha formado o ha auspiciado, la formación de líderes nacionales en diversos campos de la biología, principalmente en dos de sus grandes vertientes, la botánica y la zoología y dentro de ellas, en numerosas especialidades como la taxonomía de muy diversos grupos de seres, la ecología, la etnobiología, mastozoología, entomología, microbiología y otras muchas ramas; lo que se ha reflejado en una vastísima producción científica, publicada en los 59 volúmenes de sus anales, en numerosos libros y en un sinnúmero de revistas nacionales e internacionales. Además, ha dejado sentir su presencia en prácticamente todos los eventos académicos de su competencia y ha formado con su personal académico, sus instalaciones y su infraestructura, un vasto caudal de profesionales de la biología para este país. Estimo que también es muy oportuno destacar tanto su obra como generador de instituciones de investigación como el hecho de que en su seno se hayan formado varias generaciones de maestros, todos ellos con un alto espíritu de mística hacia su labor y hacia la Universidad, lo que, en los momentos actuales, es particularmente importante. |
|
![]() |
|
||||
____________________________________________________________
|
|||||||
Javier Valdés Gutiérrez
como citar este artículo → |
![]() |
![]() |
PDF→
|
|||||
José Luis Córdova F. |
|||||||
Podría afirmarse que todas las ciencias comienzan clasificando. Evidentemente, lo anterior implica una identificación de las características más importantes de los objetos en estudio, tarea que no es fácil ni rápida. En ocasiones, deben emplearse cientos de años para poder llegar a una clasificación práctica o, aún más, a una definición general. La clasificación ácido-base, tema de este artículo, es un buen ejemplo de esta afirmación. En efecto, la química comenzó describiendo y clasificando. Así tenemos: metales, no metales, compuestos orgánicos, inorgánicos, ácidos (del latín acetum vinagre, vino agrio) y álcalis (del árabe alkali cenizas) también llamados bases, etcétera. En el antiguo Egipto, se sabía ya que la fermentación de jugos vegetales podía llegar a producir vinagre. Desde el proceso de la química esto implica la oxidación del alcohol, que se transforma en ácido acético. Aparte de su uso culinario, el vinagre era importante por ser el ácido más fuerte de la antigüedad. Si bien en el siglo IX eran poco los ácidos conocidos (vinagre, jugo de frutas), ya se habían desarrollado los métodos y equipos de laboratorio necesarios para la producción de muchos más (Ihde, 1970). Los alquimistas alejandrinos conocían los procesos de destilación, pero es poco probable que tuvieran aparatos lo suficientemente avanzados como para conseguir componentes volátiles puros, antes del siglo XII. El descubrimiento de los ácidos minerales, es decir, derivados de materiales inorgánicos, comenzó en Europa en el siglo XIII. Probablemente el primero fue el ácido nítrico, obtenido mediante la destilación de salitre (nitrato de sodio y potasio) y vitriolo (sulfato de cobre) o alumbre (sulfato de aluminio y magnesio). Más difícil de descubrir fue el ácido sulfúrico, pues éste requiere de mayores temperaturas y equipo más resistente a la corrosión; más difícil aún, resultó el ácido clorhídrico, pues los vapores no pueden condensarse, sino que deben ser disueltos en agua. En química, el conocimiento empírico comenzó su desarrollo con el curtido de pieles, la elaboración de alimentos, etcétera, esto es, con el origen mismo del hombre. Sin embargo, la elaboración precisa de los conceptos químicos fundamentales comenzó en el siglo XVII. Se definieron: elementos, compuestos, ácidos, bases, sales, etcétera. Robert Boyle (1627-1691) dio, acerca del tema que nos ocupa, una especificación clara de los ácidos, al decir que tales sustancias podían enrojecer al tornasol (Szabadváry, 1964), Existían, además, otras formas de caracterizar a los ácidos: su sabor peculiar, el ataque a los metales y a la piedra caliza; el cambio de color de algunos vegetales (p. ej., líquenes) y, aunque resulta redundante, los ácidos se caracterizaban por su sabor ácido. No es de sorprender que las primeras clasificaciones de sustancias se hayan hecho empleando los recursos más disponibles por los investigadores: sus sentidos, esto es, la vista, el tacto, el gusto, Hoy, esto puede parecer poco preciso y subjetivo; sin embargo, el entrenamiento logra mejorar notablemente tales sentidos, por ejemplo el olfato. La mayoría de la gente puede distinguir algunos cientos de olores pero un químico hábil logra identificar alrededor de 3 mil. En cuanto al color, el ojo humano llega a distinguir hasta 700 matices distintos, de forma que, con entrenamiento, pueden distinguirse unos 4 mil colores distintos (Wright, 1974). Fue Robert Boyle, en 1661, quien buscó características más allá de lo inmediato: análisis a la flama, la célebre “piedra de toque”, análisis de manchas, de humo, de precipitados, acción de disolventes, peso específico, etcétera. Los álcalis los identificaba por su tacto aceitoso (luego veremos por qué tal carácter aceitoso) y su capacidad para neutralizar los ácidos, que formaban sustancias cristalinas de sabor salado. Los ácidos, en cambio, los descubría por la efervescencia que producían con los metales, y ambos ácidos y bases, porque anulaban sus características al combinarse, para dar lugar a una sustancia de gusto salado. Como ya mencionamos, Boyle añadió a lo anterior el cambio de color que los ácidos y bases provocaban en ciertas sustancias, como el extracto de violetas y el tornasol (que es obtenido de los líquenes Roccella tinctoria, Rocella fuciformis, Lecanora tartarea). Estas observaciones permitieron la clasificación de muchas sustancias en ácidos y bases, lo cual llevó a relacionar una gran cantidad de observaciones experimentales. Así, muchas sustancias pudieron catalogarse como ácidos (nítrico, sulfúrico, carbónico, etcétera); como bases (sosa, potasa, cal, amoniaco, etcétera); y como sales (sal de mesa, salitre, bórax, alúmina, etcétera). El primero intento de una explicación teórica del comportamiento de los ácidos fue hecho por Antoine-Laurent Lavoisier a fines del siglo XVIII, quien afirmaba que todos los ácidos contenían oxígeno (etimológicamente oxígeno significa: oxys ácido, amargo, y genna producción, e. d. generador de ácidos). Sin embargo, el elemento clave para el comportamiento ácido no está en el oxígeno sino en el hidrógeno, como propuso Humphry Davy en 1815. Con todo, no basta que exista hidrógeno en una sustancia, se requiere que éste sea sustituible por un metal (como sugirió Justus Von Liebig en 1838). Esta definición de ácido fue un poco más permanente que las anteriores —duró aproximadamente 50 años—, pero no dio ninguna explicación acerca del comportamiento de las bases, ya que éstas simplemente se definían como sustancias que neutralizaban a los ácidos. El tema adquirió una nueva perspectiva con los trabajos de Wihelm Ostwald y Savante August Arrhenius (Córdova, 1987) en la década de 1880. A grandes rasgos, la teoría de Arrhenius propone que los ácidos son sustancias que, en solución acuosa producen iones 1; y las bases, a su vez, producen iones OH2. De forma que la neutralización de ácidos y bases se explica en términos de la reacción: H+ + OH- → H2O La teoría de Arrhenius tuvo una vigencia de 35 años, pues no tardaron en presentarse inconsistencias. Por ejemplo, hay sustancias que producen el vire básico de indicadores, pero no producen iones OH-, sino (CH3O)-, (si el disolvente es metanol (CH3OH)), o bien iones (NH2)-, si el disolvente es amoniaco líquido (NH3). También la definición de ácido como sustancia que produce iones H+, tiene algunas excepciones. La más importante es que en solución acuosa no existe el H+ como tal, sino asociado, por lo menos, con una molécula de disolvente como (H3O)+ en agua (H9O4)+, según algunos; como (CH3OH2)+ en metanol; y como (NH4)+ en amoniaco líquido. Aún más, en disolventes como benceno o cloroformo, donde se dan las reacciones y propiedades típicas de ácidos y bases… ¡difícilmente se ha detectado la existencia de iones! Otro escollo a la teoría de Arrhenius son las sustancias que no tienen OH- en su composición y se comportan como bases. De este tipo son la mayoría de los alcaloides (el sufijo griego oide significa “semejante a”, por ejemplo en humanoide, intelectualoide, hidrogenoide). Ejemplos de alcaloides son la nicotina, efedrina, mescalina, morfina, heroína, etcétera. Cabe aclarar que algunos alcaloides (como la morfina) sí tienen grupos OH-. Pero, volviendo al tema, llegamos al siguiente resumen: las definiciones de ácido y de base, dependen del disolvente involucrado. Además, según la teoría de Arrhenius un ácido produce iones H+, sólo si hay una base que los reciba. Por ejemplo, el ácido acético: CH3COOH → (CH3COO)- + H+ produce el ion H+ (asociado a H2O como H3O+), sólo si el H2O se comporta como una base: CH3COOH + H2O → (CH3COO)- + (H3O)+ Análogamente, una base sólo produce iones (OH)- si hay un ácido presente; así, el ión bicarbonato (HCO3)+ producido por la disolución de una sal (por ejemplo: bicarbonato de sodio) (HCO3)- + H2O → OH- + H2CO3 recibe H- del agua (que se comporta como ácido). Actualmente, existen otras teorías (como la de Lewis) con mayor poder explicativo; sin embargo, están fuera de los objetivos de este artículo. ACIDOS Y BASES EN LA COCINA Veamos ahora cómo podemos reconocer ácidos y bases en el laboratorio cotidiano llamado cocina. A decir verdad, hay una gran abundancia de sustancias, además de las ya mencionadas (extracto de violetas, tornasol, etcétera), que pueden emplearse como indicadores. Por ejemplo, el repollo morado puede usarse como indicador ácido-base. Para obtener el pigmento, se necesitará dejar el repollo rallado en una raza con agua, donde se agitará ocasionalmente. Cuando el agua esté de un fuerte color rojo, se vierte con cuidado, de tal forma que elimine lo más posible el repollo. Se pueden averiguar el color del indicador para el ácido con jugo de limón, y el color para medio básico, con bicarbonato de sodio (mal llamado por muchas amas de casa carbonato). Examine, por ejemplo, las siguientes sustancias” • agua resultante del cocimiento de vegetales, chícharos, frijoles, cebollas, espárragos, etcétera; DESTAPACAÑOS Y LAVAHORNOS Como mencionamos, una de las propiedades comunes a la bases (tal como dice R. Boyle en “El químico escéptico”, 1661) es la de ser aceitosas al tacto. Esta característica es debida a la capacidad que tienen las bases para disolver los tejidos orgánicos. En otras palabras, no es que sea “untuosas” o “resbalosas” al tacto, sino que, por disolver la piel, los dedos resbalan fácilmente como su hubiera aceite. No es raro, entonces, que se usen bases fuertes para disolver los tejidos y restos orgánicos que han tapado alguna cañería. La mencionada propiedad de disolver compuestos orgánicos hace muy útiles a los álcalis para quitar pringue y cochambre. De aquí que el ingrediente activo de muchos destapacaños y productos para lavar hornos sea NaOH o KOH. COLOR DE LOS VEGETALES Hay cuatro tipos fundamentales de colorantes en los vegetales: • Carotenos (del latín: carota, zanahoria), (Webster, 1981), que dan el color naranja a las —obvio— naranjas, zanahorias, maíz, duraznos, tomates, etcétera. Aunque están presentes en casi todos los vegetales y en las hojas verdes de los árboles, el color de los carotenos permanece oculto por la clorofila. Sólo en otoño, cuando disminuye la clorofila, aparecen los carotenos: amarillos, naranjas, rojos, que dan la coloración típica de las hojas. Los tres últimos tipos de colorantes vegetales cambian de color cuando se someten a cocimiento. El caso de la clorofila se tratará más adelante. Los carotenos, en cambio, son casi insensibles al calor y la acidez. Como los oculta la clorofila sólo se manifiestan al secarse las hojas, al marchitarse el vegetal o al cocinarlo. NOPALES Y EJOTES Como mencionamos, las bases se caracterizan por ser aceitosas al tacto y por cambiar a azul el color del líquido “tornasol”, también se distinguen por su sabor “amargo” (?). Boyle encontró que muchas sustancias orgánicas cambiaban de color con ácidos y bases. El alcatraz y el jazmín, por ejemplo, se ponen amarillos con vapores ácidos. Las rosas cambian a púrpura con el amoniaco y, en general, los vegetales verdes cambian a color pardo, en un medio ácido. De aquí que la sabiduría de las abuelas haya elaborado una antigua receta, consistente en poner un poco de bicarbonato (o bien, tequesquite, del náhuatl tetl piedra y quizquitl brotante), (Cabrera, 1978), en el agua empelada para cocer los vegetales. Con el cocimiento, se libre el ácido contenido en las células del vegetal y cambia el color de la clorofila. Al poner bicarbonato, el ácido producido se neutraliza y se conserva el color de los vegetales. La molécula de clorofila tiene un átomo de magnesio que es eliminado por los ácidos, lo que da lugar a nuevas moléculas; si el vegetal contenía carotenos (casi inertes al calor y a los ácidos), el color pardo resultante disminuirá el atractivo de las legumbres. Esto explica por qué el aderezo para ensaladas (que contiene vinagre) se agrega cuando está por servirse. Por otro lado, al poner exceso de bicarbonato en el agua de cocido de vegetales, se tiene el riesgo de ablandar la textura de éstos y hacerlos poco apetitosos, pues, como ya mencionamos, las sustancias con características básicas reblandecen o disuelven los tejidos orgánicos. Otra forma de mantener el color verde brillante de los vegetales es cocerlos en olla de cobre. Al cocer los nopales en olla de cobre (o de aluminio), se evita que se pongan de color café, debido a la formación de Cu(OH)2 (o Al(OH)3), que neutraliza el ácido responsable de la pérdida del Mg de la clorofila. Otra forma de cocerlos rápidamente. Basta hervir una gran cantidad de agua para vaciar inmediatamente las legumbres. Si se pone a calentar poca agua ésta se enfriará considerablemente al añadir los vegetales y aumentará el tiempo de cocimiento y la cantidad de ácido liberada. Otra aplicación culinaria de los ácidos es la siguiente: el característico olor a pescado es debido a la presencia de aminas R-NH2, que son muy volátiles. En un medio ácido (donde por definición abunda el H+), se produce la reacción. R-NH2 + H+ → (R-NH3)+ al tener un carácter eléctrico la amina resultante puede disolverse fácilmente en H2O (por la asimetría eléctrica de la molécula de H2O). En resumen, para disminuir el olor a pescado, debe ponerse limón al pescado. CONCLUSIONES Los conceptos de acidez y basicidad surgieron de nociones y experiencias cotidianas (como la mayoría de los conceptos de la ciencia); surgieron de las prácticas comunes de artesanos y artistas, de la forma en que reaccionaban con los metales o ciertos compuestos orgánicos, etcétera. Al encontrarse sustancias como el cloruro de aluminio, el trióxido de azufre y el trifluoruro de boro que, sin producir H+ en solución, reaccionan con bases y producen sales (y muchas otras características de los ácidos), fue necesario revisar el concepto de Arrhenius para los ácidos. Sin embargo, hoy difícilmente podemos afirmar que el concepto científico de ácido, o base. Forma parte de la experiencia común. Esto es muy “común” en la química moderna: el “sentido común” lo es solamente en el sentido de deber ser “común” para el que tiene una preparación especial y está consagrado a un campo específico. Sólo él puede mirar sus problemas y las soluciones como algo común. Tan común como puede ser a un artesano su tarea. Ahora bien, durante mucho tiempo se consideró que la acidez o basicidad de una sustancia era una característica intrínseca (como podría serlo su masa molecular o su estructura molecular). En la actualidad, es más aceptado pensar en la acidez o basicidad como una forma de comportarse de las sustancias en determinadas situaciones. El ejemplo más notable es el H2O, que tiene las características de un ácido y de una base. Según la teoría de Arrhenius, un ácido se caracteriza por ceder iones H+ y una base por la posibilidad de recibirlos. Desde luego, esto es simplificado, pero permite explicar muchas fenómenos. Pocos científicos sostienen que realmente hay iones H+ involucrados; proponen, más bien, la intervención de iones complementarios de tipo (H9O4)+. Desde luego, esto ha tenido su precio. Nos hemos alejado de las representaciones sensibles que fácilmente nos permiten “imaginar” a un “protón” que cambia de “amante”. Y ante tal situación, conviene recordar que la validez de los conceptos científicos no está ni en su evidencia ni en la posibilidad de representarlos con analogías, sino en la posibilidad de definir los conceptos sin ambigüedad ni contradicción, a partir de efectos mesurables, que permiten explicar fenómenos (Holton, 1981). Es posible que muchos confundan familiaridad de los términos con claridad en los conceptos; de aquí que pensar en H+ producido por un ácido no sorprende. Sin embargo, cuando Arrhenius propuso tal idea, en 1895, encontró una gran oposición por parte de la comunidad científica. La importancia de ácidos y bases no es teórica, exclusivamente. Ambos juegan un importante papel en la industria química, ya sea como reactantes o como catalizadores. Casi no hay proceso biológico, en la célula o en el organismo como un todo, que sea indiferente a la acidez o alcalinidad del medio. Por ejemplo, la sangre es ligeramente alcalina y sólo en un pequeño intervalo de pH (7.35 > pH > 7.45) se mantiene la óptima regulación de las reacciones químicas del organismo. Se pueden citar muchos otros ejemplos: la importancia de la acidez o alcalinidad de un terreno para los cultivos, de la lluvia ácida en el deterioro de monumentos, bosques, etcétera. |
|
![]() |
|
||||
|
|||||||
Refrerencias Bibliográficas Cabrera, L., 1974, Diccionario de aztequismos, Ed. Oasis, México. Artículo aparecido en la revista Educación Química, volumen 1, número 0, julio de 1989. |
|||||||
____________________________________________________________
|
|||||||
Jóse Luis Córdova F.
como citar este artículo → |
![]() |
![]() |
PDF→
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Alberto Tannus, José Pedro Donoso y Horacio Panepucci |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Desde el inicio de este siglo, el obtener imágenes del interior del cuerpo humano, con fines médicos, ha sido una preocupación constante. La radiografía convencional de rayos x es el ejemplo de un método gráfico que contiene la proyección de una propiedad del organismo: la densidad óptica de los tejidos, o su capacidad de absorber radiación electromagnética en la banda de los rayos x, integrada a lo largo de la propagación del haz en el objeto analizado. Esta técnica fue responsable de un considerable avance de la medicina en la primera mitad de este siglo. Como proyección, una radiografía puede contener ambigüedades en relación a estructuras que se sobreponen, siendo necesario un conocimiento previo de la anatomía de la región analizada, para poder resolverlas. En la década de 1960, con el aumento de la versatilidad de las computadoras, se desarrolló una poderosa herramienta: el tomógrafo de rayos x (scanners), que permitió observar una fracción o “tomo” del cuerpo, a modo de un corte transversal, lo que facilitó la tarea de analizar patologías y aumentar así la precisión de las intervenciones en el organismo de los pacientes. Últimamente, una nueva técnica, la de tomografía por resonancia magnética nuclear (RMN) ha enriquecido los procedimientos orientados a la obtención de imágenes médicas. Sin utilizar radiaciones inonizantes, sino más bien basada en las propiedades magnéticas naturales de los núcleos de los átomos, esta técnica es capaz de mostrar detalles anatómicos muy precisos del interior de los organismos y ofrecer informaciones estructurales y fisiológicas superiores a las que se obtienen con métodos más tradicionales, como la tomografía computarizada de rayos x y el ultrasonido. Así podemos, por ejemplo, discriminar de forma mucho más detallada, tejidos sanos, enfermos y necrosados, aunque éstos estén profundamente sumergidos entre estructuras óseas. En esta técnica, la principal propiedad analizada es la densidad de núcleos de una especie atómica, por ejemplo el hidrógeno. Por el hecho de que el hidrógeno forma parte de la molécula del agua, elemento que está presente en todos los organismos en grandes proporciones, la densidad de núcleos puede ser asociada directamente a la densidad de masa. Así pues, se pueden observar fácilmente las variaciones de densidad que acompañan a la anatomía interna de los organismos, gracias a la obtención de un “mapa” de la densidad de los núcleos. Decimos que ésta es la principal propiedad analizada porque no es la única. Hay por lo menos otros cinco parámetros asociados a la especia atómica y al medio que la rodea de los que también pueden hacerse mapas, como lo explicaremos más adelante. La resonancia magnética nuclear fue descubierta simultánea e independientemente hacia finales de 1945 por dos grupos: Purcell, Torrey y Pound en Harvard, y Bloch, Hansen y Packard en Stanford. Desde entonces, su estudio se ha ido ampliando y perfeccionando, hasta convertirse hoy en una herramienta utilizada rutinariamente por físicos y químicos en estudios referentes a la dinámica de los átomos y a las conformaciones y estructuras moleculares. Sin embargo, su potencial en medicina, es decir, en la identificación y caracterización de los tejidos, sólo apareció en 1971, cuando se observó que había diferencias sistemáticas en las propiedades de relajación nuclear en tejidos normales, necrosados y tumorales. La primera aplicación del fenómeno de RMN a la tomografía médica, es atribuida a P. C. Lauterbur, que divulgó en 1973 un método de generación de una imagen bidimensional, en la que se podía observar la densidad de los protones (núcleos de átomos de 1 H) de un pequeña muestra, consistente en dos tubitos con agua. En los años siguientes, los grupos encabezados por P. Mansfield (de Nottingham, Inglaterra), J. M. S. Hutchison (de Aberdeen, Escocia), R. R. Ernst (de Zúrich, Suiza) y Z. H. Cho (de Corea), desarrollaron técnicas alternativas para generar imágenes, capaces de ayudar, tanto en diagnósticos médicos, como en el estudio in vivo de las reacciones bioquímicas que suceden en las células. Así, lo grupos de investigación de las grandes universidades que tenían experiencia en resonancia magnética, prestaron mayor atención a esta técnica, cuyas aplicaciones prometen muchísimo. Por ejemplo, en Brasil, dos grupos de investigadores, uno en Recife y otro en São Carlos, están desarrollando instrumentación y algoritmos computacionales de prototipos para la obtención de imágenes médicas. EL FENOMENO DE LA RESONANCIA MAGNETICA La resonancia es uno de los fenómenos más estudiados por la física pues se manifiesta en sistemas mecánicos, acústicos, ópticos, eléctricos y magnéticos, siempre que existan estímulos cuya frecuencia sea próxima a la de sus vibraciones naturales. Por ejemplo, en la sintonía de una radio receptor ajustamos en una misma frecuencia el circuito eléctrico oscilante del aparato y la onda transmitida por la estación emisora. Otro ejemplo, es el de los instrumentos musicales, como el violín, donde sólo las frecuencias vibracionales naturales a cada cuerda, se amplifican en la caja acústica, de manera que son audibles, mientras una infinidad de otras, igualmente producidas por el movimiento del arco sobre el instrumento, se pierden.
El fenómeno de la resonancia también se manifiesta a nivel atómico, electrónico y nuclear. Este último es de naturaleza magnética —de ahí su nombre— y se produce porque ciertos núcleos tienen un momento angular intrínseco, llamados spin, y un momento magnético asociado. Podemos imaginar el comportamiento de uno de estos núcleos como un trompo microscópico magnetizado, con los polos situados en los extremos de su eje de rotación. Al ser colocado bajo la acción de un campo magnético (B0) aparecerá un momento de fuerza o torque que lo hace ejecutar un movimiento de precesión, de la misma forma como la gravedad lo hace con un trompo de juguete. Ese movimiento es caracterizado midiendo su frecuencia (w), llamado frecuencia de Larmor, que es directamente proporcional a la intensidad del campo magnético: w = j B0 donde j es la constante giromagnética, cuyo valor difiere no solamente para cada elemento sino también para cada isótopo del elemento. Esta simple relación matemática es fundamental para las técnicas de imágenes y de espectroscopia de Resonancia Magnética Nuclear (RMN). Ella dice que si un conjunto de núcleos de diferente naturaleza, determinados por su valores de j, es colocado en la presencia de un campo magnético, absorberán energía en diferentes frecuencias, se sitúan en la banda de la radiofrecuencia (RF). Por ejemplo, para un campo magnético de 10000 Gauss (1 Tesla), el valor de la frecuencia de resonancia (de Larmor) de los protones (H1) es de 42 576 KH, mientras que para el fósforo-31 es 17 236 KH. Queda claro entonces, que mediante una selección apropiada de la frecuencia podemos “sintonizar” la especie atómica que nos interesa, observando su respuesta individual. A continuación describiremos una experiencia de RMN pulsada. Cuando se coloca una muestra en un campo magnético, una pequeña fracción de sus núcleos vencerá la agitación térmica de los átomos y se orientará en dirección del campo, creando una magnetización M0 paralela a B0. Esta situación define el equilibrio termodinámico del sistema. Para cambiar esta condición de equilibrio, se aplica, en forma de un pulso de corta duración, un segundo campo magnético (B1) en el plano perpendicular a B0. La orientación de este nuevo campo debe variar con una frecuencia igual a la de Larmor, de modo que la precesión de la magnetización en torno del campo total (B0 + B1), va a inducir un movimiento en espiral, como se muestra en la figura 1. Para obtener el campo magnético rotante en esta frecuencia de Larmor, se coloca la muestra dentro de una bobina alimentada por un generador de radiofrecuencia. Terminada la acción del pulso, la magnetización M0 estará desviada de la dirección de B0 en un cierto ángulo, que dependerá de la intensidad de B0 y de la duración del pulso. Así se habla entonces de pulsos de pi/2 y de pulsos pi, los cuales provocan rotaciones de 90 y 180 grados respectivamente, en la magnetización M0 (Figura 1). Inmediatamente después de aplicarse, por ejemplo un pulso de pi/2, tenemos una situación de no-equilibrio, donde el vector magnetización M0 continúa girando libremente en el plano x-y, con un movimiento de precesión en torno de B0 de frecuencia w, induciendo en la bobina que envuelve la muestra, un voltaje de la misma frecuencia cuya amplitud es proporcional a la magnetización transversal.
Finalizado el pulso de excitación, el vector de magnetización nuclear acaba retornando a su posición original, en la dirección del campo magnético B0. El retorno al equilibrio se caracteriza por dos procesos de “relajación”: transversal (con un tiempo característico T2) y longitudinal (de tiempo característico T1). La relajación transversal describe el comportamiento de los diversos componentes de la magnetización en el plano x-y, pues al acabar el pulso de excitación, los núcleos no sólo “sienten” el campo externo B0, sino también los campos locales asociados con las propiedades magnéticas de los núcleos vecinos, de tal forma que van adquiriendo frecuencias precesionales ligeramente diferentes, lo que provoca la pérdida la pérdida de fase de estas componentes en el plano transversal (figura 2). Entonces, la magnetización transversal, retoma exponencialmente a su valor nulo de equilibrio, con un tiempo característico T2, lo que hace que la amplitud de la señal por ella inducida, decaiga a cero de la misma forma. La señal resultante recibe el nombre de FID (del inglés: free induction decay). Este decaimiento refleja el efecto de las interacciones entre los spines nucleares. Este tiempo de relajación es del orden de microsegundos en materiales sólidos y de segundos en los líquidos, teniendo valores intermedios —entre 0.4 y 1 seg.— en los materiales biológicos (tabla 1).
Por su parte, la relajación longitudinal describe el retorno completo de la magnetización al equilibrio termodinámico, en la dirección y sentido inicial (figura 2). Para esto, el sistema de spines debe librarse del exceso de energía recibida, normalmente, en la forma de energía cinética, del campo de radiofrecuencia, transfiriéndole al “reservatorio térmico”, que es el que determina la temperatura del sistema. Históricamente este proceso de relajación es conocido como relajación spin-red, debido a que inicialmente fue estudiado sistemáticamente, en las redes cristalinas de los sólidos. Su constante de tiempo (T1) describe entonces cuan rápido se realinea la magnetización con el campo magnético después del pulso de excitación. Usando material biológico, este tiempo varía entre los mili segundos y algunos segundo (tabla 1) dependiendo de la intensidad del campo magnético (es decir, de la frecuencia de Larmor). El hecho de que existan valores específicos de T1 para cada tipo de tejido biológico, está siendo objeto de amplios estudios y experimentos, con el fin de poder aumentar el contraste en la técnica de imágenes por RMN.
Para terminar vamos a describir brevemente un espectrómetro de RMN, proyectado para la obtención de imágenes médicas. En muchos aspectos la operación de un sistema de RMN es semejante a la de un receptor de radio FM, que detecta, a través de una antena, una señal de radiofrecuencia y utiliza un receptor sintonizable para procesarla, enviando la señal de audio a un alto parlante. En un sistema de RMN también existe un generador de radiofrecuencia, un receptor y un transmisor, donde los pulsos son amplificados a una potencia de algunas centenas de Watts. Una unidad independiente conforma las secuencias de pulsos específicas que medirán los tiempos de relajación T1 y T2. Una vez amplificados, los pulsos son aplicados en la bobina de radiofrecuencia, la que actúa como una antena, detectando las débiles señales que resultan. Éstas, a su vez, son amplificadas en el receptor y enviadas a un computador donde serán almacenadas y de donde, a partir de su procesamiento, conformarán la imagen final.
La figura 3, muestra esquemáticamente, un sistema de RMN capaz de generar imágenes in vivo del interior del cuerpo humano. Está compuesto por un magneto principal, que debe cumplir condiciones extremadamente severas de homogeneidad y estabilidad (del orden una parte por millón). El que puede ser un imán permanente (campo máximo 3000 Gauss), un imán resistivo (hasta 1500 Gauss) o una bobina superconductora (campos máximos elevados, 20000 Gauss). El sistema generador de gradientes de campo magnético (es decir campos que varían linealmente con la distancia), es una parte esencial del instrumento. Éste consiste en tres conjuntos de bobinas independientes que producen gradientes ortogonales, lineales y bien calibrados, los cuales son necesarios para seleccionar los planos tomográficos y la codificación espacial. Al funcionar, actúan bajo el control de la computadora. Como ya fue mencionado, todo el sistema de generación y de adquisición de los datos, está controlado por un complejo sistema de computación dotado de una alta velocidad de procesamiento y gran capacidad de memoria. LA OBTENCION DE UNA IMAGEN Obtener una imagen de un objeto significa producir un “mapa” que registre alguna propiedad en función de la posición. En el caso de imágenes formadas de RMN, una de las propiedades que puede ser llevada a mapa es la densidad local de un núcleo atómico. El hidrógeno es el elemento más utilizado por ser muy abundante en el cuerpo humano, que contiene gran cantidad de agua. Crear una imagen por RMN requiere de la existencia de algún método de codificación espacial de la señal de RMN (Fid). Si una muestra, por ejemplo de agua, se coloca en un campo magnético homogéneo, todos sus núcleos “sentirán” el mismo campo y el Fid resultante tendrá como única frecuencia característica, la frecuencia de Larmor. Si por el contrario, el campo magnético varía como función de la posición —por causa de un gradiente de campo— resultará una distribución de frecuencias de precesión. En la figura 4, por ejemplo, se colocan dos tubitos con cantidades diferentes de agua, bajo acción simultánea de un campo magnético uniforme (B0) y de un gradiente de campo (Gx). El resultado de la experiencia de RMN sería un Fid complejo, cuyas componentes de frecuencia pueden ser analizadas utilizando la técnica matemática conocida como transformada de Fourier. Obtenemos así un espectro capaz de revelar, no sólo las posiciones de los dos tubitos, sino también sus respectivas cantidades de agua. De esta manera, el espectro es una representación directa y unidimensional de la distribución espacial de la densidad de núcleos de hidrógeno (protones) existentes en las muestras. Esta relación entre la señal RMN y el espectro de frecuencias que le corresponde, es fundamental para los métodos de obtención de imágenes. Sin embargo, para construir una imagen “tomográfica”, es necesario extender este método para dos o tres dimensiones. Desgraciadamente, la correspondencia biunívoca entre campo y posición no puede ser extendida a más de una dimensión, o sea que no es posible crear un campo magnético que tome valores diferentes en cada punto de un plano o un volumen. Es necesario, entonces, aplicar sucesivos gradientes de campo, en diferentes direcciones, para obtener una codificación completa de la distribución de protones en el área que se desea analizar. Como veremos, cada una de las muchas técnicas propuestas para producir imágenes por RMN, consiste en una forma de implementar esta codificación. Actualmente, los métodos más usados son los “tomográficos” donde se obtiene la imagen de paneas un plano del objeto, en lugar del volumen total. Entre ellos, se destacan el método de reconstrucción, a partir de las proyecciones (PR), y el método de la transformada de Fourier bidimensional directa (2DFT). El método de reconstrucción a partir de las proyecciones, es el de más fácil implementación, pues no necesita de dispositivos de control muy sofisticados, y fue uno de los primeros en ser utilizado en la tomografía de RMN. Esta técnica se destaca por el hecho de ser utilizada también en la tomografía computarizada, donde un haz colimado de rayos x “barre” en diferentes direcciones para producir proyecciones de la densidad de masa. Esta técnica ha sido enriquecida ampliamente en los últimos años, tanto en lo que respecta al desarrollo de algoritmos más eficientes, como en lo tocante al hardware dedicado a su procesamiento. Como muestra la figura 5, en este método se aplica un gradiente en una determinada dirección del plano x-y (en este caso Gx), de manera que la frecuencia de resonancia de los núcleos contenidos en las líneas perpendiculares a Gx llamadas isocrómatas, dependerá de la coordenada x de cada uno de ellos. Obtenemos así una codificación de estas frecuencias, como resultado de la obtención de un espectro proporcional a la proyección de la densidad del objeto, a lo largo de la dirección escogida. Aplicando el gradiente en otras direcciones del plano x-y, obtendremos, desde otros ángulos, nuevas proyecciones de la densidad de los núcleos. El uso de un algoritmo matemático, permitirá reconstruir, a partir de estos resultados, la densidad total de los núcleos, lo que constituye la imagen esperada. La variación angular de la dirección en que se aplica el gradiente de campo permite obtener la información de todo el plano, destacando el problema, ya señalado, de la imposibilidad de crear una situación, donde todos los puntos del plano posean diferentes valores de campo magnético. El método de la transformada de Fourier bidimensional directa, sigue otro camino. Una vez seleccionado el plano x-y que interesa analizar, a través de una técnica llamada excitación selectiva, se aplica por un corto periodo de tiempo, un gradiente Gy, llamado codificar de fases, lo que permite discriminar en frecuencia, en la dirección y en el plano. Después de esta aplicación, cada isocrómata de Gy habría evolucionado para un fase diferente, determinada por la duración y amplitud del gradiente. Para que una imagen pueda ser procesada, es necesario todavía aplicar un gradiente Gx con la función de generar isocrómatas en la coordenada x del plano, o sea crear líneas perpendiculares a Gx donde los núcleos poseen una misma frecuencia de resonancia. Pero como la acción previa de Gy ya produjo una codificación de fase a lo largo de esa isocrómata (figura 6), entonces habrá contribuciones de diferentes isocrómatas en la composición de la señal de RMN, cuya amplitud y fase dependerá de la codificación precedente. Todo este proceso debe ser repetido variando, en cada ocasión, la codificación de fase (aumentando la intensidad del gradiente Gy), para conseguir suficientes datos que permitan la reconstrucción de una imagen. Esta técnica fue desarrollada pro J. M. S. Huchinson a partir del trabajo pionero de R. R. Ernst, de 1975. Se destaca aquí el problema de la correspondencia biunívoca entre campo y posición, a través de la aplicación de dos gradientes de campo en momentos diferentes, de tal manera que se logren dos codificaciones independientes en direcciones ortogonales.
TECNICAS MODERNAS Estos métodos pueden ser extendidos a tres dimensiones, a través de la excitación de un volumen entero en vez de sólo un plano, La codificación espacial de fases y frecuencias en las tres dimensiones se logra, usando gradientes apropiados. Naturalmente que esta técnica exigirá un mayor tiempo de adquisición de datos y una computadora dotada de una gran capacidad de memoria, y la información finalmente conseguida permite la formación de imágenes con la misma resolución en cualquier orientación del espacio. Las técnicas estudiadas permiten ver en una pantalla, no sólo un mapa de la densidad de núcleos de hidrógeno (protones), sino también el reflejo de las propiedades de relajación (o sea, de retorno al equilibrio) de los núcleos, lo cual puede ser medido a través de los valores de los dos parámetros: T1 y T2. Esta característica es realmente importante en ciertas ocasiones, cuando diferentes órganos o tejidos biológicos poseen prácticamente la misma densidad de protones, pero sus parámetros de relajación varían en forma significativa (tabla 1). En estos casos se puede escoger una secuencia adecuada de pulsos que permita aumentar el contraste entre los diferentes tejidos, aprovechando las variaciones de intensidad en la imagen causadas por sus diferentes tiempos de relajación. Un ejemplo notable lo constituye el excelente contraste conseguido en el cerebro donde la discriminación entre materia gris y materia blanca es consecuencia de la diferencia en sus valores T1. Ninguna otra técnica de imágenes médicas consigue este contraste. Sin duda en el dominio del sistema nervioso central, la resonancia magnética tiene un gran potencial, específicamente para los tumores de la fosa posterior, la esclerosis en placas y los quistes de la médula.
De forma análoga, la técnica de imágenes por RMN, permite explorar también la existencia de grandes diferencias entre los valores de los tiempos de relajación de tejido normales y patológicos. Estas alteraciones son mucho mayores que las que suceden en la densidad de protones, y son fácilmente detectables por la tomografía de RMN. La tabla 2 muestra la diferencia en los valores de T1 para varios órganos, comparando tejidos normales y tumorales. En el caso de tejidos con valores diferentes de T2, es posible discriminarlos utilizando la técnica de Ecos de Spin, en donde, a través de una secuencia de pulsos específica (pi/2-pi) que revierte la pérdida de fase observada en el Fid, se regenera una señal conocida como Eco de spin. Al contrario de las imágenes por rayos-x, las obtenidas por RMN se destacan por la ausencia de distorsiones provocadas por la presencia de los huesos, los cuales, como tienen poco hidrógeno, aparecen en las imágenes como regiones oscuras. Esta característica permite el análisis de tejidos profundamente “sumergidos” en estructuras óseas, como la base del cerebro, la médula de la espina y la glándula pituitaria. Es importante notar que a pesar de que existe hidrógeno (protones) en prácticamente todas las moléculas presentes en los órganos, sólo los protones asociados al agua intercelular, relativamente móvil, contribuyen de manera significativa en la intensidad de la imagen. El corazón es otro órgano que actualmente se puede explorar, haciendo una sincronización con el registro de un cardiograma. La imagen fetal in utero ha contribuido también a la patología neurológica malformativa, y las imágenes de los riñones, han demostrado su utilidad en la patología renal y en los casos de reyección de médula (que provocan aumentos del volumen del riñón). La tomografía de RMN puede evitar así, el recurso en ciertos casos de una biopsia renal o de la radiología vascular. Comienzan a ser utilizadas también las bobinas de superficies, que al ser colocadas encima de la región examinada, por ejemplo una rodilla, aumentan la capacidad de discernir detalles finos, dando señales de RMN más intensos que las bobinas convencionales, lo que permite disminuir el tiempo del examen. Actualmente existen bobinas adaptables, que son específicas para el examen que se necesite, como en los casos de imagen del seno, de las órbitas oculares, de las articulaciones, de la oreja o de la columna vertebral. Otra posibilidad extremadamente importante es la formación de imágenes con la utilización de otros núcleos diferentes al hidrógeno. La implementación es más difícil, tanto por la baja concentración relativa de los demás elementos en el cuerpo, como por la exigencia de campos magnéticos elevados. Por ejemplo el uso del núcleo de fósforo, constituyente fundamental de moléculas como el adenosín trifosfato (ATP) y la fosfocreatina, permitirían investigar, a través de imágenes el comportamiento de las tasas metabólicas de los tejidos. El uso del núcleo de sodio por otra parte, tiene especial interés para el análisis de casos de infartos, derrames o tumores, en los que sucede el rompimiento de una pared celular, ya que existe una diferencia significativa en los niveles de concentración de este elemento en los fluidos intra y extracelulares. Una “invasión” de sodio, resultante de una ruptura de un vaso o membrana, sería visible en una imagen obtenida por RMN.
Para llegar a conseguir una interpretación completa de las imágenes generadas por un tomógrafo de RMN, en cuya formación intervienen, como ya vimos, parámetros de diversa naturaleza, es necesario desarrollar una cierta capacidad de “lectura” de la imagen, lo que ha estimulado una cooperación multidisciplinaria, que envuelve profesionales de las áreas médica, física, química y de computación. La formación de imágenes por RMN es una idea lanzada hace poco más de 10 años y desarrollada intensamente a partir de esa década. No es extraño por lo tanto, que su potencialidad todavía no se haya manifestado plenamente, pero sin duda los resultados alcanzados hasta ahora, justifican las perspectivas optimistas que han llevado a universidades y empresas de diversos países a investigar sus aplicaciones. En nuestro Grupo de Resonancia Magnética en São Carlos, comenzamos a trabajar en el área de la tomografía en 1983, cuando inició la tesis de doctorado uno de nosotros. Ese mismo año fueron conseguidas las primeras imágenes, de pequeños tubos llenos de aceite mineral, que fueron obtenidas con la técnica de reconstrucción a partir de las proyecciones, usando un magneto resistivo, con 10 cm de separación entre las piezas polares y un espectrómetro de RMN pulsado, desarrollado en nuestro laboratorio. El interés que despertó este trabajo, atrajo a varios estudiantes de posgrado de excelente nivel y logró también la incorporación de personal de apoyo en el área de ingeniería, electrónica y computación. En 1984 se consiguieron las primeras imágenes de pequeños vegetales y al año siguiente fue implementada la técnica de la transformada de Fourier bidimensional directa. En 1986 se instaló un magneto superconductor, con un volumen útil de 15 cm de diámetro, campo magnético de 20 Kilo Gauss y homogeneidad de 16 ppm en el mencionado volumen. Con él se obtuvieron las primeras imágenes de extremidades de miembros humanos e imágenes de flujos de líquidos. En 1988 se instaló un magneto resistivo, con un volumen útil de 60 cm de diámetro y con un campo de 600 Gauss, lo que permitió obtener las primeras imágenes de cráneos. Hasta la fecha, seis estudiantes (uno del doctorado y cinco de maestría), hicieron sus tesis en nuestro Laboratorio, trabajando en esta área. De esta manera, la tomografía por RMN vino a enriquecer el arsenal de técnicas de imágenes médicas a disposición de los radiólogos. Sin embargo, no se debe olvidar el aspecto económico de estos trabajos, ya que una instalación completa, incluyendo el magneto superconductor de alto campo y un computador de gran capacidad de memoria cuesta alrededor de dos millones de dólares. También el costo de manutención, de funcionamiento es alto, debido, por un lado, al bajo número de exámenes, de 10 a 15 por día, y por otro al líquido criogénico (helio líquido) necesario para el funcionamiento del magneto superconductor. Un examen cuesta, actualmente, alrededor de 700 dólares en la red privada, valor no siempre recuperable de los seguros médicos. Para reducir costos actualmente se está trabajando en una nueva generación de tomógrafos, que operan en campos magnéticos bajos, producidos por ejemplo, con imanes de fierro permanente. A pesar de estas dificultades, el interés que se ha despertado en el área médica ha estimulado una cooperación interdisciplinaria que abarca a médicos de la Facultad de Medicina de nuestra Universidad, con el objeto de capacitar profesionales que utilicen esta compleja técnica, tanto en relación con el diagnóstico médico como con la investigación. |
|
![]() |
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Lecturas Sugeridas Pykett, J. L., NMR imaging in Medicine, Scientific American, 246, no. 5, Mayo 1982. |
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
____________________________________________________________
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Alberto Tannus José Pedro Donoso Instituto de Física y Química de São Carlos, Universidad de São Paulo, Brasil. Horacio Panepucci Instituto de Física y Química de São Carlos, Universidad de São Paulo, Brasil. como citar este artículo → |
|
![]() |
índice 18 → siguiente → PDF→ |
|||||
José E. Marquina |
|||||||
Siempre que se habla de Sir Isaac Newton, tenemos en mente al gran creador que revolucionó la ciencia e través de la extraordinaria síntesis que representó el libro Principia Mathematica. Además, suelen destacarse en importantes contribuciones plasmadas en la Optica, así como sus aportaciones a la Matemática a través de la invención del Cálculo (o “Teoría de las Fluxiones”, como él lo denominó), pero más allá de la cosificación que implica el apelativo de “genio” (el cual en pocos casos es dicho con tal justicia), se tiende a olvidar, o peor aún, a esconder, el hecho que debería ser obvio, de que Newton fue un hombre y que como tal, sus intereses no se restringieron única y exclusivamente al ámbito de lo que en la época se denominaba “Filosofía Natural”. Este hecho, que en cualquier caso es al menos injusto, aplicado a Sir Isaac lo es con mayor razón, dado que en su muy larga vida (84 años), tuvo al menos dos pasiones adicionales que compitieron (con ventaja), con su fascinación por la “Historia Natural”. Dichas pasiones fueron la Teología y la Alquimia, ámbitos a los que Newton dedicó mayor tiempo y esfuerzo que a la Ciencia. LA TEOLOGIA Las preocupaciones religiosas de Newton provienen de su muy infeliz infancia, haciéndose claramente patentes a la corta edad de 19 años cuando en la confesión por escrito de sus pecados, al referirse a Dios, señala: “No dedicar mi afecto a ti… No amarte por ti mismo… No desear tus mandamientos. No anhelarte. No temerte tanto como para no ofenderte. Temer a los hombres por encima de ti”.1 Un año después (1663) empezó, en su cuaderno de notas, la sistematización de conceptos teológicos, intentando hacer compatible el conocimiento a través de leyes, con la idea de un Dios omnipotente, capaz de manifestarse en forma activa. En la década de los setenta sus preocupaciones se dirigieron hacia la relación de Dios Padre y Cristo y en un cita de la Epístola a los Hebreos, en la que señalaba que Dios Padre sentó a Cristo a su derecha y lo llamó Dios, Newton insertó una nota que decía: “Por lo tanto, el Padre es Dios del Hijo cuando el Hijo es considerado como Dios”.2 La problemática referente al status ideológico de la figura de Cristo, llevó a Newton a estudiar a los padres de la Iglesia, encontrando que en el siglo IV d.C., Atanasio (fundador de la ortodoxia cristiana y principal responsable de la concepción trinitarista), se había enfrentado a Arrio, en una apasionada disputa. Arrio negaba la Trinidad y el status que dicha concepción le asignaba a Cristo. Con el triunfo de Atanasio se había perpetuado, según Newton, un escandaloso fraude, que había llegado incluso a la modificación de las Sagradas Escrituras, con el fin de hacerlas compatibles con la doctrina trinitarista. Para Newton sólo Dios Padres es Supremo y Cristo representa la Palabra y la Sabiduría hecha carne, siéndole comunicada su divinidad por Dios Padre. En este sentido, el trinitarismo implica un pecado de idolatría, que a decir de Newton “…es una violación del primero y más grande mandamiento. Es concederle a los ídolos el amor, honor y adoración que solamente corresponde a Dios. Es olvidar al verdadero Dios para cometer adulterio con otros amantes…”3. El arrianismo (doctrina de Arrio) era considerado (y creo que todavía lo es) como una concepción herética, y muy pronto le empezó a provocar problemas a Newton, ya que aunque durante toda su vida fue un secreto celosamente guardado, siendo profesor becario del Trinity College (El Colegio de la Trinidad), estaba obligado a tomar las órdenes sagradas, lo cual implicaba sostener la doctrina de la Santísima Trinidad. El 9 de febrero de 1675, Newton viajó a Londres para solicitar al rey Carlos II, le permitiera mantenerse como becario sin tomar los votos, y para su fortuna, el 28 de abril Carlos II aceptó su solicitud. En la década de los ochenta, empezó a redactar un manuscrito (nunca terminado), al que bautizó Theologiae gentilis origines philosophicae, en el que planteaba que todos los pueblos de la antigüedad habían adorado a los mismo doce dioses (con nombres diferentes), los cuales estaban relacionados con doce miembros de la casa de Noé. Para Newton, los dioses de la antigüedad representaban ancestros divinizados, que no eran otros que Noé, sus hijos y sus nietos. Así, Noé representaba a dioses como Saturno; Sem (hijo de Noé) se convirtió en Zeus o Júpiter; Asur (hija de Sem) tomó los nombres de Afrodita, Astarté o Venus y así sucesivamente. Siguiendo con el número doce, Newton listó los doce elementos fundamentales utilizados en la Alquimia, así como los doce objetos de la naturaleza en los que los antiguos habían reconocido a sus divinidades. Estos objetos eran los siete planetas del modelo de Ptolomeo (Luna, Mercurio, Venus, Sol, Marte, Júpiter y Saturno), los cuatros elementos (aire, agua, tierra y fuego) y el quinto elemento, la “quintaesencia” de la que hablaban los alquimistas. Para Newton, las teologías de los pueblos antiguos (Egipto, Asiria, Persia, Grecia, Babilonia, etc.), representaban una caída de la verdadera religión. Dicha caída iba acompañada de la pérdida del conocimiento verdadero, por ejemplo, la astronomía geocéntrica acompañaba a la falsa religión. Para Newton no era casual el hecho de que Ptolomeo (el gran astrónomo geocentrista) fuera egipcio, ya que habían sido los egipcios los primeros en crear falsos dioses y de ellos aprendieron los demás pueblos de la antigüedad. En 1805, transformó la Theologiae gentilis origines philosophicae, en lo que llegó a ser su Chronology of Ancient Kingdoms Amended. En esta obra plantea que las historias de los pueblos antiguos debían recortarse en cientos y hasta miles de años, ya que aparecían en ellas por el deseo de los pueblos de resaltar sus antiquísimos orígenes. Para esta labor de recorte, Newton utilizó fundamentalmente, el Antiguo Testamento, la obra de Herodoto y sus conocimientos de Astronomía. Así, a decir de Voltaire, tomando la expedición de los Argonautas como punto de partida, plantea que Quirón, que viajaba en dicha expedición fijó “…el equinoccio de primavera en medio del Carnero, el equinoccio de otoño en medio de Cáncer, y el solsticio de invierno en medio del Capricornio…”4 y con ese estado del cielo y utilizando la precesión de los equinoccios, calculó que dicha expedición debió ocurrir aproximadamente en 900 a.C. y no n 1400 a.C., como suele ubicarse, con lo que le recortó 500 años a la historia griega. Todos los pueblos antiguos pasaron por esta navaja, excepto el pueblo hebreo, el cual era para Newton el más antiguo de todos, siendo su crónica escrita, el Antiguo Testamento, el origen de todas las mitologías ulteriores, y las semillas de la verdadera religión, aunque sin decir, explícitamente que la religión a la que se refería era aquella que no incluía y de hecho negaba, a la concepción trinitarista. Para el Chronology of Ancient Kingdoms Amended, Newton preparó un mapa del Templo de Salomón, ya que pensaba que Dios había depositado su misterioso plan de las cosas futuras en el Templo Judío. Para él “…la primera religión fue la más racional de todas las demás, hasta que las naciones la corrompieron”.5 Tanto Chronology of Ancient Kingdoms Amended, como Observations upon the Prophecies, fueron publicados después de la muerte de Isaac Newton, pero otros escritos teológicos tales como Irenicum, y A short scheme of the true Religion no corrieron esta suerte. En ellos reiteraba que aunque Jesús era el Salvador, que representaba la señal para el establecimiento de la segunda alianza de Dios con los hombres, no podía ser considerado a la altura de Dios. En su búsqueda de culpables, Newton acusó a San Jerónimo de ser el responsable de la introducción de la doctrina herética del Trinitarismo, en la Vulgata. En lo que a Ciencia se refiere, la obra de Newton no está exenta de sus preocupaciones teológicas ya que, como él mismo señala en una carta a Bentley del 10 de diciembre de 1692, refiriéndose al Philosophiae Naturalis Principia Mathematica: “Cuando escribí mi tratado acerca de nuestro sistema, tenía la vista puesta en aquellos principios que pudieran funcionar para que los hombres creyeran en Dios, nada pudo regocijarme más que encontrar esto útil para tal fin”.6 Dado que en la primera edición (1687) del Principia Mathematica lo anterior no es demasiado obvio, Newton preparó para la segunda edición (1713) un Scholium General en el que afirma: “El bellísimo sistema del Sol, los planetas y los cometas solamente puede proceder del dictamen de un Ser inteligente y poderoso… El Dios supremo es un Ser eterno, infinito absolutamente perfecto… Él gobierna todas las cosas y sobre todas las cosas que pueden ser hechas o no hechas…”.7 De igual manera en la Opticks, en la interrogante 28, se pregunta: “…¿no se sigue de los fenómenos que hay un ser incorpóreo, viviente, inteligente, omnipresente que ve íntimamente las cosas mismas en el espacio infinito, como su fuera en su sensorio, percibiéndolas plenamente y comprendiéndolas totalmente por su presencia inmediata ante él?”.8 Es decir, que para Newton el espacio representa el sensorio divino, en el cual el Sublime Creador, el Dios actuante del Antiguo Testamento, podía realizar las reformas necesarias, ya que como señala en la interrogante 31: “…el ciego destino nunca podría haber hecho que todos los planetas se moviesen en una y la misma dirección, siguiendo órbitas concéntricas, exceptuando algunas irregularidades considerables…, que pueden aumentar hasta el punto en que el sistema necesite una reforma”.9 La Opticks concluye señalado que: “No sólo la filosofía natural se perfeccionará en todas sus partes siguiendo este método, sino que también la filosofía moral ensanchará sus fronteras. En la medida en que conozcamos por filosofía natural cuál es la primera causa, qué poder tiene sobre nosotros y qué beneficios obtenemos de ella, en esa misma medida se nos aparecerá con la luz natural cuál es nuestro deber hacia ella, así como hacia nosotros mismos. No cabe duda de que, si el culto a falsos dioses no hubiera cegado a los paganos, su filosofía moral habría ido más lejos de las cuatro llamadas virtudes cardinales y, en lugar de enseñar la transmigración de las almas y adorar al Sol, la Luna y los héroes muertos, nos habrían enseñado el culto al verdadero Autor y Benefactor, del mismo modo que lo hicieron sus antecesores bajo el gobierno de Noé y sus hijos, antes de que corrompiesen”.10 LA ALQUIMIA El interés de Newton por la alquimia se remonta a su época de estudiante en el Trinity College (en Cambridge). En 1664 fue alumno de Isaac Barrow y es muy posible que éste haya iniciado al joven Isaac en el Arte. Este hecho que hoy nos puede parecer sorprendente, en el siglo XVII no era tal, dada la tradición de la Alquimia en Inglaterra, la cual data del siglo XIV, teniendo representantes tan importantes como George Ripley, Thomas Norton, Thomas Charnock, Samuel Hartlib y muchos otros. La amistad de Newton con Barrow, debió permitirle tener acceso a gran cantidad de literatura alquímica, que únicamente circulaba entre grupos de iniciados; pero si el origen del interés del joven Isaac por la Alquimia es difícil de precisar, lo que es un hecho es que en 1669, Newton aprovechó un viaje a Londres para adquirir equipo de vidrio, aqua fortis, aceite de perla sublimado, plata fina, antimonio, espíritu de vino, blando de plomo, nitrato de alúmina, sal de tártaro y dos hornos por 2 libras 15 chelines, así como el Theatrum chemicum de Zetzner (en 6 volúmenes) por 1 libra 8 chelines, lo cual muestra que para estas fechas ya se encontraba preparado para pasar de la teoría a la experimentación alquímica propiamente dicha. En este mismo año copió Exposition upon Sir George Ripley’s Epistle to King Edward IV de Eiraneus Philaletes y tomó extensas notas de un manuscrito de Philaletes, llamado Ripley Reviv’d, diez años antes de que fuera publicado, lo cual muestra que tenía contactos con grupos alquimistas. En una carta del 18 de mayo de 1668, dirigida a Francis Aston, Newton dice: “…Hay en Holanda un tal Borry, que hace años fue puesto en prisión por el Papa, para obtener de él, por la fuerza, recetas (así me dijeron) de gran valor, tanto para la medicina como para su provecho, pero él escapó a Holanda, donde le ofrecieron protección. Creo que habitualmente va vestido de verde. Ruego indagues todo lo que puedas acerca de él…”.11 Este personaje “…que habitualmente va vestido de verde…”, era Guiseppe Borri, y Newton sabía de él a través del Symbola aureae mensae duodecim nationum, tratado alquimista de Michael Maier, el cual era uno de los autores preferidos de Newton. Para Maier, el conocimiento alquímico provenía de Hermes Trimegistro, cuya sabiduría tenía su origen en Set (hijo de Adán). Esta Prisca sapientia (sabiduría primigenia), se había conservado de manera velada, siendo el deber de ciertos elegidos el descifrarla. Newton, que a no dudar se veía sí mismo como un elegido, dedicó gran parte de su vida a develar, a todos los niveles, los conocimientos secretos, que provenían en todos los casos (incluida la ciencia) del sublime Creador. En 1669 compuso dos escritos, uno de ellos formado por proposiciones basadas en autoridades en Alquimia en el que decía cosas como: “El agente vital difuso en todas las cosas en la tierra es uno y el mismo. Y es un espíritu mercurial, extremadamente sutil y supremamente volátil, el cual está disperso a través de cada lugar… Y todas las especies de metales derivan de esta única raíz. Y en este orden O, T, S, M, P, R, D”.12 Los símbolos tienen un doble significado, por un lado con los metales y por otro con los planetas, y en la tradición alquimista se da esta relación al considerarse que los movimientos celestes se encuentran vinculados con las actividades terrestres de los materiales. En el otro escrito de 1669, usualmente llamado The Vegetation of Metals, Newton Asegura cosas como: “Todas las cosas son corruptibles En este manuscrito, Newton plantea la necesidad de complementar la Ciencia Mecánica, con una Filosofía Natural más profunda, capaz de mostrar los principios activos responsables de los movimientos de las partículas. En la década de los setenta, sus preocupaciones teológicas y alquímicas se fusionaron, de manera que llegó a la conclusión de que Moisés, el patriarca del Antiguo Testamento era alquimista, habiendo aprendido el Arte durante su vida en Egipto, y que cuando en las faldas del Monte Sinaí tomó “…el becerro que había hecho y lo quemó, desmenuzándolo hasta reducirlo a polvo…”,14 lo que en realidad había hecho era desintegrar el oro utilizando métodos alquimistas. En 1675 consiguió el manuscrito alquimista de autor desconocido, denominado “Manna” y añadió al mismo: “…la alquimia no trato con los metales como piensan los vulgares ignorantes, cuyo error les ha hecho despreciar esa noble ciencia, sino también con las venas materiales de cuya naturaleza Dios creó a sus servidores para que concibieran y procrearan a sus criaturas… Esta filosofía no es de la clase que tiende a la vanidad y al engaño, sino más bien al provecho, induciendo primero al conocimiento de Dios… su finalidad es glorificar a Dios en sus maravillosas obras… Esta filosofía a la vez especulativa y activa no sólo puede hallarse en el volumen de la naturaleza sino también en las Sagradas Escrituras, como en el Génesis, Job, Salmos, Isaías y otros. En el conocimiento de esta filosofía hizo Dios a Salomón el más grande filósofo del mundo”.15 A finales de esta década (setenta), Newton compuso otro ensayo, al que denominó Clavis (La Llave), en el que dice: “Sé de lo que escribo porque tengo en el fuego múltiples redomas con oro y este mercurio… que hace que el oro empiece a burbujear, a hincharse y a pudrirse, y a brotar en salpicaduras y ramas, cambiando de colores diariamente, cuyas apariencias me fascinan a cada día que pasa. Considero a esto como un gran secreto de la alquimia”.16 En Clavis, el interés recae no en la multiplicación del oro sino en su desintegración. Entre 1678 y 1680, además de copiar y comentar infinidad de manuscritos alquímicos, Newton se dedicó profundamente a la experimentación alquímica, además de redactar varios tratados, uno de los cuales se denomina Separatio elementorum. Muy posiblemente, en 1680, empezó su más extenso escrito alquimista, el Index chemicus, que es un extraordinario esfuerzo de organización y sistematización de la abundantísima información recopilada a lo largo de los años. En este escrito trabajó hasta principios de los noventa y contiene aproximadamente 5000 referencias distintas. Richard Westfall, al estudiar en 1975, el Index chemicus señaló: “Encuentro imposible que nadie haya podido compilarlo en menos de 1000 semanas”.17 Dado que la primera edición del Principia Mathematica es de 1678, no queda más que preguntarse, ¿en qué momentos escribió Newton este famoso libro? En mayo de 1681, el éxito pareció coronar su labor de experimentación. En su cuaderno de notas, escrito en inglés, aparecen comentarios, en latín, que parecen denotar el orgullo triunfal al señalar: “Mayo 10, 1681. Entendí que la estrella de la mañana es Venus y que ella es hija de Saturno y una de sus palomas”. Mayo 14. Entendí… Mayo 15. Entendí que efectivamente hay ciertas sublimaciones del mercurio. Mayo 18. Perfeccioné la solución ideal. Esto es, dos sales iguales arrastran a Saturno…”.18 De nuevo, el 23 de mayo de 1684, entre líneas del reporte experimental anotó: “Hice volar a Júpiter en su águila”.19 En la primavera de 1687, Newton realizó un viaje a Londres y compró antimonio, sal amoniaca, doble agua fortis y otras sustancias. Por estas fechas redactó dos colecciones de Notable Opinions que llevaban el nombre de Notanda Chemica Sententiae Notabiles. Sententiae Notabiles está formado por extractos de autores diferentes, de tal manera, que el conjunto representa un proceso alquímico específico. En los primeros años de la década de los noventa escribió De Natura Acidorum, Ripley expounded, Comentarios a la Tabla smaragdina y el mas importante de todos ellos, Praxis, el cual es un conjunto de notas sobre el Triomphe hermétique de Didier, libro publicado en 1698 en francés y del cual existe una traducción al latín de puño y letra de Sir Isaac. En este ensayo, Newton utiliza toda la imaginería alquímica pensable, con parrafadas como ésta: “…el esperma crudo fluye de una trinidad de sustancia inmaduras… dos de las cuales… se convierten en la inmaculada Naturaleza láctea virginal, mamada del menstrum de una sórdida ramera”.20 Praxis termina con la descripción del proceso que culmina en la multiplicación. Las expectativas planteadas por Praxis, aparentemente se vieron frustradas y algunos historiadores han señalado la posible relación de su fracaso alquímico (cuando parecía tener el éxito tan cerca), con el colapso que sufrió Sir Isaac durante 1693, año en el cual prácticamente perdió la razón. Otros historiadores han señalado el envenenamiento derivado de sus experimentos alquímicos, como el responsable de su colapso, pues los síntomas (insomnio, irritabilidad, pérdida del apetito, paranoia, amnesia), coinciden con los asociados a la intoxicación por mercurio y plomo. Sustentando esta teoría, se encuentra el hecho de que el análisis espectrográfico de los mechones de pelo de Newton, en posesión de la familia Portsmouth y la biblioteca del Trinity College, han revelado la presencia de concentraciones muy altas de plomo y mercurio. De la época posterior al colapso, sólo se conocen cuatro notas fragmentarias sobre Alquimia y una transcripción, tomada por Newton, de la visita de “un londinense”, conocido de Boyle, con el cual discutió un proceso alquímico particular, sin embargo, su preocupación se mantuvo y se transluce incluso en ciertos pasajes de su obra científica. Entre otras, en la segunda edición de su Opticks (1717), en la interrogante 30, señala: “La transformación de los cuerpos en luz y de la luz en cuerpos se compadece muy bien con el curso de la naturaleza, que parece deleitarse con transmutaciones”.21 Sir Isaac Newton murió el 20 de marzo de 1727. El último acto representativo de su vida fue el negarse a recibir los ritos finales de la Iglesia. A su muerte, la biblioteca personal de Newton constaba de 1612 libros, 912 (57%) de los cuales estaban íntimamente relacionados con sus preocupaciones teológicas, mientras que aproximadamente 80 eran de Alquimia, pero para que este número no resulte engañoso, hay que recordar que los libros de Alquimia no accedían usualmente a la imprenta, por lo que estos 80 debían representar prácticamente toda la literatura alquímica disponible por los canales tradicionales. A éstos hay que agregar las tres docenas de pequeños libros alquímicos y aproximadamente 50 kg de panfletos encontrados, así como los libros y manuscritos alquímicos copiados por Sir Isaac. Análisis recientes, muestran que sus escritos teológicos totalizan como mínimo 1400000 palabras, mientras que los de alquimia son del orden de 1200000 palabras. Newton firmó sus más secretos manuscritos alquimistas con el seudónimo JEOVA SANCTUS UNUS, anagrama de su nombre latinizado ISAACUS NEUUTONUS. La fusión entre Teología y Alquimia está claramente simbolizada en la sabiduría arrianista de su nombre secreto: Jehová, Único Dios. |
|
![]() |
|||||
|
|||||||
Refrerencias Bibliográficas
1. R. S., Westfall, “Short-writing and the State of Newton’s Conscience, 1662”. Notes and Records of the Royal Society of London, 18, (1963), pp. 13-14. ABREVIATURAS USADAS EN LAS REFERENCIAS I) Keynes M. S., Manuscritos de Isaac Newton en la “Keynes Collection” de la biblioteca del “King’s College”, en Cambrdige, Inglaterra. |
|||||||
____________________________________________________________
|
|||||||
Jóse E. Marquina
como citar este artículo → |
cuento |
|
![]() |
anterior →
PDF →
|
|||||||
![]() |
||||||||||
Por el mundo de los mares a lomo de tortuga |
||||||||||
Durante muchas noches salió a la playa, escondiéndose y sin hacer ruido para que nadie lo descubriera. A pesar de las advertencias de su madre y de sus vecinos que decían que lo mejor era cuidarse de verlas, pues el hechizo era inevitable. Pero Juan recordaba las historias emocionantes platicadas por su abuelo y otros ancianos del pueblo, y no resistía la tentación de verlas. ¿Qué puede suceder? Se preguntaba, siempre me ha gustado navegar y lo que más deseo es conocer el mundo, otros mares, otras tierras y los animales fantásticos que dicen que habitan en la profundidad de los océanos. Recordaba las advertencias cada vez que el abuelo contaba sus historias: —Dicen que si llegas a verlas saliendo de la arena, no resistirás los deseos de seguirlas hasta el mar. Pero son pocos los que logran volver. Pues muchos peligros las amenazan y casi ninguna vuelve a ver su playa de origen. Juan quería ayudarlas, quería ser su amigo y escuchar sus historias. Quería que le contaran lo que veían en sus viajes por el mundo. Cuentan que por las noches, a veces todo un día, surgían entre la arena, como burbujas de agua, y corrían hacia las olas para esconderse. Dicen que los que las ven, ya jamás se olvidan de ellas y cada año regresan a la playa a ver salir a sus descendientes entre la arena; así durante años y años, cientos de años pues son de los seres más antiguos en la Tierra… Cuando yo sea viejo —pensaba Juan— mis hijos y mis nietos podrán verlas también. Y les contaré cómo viajan las tortugas cuando regresen ellas a la playa les preguntaré qué han visto en su largo recorrido. Cuántos amigos conocieron? ¿Han platicado con los delfines y los peces de colores? ¿Cómo le hacen para nadar tantos días y meses sin perder el camino? ¿Por qué regresan al mismo lugar? Dicen que hay pequeñitas y grandototas. Que viven en aguas frías o calientes y que han visto cambiar nuestro planeta durante cientos de años. Estarán aquí cuando regrese el cometa Halley. Nombre: Daniel y Elisa Corona Aguilar, Cuernavaca, Morelos. |
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
como citar este artículo →
[En línea]
|