![]() |
![]() |
||
bibliofilia | |||
Agua, medio ambiente y sociedad
|
|
||
Fernando Tudela
conoce más del autor
|
|||
HTML ↓
|
|
||
Agua, medio ambiente y sociedad
Hacia la gestión integral de los recursos hídricos en México. Julia Carabias y Rosalva Landa con la colaboración de Jaime Collado y Polioptro Martínez
unam, El Colegio de México, Fundación Gonzalo Río Arronte. México, D.F., 2005, p.221. |
|
||
En el umbral del siglo xxi, México enfrenta la posibilidad de una crisis del agua que comprometería el futuro inmediato de su proceso de desarrollo. En función de esta crisis potencial, el gobierno de la República ha declarado que el agua es asunto de seguridad nacional.
Los esquemas de utilización del agua que han prevalecido durante décadas han determinado desajustes y conflictos crecientes: escasez, agotamiento de acuíferos, sequías, inundaciones, deslaves, erosión hídrica, azolvamiento, salinización, hundimientos diferenciales, contaminación de suelos y cuerpos de agua, degradación de hábitats acuáticos, entre otros procesos que amenazan la saludad humana y la de los ecosistemas y comprometen la continuidad de la mayor parte de los procesos productivos.
El problema del agua en México presenta múltiples dimensiones. Aunque su análisis desborda el reconocimiento de la creciente escasez del recurso y de los procesos de contaminación que lo afectan, los indicadores de cantidad y calidad del agua permiten calibrar el alcance de la crisis. En función con los indicadores disponibles, referidos en la presente publicación, la crisis del agua no es en México una amenaza futura sino un proceso que ya se hace sentir y que podría alcanzar niveles críticos en el primer cuarto de este siglo. Si el manejo del agua no experimenta un cambio radical en nuestro país, en 25 años México verá frenado su desarrollo por falta del recurso en varias ciudades, insuficiencia agroproductiva, colapso de varios ecosistemas y agravamiento de los problemas de salud pública. Detener a tiempo esta crisis implica una carrera contra reloj, con costos elevados pero muy inferiores en todo caso a aquellos en los que se incurriría por inacción. Algunas estimaciones fijan en 735 000 millones de pesos el monto de las inversiones necesarias para atajar la crisis del agua en los próximos 25 años. El alcance del desafío al que se enfrenta nuestro país podría apreciarse mejor si se considera que la economía mexicana se quintuplicaría en las próximas tres décadas, si creciera a una tasa de poco más de 6% anual. En el mismo lapso, la población ascendería a cerca de 130 millones de habitantes, nivel ya muy cercano al de su prevista estabilización. En función de esta realidad demográfica, el país tendrá que acomodar unos 30 millones de personas adicionales a la magnitud de su población actual, en un territorio que es árido o semiárido en dos tercios de su extensión.
La crisis del agua se interpone en la transición de nuestro país hacia el desarrollo sustentable. Solucionarla requiere mucho más que un esfuerzo tecnológico o de inversión. Por otra parte, la dimensión del problema rebasa con mucho la capacidad gubernamental. Se requiere de una progresiva implantación de una cultura de utilización racional del agua que permee a la población en su conjunto y sustituya a la actual cultura de desperdicio, la no valoración y el no pago. En este marco se necesitará adoptar nuevos enfoques y paradigmas, nuevas política públicas, y una nueva institucionalidad. Nuestro país no ha asimilado todavía a cabalidad algunos cambios de enfoque que en relación con el tema del agua ha temido lugar en el ámbito internacional. En efecto, en el último cuarto de siglo la percepción de los problemas relacionados con el agua ha experimentado un cambio profundo, aunque todavía incipiente. La escasez de agua de calidad aceptable empieza a subsumirse en una problemática mucho más amplia, centrada en las necesidades de gestión integral de un recurso esencial para los sistemas de soporte de la vida en el planeta. El Programa Agua, Medio Ambiente y Sociedad (pamas), que ha contado con el eficaz apoyo de la Fundación Gonzalo Río Arronte y de las instituciones académicas involucradas, representa un esfuerzo colectivo que ha logrado durante tres años conjuntar las ideas, visiones y experiencias de numerosos expertos y tomadores de decisiones sobre los temas críticos relacionados con el agua y su gestión. En esta publicación, Julia Carabias y Rosalva Landa, con la colaboración de Polioptro Martínez y Jaime Collado, presentan los principales resultados de este esfuerzo, tan valioso como oportuno. Tras realizar un diagnóstico de la situación nacional en la primera sección, los autores sintetizan las discusiones en el seno del pamas y analizan en la segunda sección los principales temas críticos relacionados con la conservación de los ecosistemas naturales, sus servicios ambientales y su relación con el ciclo hidrológico; la conservación del agua subterránea y su uso en la agricultura; los problemas de la calidad del agua y de los servicios de agua potable, alcantarillado y saneamiento; los efectos de las presas, la vulnerabilidad y los riesgos hidrometeorológicos. El conjunto de orientaciones que se derivan de este análisis se sintetiza en la tercera sesión, en la que se sugieren los cambios y ajustes que requieren las instituciones, programas, mecanismos de participación, instrumentos de regulación y económicos, así como la generación y sistematización de la información, el conocimiento y su difusión. En definitiva, el desafío consiste en pasar de una política hidráulica a una política hídrica, que haga énfasis en la conservación del ciclo hidrológico y en el manejo y la gestión integral del agua para lograr la mejoría de las condiciones de vida de la población presente y futura. |
|||
(Fragmento de la presentación).
_______________________________________________________________
como citar este artículo → Tudela, Fernando. (2007). Agua, medio ambiente y sociedad. Ciencias 85, enero-marzo, 78-79. [En línea]
|
|||
![]() |
![]() |
||
del ambiente | |||
Arrecifes coralinos, selvas tropicales y huracanes
|
|
||
L. Álvarez Filip y M. Bonilla M.
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | ||
Situados entre el trópico de Cáncer y el de Capricornio, las selvas tropicales y los arrecifes de coral son dos de los ecosistemas más dinámicos y complejos en la naturaleza. Ambos presentan una alta diversidad biológica que favorece una intrincada trama de relaciones entre las especies que los componen y, a pesar de que están localizados en medios diferentes, tienen numerosos vínculos. Por ejemplo, los arrecifes de coral funcionan como una barrera que atenúa la energía del oleaje, lo cual permite el desarrollo de vegetación en las zonas costeras. Mientras que la última contiene el flujo de agua dulce, rica en nutrimentos, y limita su regreso hacia el mar, contribuye con ello que los arrecifes permanezcan en un medio oligotrófico —con pocos nutrimentos—, necesario para el desarrollo de corales y otros organismos.
Actualmente, gran parte de los ecosistemas tropicales se encuentran amenazados o deteriorados, tanto resultado de las actividades humanas, como por la acción de fenómenos naturales. Unas de las perturbaciones naturales que reciben más atención pública por el caos o el impacto socioeconómico que generan, son los ciclones, también conocidos en nuestro país como huracanes o tormentas tropicales. Por la velocidad de los vientos, las inundaciones y demás efectos colaterales —por ejemplo, la pérdida de vegetación—, los ciclones pueden cambiar la estructura y función de las comunidades ecológicas en tan sólo unas horas. Sin embargo, no todo es dañino; como no impactan el ecosistema uniformemente, algunas zonas —o parches— se ven más afectadas que otras, lo que promueve la regeneración de varias especies. Así, los huracanes abren nuevos nichos o espacios ecológicos en el ecosistema. En las selvas, la apertura de un claro permite la entrada de luz al estrato bajo de la vegetación —el sotobosque. Esto propicia abruptos cambios microclimáticos que se reflejarán en marcadas modificaciones en la composición de especies, cuyo dinamismo mediante la exclusión o reducción de especies dominantes, promueve el aumento en la diversidad. Efectos en selvas y arrecifes En términos ecológicos, los ciclones afectan de distintas formas a las especies e individuos que componen el sistema, sea por su edad, su abundancia o su fragilidad estructural. Por esto, el efecto de los huracanes suele evaluarse examinando el daño que sufren las especies que proporcionan la complejidad al ecosistema —por ejemplo, plantas y corales— y no las de alta movilidad o alto nivel trófico, como mamíferos o aves en las selvas y peces en los arrecifes. En las selvas, la lluvia y, sobre todo, los vientos son los mayores causantes de deterioros. Las plantas, en particular los árboles, sufren daños en distintas escalas: desde la pérdida de follaje y ramas —defoliación— o la ruptura de troncos, hasta el desenraizado total del individuo. Mientras que en los ecosistemas marinos, la fuerza de la marea, el oleaje y las corrientes son las principales amenazas que traen consigo los huracanes. En los arrecifes, la magnitud del daño generalmente se evalúa en los organismos sésiles, formados por la relación simbiótica entre corales —animales— y zooxanthelas —algas—, los cuales son responsables de formar las estructuras coralinas. Aquí, el deterioro se evalúa analizando la pérdida de cobertura de coral, aunque también se incluyen los cambios en la composición de otros organismos como esponjas, gorgonaceos —corales blandos— e incluso la cantidad de sustrato libre en forma de roca o arena. La península de Yucatán En la península de Yucatán, localizada en la franja conocida como cinturón de huracanes del Caribe, no es raro que estos eventos impacten su territorio. Sin embargo, en 2005 sufrió el embate de dos de los huracanes más fuertes en los últimos años: Emily y Wilma, ambos categoría 5, la máxima en la escala Saffir-Simpson —la cual mide el daño potencial que puede causar un huracán, basándose en la intensidad de vientos máximos y su presión atmosférica. Emily impactó la zona noroeste el 17 de julio con vientos sostenidos de 215 kilómetros por hora y rachas de hasta 260. Wilma, uno de los huracanes más destructivos de los que se tenga memoria, afectó la región del 21 al 24 de octubre. En su punto de mayor fuerza, fue el más intenso en el océano Atlántico, con la presión atmosférica más baja jamás registrada en el hemisferio oeste. Alcanzó la costa de Quintana Roo con vientos sostenidos de 220 kilómetros por hora y rachas de más de 300. El ojo, hasta de 63 kilómetros de diámetro, cubrió en su paso toda la isla de Cozumel. Al final, la zona afectada por la trayectoria de ambos meteoros no se veía tan perturbada desde el paso del huracán Gilberto en 1988. Tal es el caso de lo acontecido en el Área de Protección de Flora y Fauna “Otoch Ma’ax Yetel Kooh” —selva mediana subperennifolia— y en el Parque Nacional Arrecifes Cozumel, ambos localizados en el noreste de la península. ¿Daños comparables? En ambos sistemas, después del paso de Emily, más de 50% de los individuos muestreados no sufrieron daño, lo que podría indicar cierta resistencia ante este tipo de eventos. Pero después de Wilma, sólo un pequeño porcentaje de individuos permaneció sin daño aparente. Una explicación sería que se encontraban resentidos por el paso del anterior huracán, además de que su intensidad y duración fue mayor. Sin embargo, en ambos casos el daño aparente fue mucho mayor al registrado con un análisis de daños. En las selvas, los estragos no fueron severos, hubo una gran cantidad de árboles defoliados y un número menor de individuos completamente desenraizados. Mientras que en el mar, las especies más susceptibles pero con altas tasas de crecimiento, fueron las más dañadas. Por ejemplo, los géneros de corales de dedo (Porites spp.) y lechuga (Agaricia spp.), así como las esponjas masivas.
Los factores permiten creer que la recuperación de estos sistemas será relativamente rápida. Sin embargo, sería interesante evaluar si los gastos energéticos de los individuos se están destinado únicamente a la recuperación, y no a otros fines como el crecimiento, la reproducción o los patrones fenológicos en las plantas —producción de flores y frutos—, lo cual tendría un impacto en las siguientes temporadas. En ambos casos, el tamaño de los individuos —árboles— o de las agregaciones que estos forman —colonias de coral—, fue una variable importante. Por ejemplo, los individuos más pequeños presentaron mayores tendencias de verse afectados. Finalmente, en los arrecifes de coral, para algunas especies raras, las que presentan baja abundancia relativa, el daño observado fue mínimo. Esto probablemente les confiera la oportunidad de ocupar los espacios que dejaron libres los individuos que fueron removidos por los huracanes. Para terminar No es casualidad que en ambos sistemas las especies más comunes fueran las más afectadas, ya que generalmente son las que tienen estrategias de rápido crecimiento poblacional o mejores estrategias competitivas; pero como consecuencia es posible que no inviertan energía en la formación de estructuras que les proveen mayor rigidez estructural. Por otro lado, vale la pena recalcar que este tipo de disturbios abre espacios que son un hábitat en potencia para la llegada de nuevos organismos. De hecho, por la frecuencia e intensidad con la que se presentan los huracanes, se considera que ayudan al mantenimiento de la diversidad del medio, al excluir o limitar las especies dominantes y facilitar el establecimiento de otras. Por su parte, existen varios mecanismos que propician la capacidad de recuperación de los ecosistemas. Entre ellos, los ciclos relativamente rápidos de vida y la capacidad de reproducción tanto sexual como asexual de muchas especies, lo que permite la regeneración de los organismos afectados, así como la recolonización de las áreas afectadas. Tanto en la tierra como en el mar, la capacidad de resiliencia de estos ecosistemas parece ser alta, resultado de su gran diversidad biológica y la complejidad de sus tramas ecológicas.
El problema comienza cuando los huracanes se presentan con mayor frecuencia e intensidad, escenario que podríamos enfrentar debido al calentamiento global y al consecuente incremento en la temperatura superficial del mar, ya que el tiempo de recuperación de los ecosistemas pudiera no ser suficiente. La presencia de ciertos disturbios crónicos, como la sobrepesca en los arrecifes de coral, que implica la remoción de ciertos organismos del sistema y repercute en la abundancia de otros —por ejemplo, la exclusión de peces herbívoros afecta el equilibrio entre corales y algas—, o la conversión de suelos en las selvas —como el caso de los pastizales— y la fragmentación en general, provocan severos cambios en la estructura de los ecosistemas y su capacidad de resiliencia puede disminuir considerablemente. |
|||
Lorenzo Álvarez-Filip
Parque Nacional Arrecifes de Cozumel (conanp) y Universidad de East Anglia, Reino Unido. Martha Bonilla Moheno Universidad de California, Santa Cruz. |
|||
Referencias bibliográficas
Alvarez-Filip, L., y I. Gil. 2006. “Effects of Hurricanes Emily and Wilma on Coral Reefs in Cozumel, Mexico”, en Coral Reefs, (en prensa). Lugo, A. E., C. S. Roger y S. W. Nixon. 2000. “Hurricanes, Coral Reefs and Rainforests: Resistance, Ruin and Recovery in the Caribbean”, en Ambio, núm. 29, pp. 106-114. Tanner, E. V. J., V. Kapos y J. R. Healey. 1991. “Hurricane effects on forest ecosystems in the Caribbean”, en Biotropica, núm. 23, pp. 513-521. Webster, P. J., G. J. Holland, J. A. Curry y H. R. Chang. 2005. “Changes in tropical cyclones number, duration, and intensity in warming environments”, en Science, núm. 309, pp. 1844-1846. _______________________________________________________________
como citar este artículo → Álvarez Filip, Lorenzo y Bonilla Moheno, Martha. (2007). Arrecifes coralinos, selvas tropicales y huracanes. Ciencias 85, enero-marzo, 14-17. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
de la red | |||
De todos y para todos
|
|
||
Susana Biro
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | ||
Hacia finales del siglo xix apareció la revista británica sobre ciencia, Nature. Estaba pensada como un aparador para mostrar al público el conocimiento acerca de la naturaleza producido por los especialistas. Entre sus principales promotores estaban Thomas Huxley y Joseph Hooker que llevaban años trabajando para marcar fronteras claras para la ciencia profesional. Doce años después de la primera publicación de Nature, como una reacción, apareció otra revista llamada Knowledge. Su editor, Richard Proctor, era un reconocido astrónomo aficionado y divulgador de la ciencia. En contraste con Nature, Knowledge invitaba a todos a participar en la revista enviando la información que tuvieran sobre la naturaleza. El resultado fue una publicación en la que predominaban cartas de los lectores y artículos escritos por divulgadores sobre los temas de mayor interés para el público. Estas dos revistas fueron uno de los muchos escenarios en los que se produjo la lucha para definir quiénes estaban autorizados para hablar sobre las ciencias.
Al inicio del siglo XXI, nuevamente se ha hecho una invitación a todos, en este caso para participar escribiendo alguna parte de la enciclopedia gratuita en línea, Wikipedia (www.wikipedia.org). Aunque no es la primera de su tipo, Wikipedia es la más exitosa hasta el momento. Iniciada en 2001, en la actualidad tiene casi un millón y medio de entradas en inglés, además de versiones en muchos otros idiomas como alemán, francés y español. Partiendo de un par de reglas de urbanidad —usar tono neutro y aportar información objetiva— y utilizando los programas wiki que facilitan la colaboración en línea —y que se explican muy bien en la misma Wikipedia—, este sitio invita a la construcción de una enciclopedia de todos y para todos. Al ser tan abierto, el proyecto tiene algunos problemas. Como cualquiera puede agregar una entrada nueva o editar alguna que ya existe, en ocasiones hay vandalismo o plagio. Es por esto que se ha vuelto importante el grupo de voluntarios dedicados a supervisar los avances. Puesto que Wikipedia se escribe en pedazos, poco a poco y entre muchos, ha originado muchas discusiones acerca de su calidad y veracidad. Sin embargo, los directores del proyecto dicen que se puede observar cómo los artículos sufren una especie de evolución: conforme pasa el tiempo, van creciendo y entre más personas los leen y corrigen, van convergiendo hacia un texto de calidad. Este interesante proceso se puede ver en la sección de discusión de cualquier artículo. En 2005, la revista Nature diseñó una prueba para comparar la calidad de los artículos sobre temas científicos que aparecen en Wikipedia con los de la versión en línea de la Enciclopaedia Britannica. Para ello seleccionaron cuarenta y dos entradas de ambas enciclopedias y se las dieron a expertos en el tema, sin especificar su origen, para que las leyeran. El resultado, en opinión de Nature, es que la calidad de las dos es semejante. De inmediato Britannica publicó una replica para demostrar lo contrario. Una de las cosas más interesantes de sus argumentos es que dejan ver sus criterios editoriales, además de quedar claro que no hay una única manera de seleccionar qué información incluir y cómo explicarla. Las ligas para ambos lados de esta discusión se encuentran en el artículo de Wikipedia sobre Wikipedia. Más de cien años después del enfrentamiento entre Nature y Knowledge, somos testigos de otra batalla sobre la autoridad para hablar de cierto tema. A estas alturas, es difícil saber cuál será el resultado pero, si todo el mundo —literalmente— está leyendo Wikipedia, y si los científicos quieren que la sociedad conozca lo que hacen, quizás debieran participar en este nuevo espacio. |
|||
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
|
|||
Nota
Las referencias para el estudio de Nature y la respuesta de la Enciclopaedia Britannica son: http://www.nature.com/news/2005/051212/full/438900a.html y http://corporate.britannica.com/britannica_nature_response.pdf
_______________________________________________________________
como citar este artículo → Biro, Susana. (2007). De todos y para todos. Ciencias 85, enero-marzo, 50-51. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
El cuarto elemento y los seres vivos: ecología del fuego |
El fuego guarda una estrecha relación con los fenómenos naturales, los elementos abióticos y bióticos del ecosistema y el hombre. Se enfatizan los estudios sobre incendios en México, así como en la Reserva Ecológica del Pedregal de San Ángel de Ciudad Universitaria.
|
|
Sonia Juárez Orozco y Zenón Cano Santana
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
En numerosas culturas el fuego tiene un importante papel. Cuenta el mito griego que Prometeo entregó el fuego del conocimiento a los hombres provocando la ira de Zeus quien lo condenó a ser encadenado y sistemáticamente torturado por un águila. Los zoroastras, descendientes de una secta religiosa de la antigua Persia, lo adoraban como símbolo de pureza. Para su profeta, Zaratustra, la llama encarnaba al espíritu puro y sabio, lo cual coincide con la representación del Espíritu Santo de los católicos, aunque en la Biblia el fuego también simboliza el castigo divino, en la mítica destrucción de Sodoma y Gomorra Dios hizo llover azufre ardiendo y fuego. En México, los mexicas adoraban a Huehuetéotl, el dios del fuego, quien era el encargado de cuidar el equilibrio del cosmos y se le representaba como un anciano soportando el peso de un bracero que simboliza un volcán.
Los incendios son tan antiguos como la vegetación terrestre. Frecuentemente, el hombre primitivo se enfrentó al fuego y su domesticación constituyó un gran logro que se registra en todas las culturas conocidas. El ser humano es el único organismo que maneja el fuego, lo cual lo distingue de los demás animales. Es el primer tipo de energía que pudo controlar, para usarlo como fuente de calor, para cocinar sus alimentos e iluminar su entorno. La domesticación del fuego fue la primera gran transición ecológica que produjeron los humanos, pero su utilización es un arma de dos filos, pues si se hace con descuido puede ocasionar graves daños.
Desde el punto de vista ecológico, el fuego constituye un disturbio; esto es, un evento súbito que daña a los organismos de una comunidad, dejando espacios abiertos para que otros seres vivos lo colonicen. La perturbación que provoca el fuego en las comunidades consiste en la reducción de la biomasa de algunas plantas y la muerte de otras, así como de animales y hongos. Los humanos han afectado el régimen de incendios en el planeta. Directamente, al usar el fuego para preparar el terreno agrícola, favoreciéndolos por descuido; o indirectamente, introduciendo especies exóticas en los ecosistemas. Por ejemplo, la introducción de ganado en los bosques de Pinus ponderosa disminuye la frecuencia natural de incendios, mientras que la de pinos en los matorrales xerófilos de Sudáfrica la incrementa. Muchas características de algunos ecosistemas y organismos se explican por la acción del fuego. Se sugiere que la baja densidad de árboles que caracteriza los pastizales y sabanas se debe, parcialmente, a la presencia de recurrentes incendios. Los chaparrales típicos de climas mediterráneos, que también experimentan frecuentes incendios, albergan especies vegetales que cuentan con tubérculos y cortezas gruesas que les permiten sobrevivir al fuego. Sin embargo, existe una gran variedad de ecosistemas que no responden de la misma forma ante este tipo de disturbios. En los ambientes desérticos, por ejemplo, sólo sobrevive 35% de los cactus columnares sometidos al fuego. Para que se produzca un incendio deben combinarse calor, combustible y oxígeno. La combustión libera bióxido de carbono, vapor de agua y energía, por lo que esta reacción es inversa a la de la fotosíntesis. En los ecosistemas terrestres es muy fácil que se inicie un incendio por la existencia de una gran variedad de materiales combustibles, como la materia viva y muerta contenida en ramas, hojarasca, troncos, pastos, dosel de los árboles y heces. Asimismo, se registran muchas fuentes de calor —sol, rayos, lava, chispas y actividades humanas— y nuestra atmósfera tiene una alta concentración de oxígeno, calculada en 20 por ciento.
Los incendios pueden clasificarse en superficiales, subterráneos o de copa. Los primeros son los que se propagan horizontalmente sobre un terreno, consumiendo el estrato bajo de la vegetación. Los subterráneos, se propagan bajo el suelo por la acumulación y compactación del combustible, que suele consistir en mantillo y raíces. Los de copa o aéreos alcanzan el dosel de los bosques y por lo general son muy destructivos y difíciles de controlar. De acuerdo con su origen, los incendios también se clasifican en naturales y artificiales. En los naturales no interviene el ser humano, son provocados por los rayos, las erupciones volcánicas, la producción de chispas durante un choque de rocas y la combustión espontánea de materia vegetal o compuestos volátiles e inflamables despedidos por ciertas plantas en las horas de mayor calor. Por su parte, los artificiales están asociados con las actividades humanas, entre las que se encuentran las chispas producidas por los ferrocarriles, las hogueras, los fumadores, la quema no controlada de desechos o la realizada con fines agropecuarios y los incendios intencionales. Relacionados indirectamente con las actividades humanas, están los producidos por la combustión espontánea de materiales de desecho inflamables, domésticos e industriales, los ocasionados por la introducción de especies exóticas pirófilas —las que necesitan o se benefician de los efectos del fuego—, como los pastos, los eucaliptos y los pinos; y los que se originan por la concentración de energía solar producida por los objetos de vidrio depositados en zonas naturales. Efectos del fuego Los incendios producen cambios en los rasgos físicos y químicos del ambiente. Por ejemplo, el contenido de muchos nutrimentos aumenta por la liberación de cenizas durante la combustión; sin embargo, con temperaturas tan altas, el nitrógeno y la materia orgánica se volatilizan. Asimismo, un incendio puede cambiar la acidez del suelo en ambos sentidos, haciéndolo más ácido o más alcalino. Por otro lado, al quemarse la cubierta vegetal hay mayor incidencia de radiación solar, lo que provoca un drástico incremento de temperatura al nivel del suelo, aumenta la velocidad viento y disminuye la humedad. Las plantas sufren dos tipos de daños por efecto del fuego: los directos, asociados con la desnaturalización de proteínas y la alteración en la movilidad de los lípidos, y los indirectos, que se derivan de los efectos del calor sobre el metabolismo. La posibilidad de que una planta muera depende del grado del daño, ya que su crecimiento modular les permite regenerarse cuando algunos de sus módulos no están quemados. En este sentido, las plantas más grandes son las que tienen mayor posibilidad de sobrevivir. También, la presencia de bulbos, macollos —tallos, flores o espigas que nacen justos—, lignotubérculos o cortezas gruesas, así como follaje resistente al fuego y semillas de testa dura, les permite sobrevivir. Algunos pastos son resistentes al fuego porque poseen rizomas que se encuentran protegidos bajo el suelo. Un ejemplo de adaptación extrema es el de las coníferas de las especies Pinus banksiana, P. contorta, P. clausa, P. leiophylla, Cupressus sargentii y Picea americana que presentan conos serotinos —los cuales permanecen cerrados durante largo tiempo— y que requieren del calor producido por el fuego para liberar sus semillas. Asimismo, existen otras plantas cuya presencia favorecen los incendios en el ecosistema, como el pasto Aristida stricta, la maleza del fuego Epilobium angustifolium, algunos pinos, los eucaliptos, el álamo Populus tremuloides y las secuoyas. Después de un incendio, las plantas sobrevivientes regeneran sus órganos y recolonizan el territorio por medio de semillas. El clima y la herbivoría son factores claves que determinan el establecimiento de las plantas. La lluvia favorece el crecimiento vegetal, en tanto que los herbívoros pueden desaparecer por el fuego, o bien, el surgimiento de nuevos rebrotes los atrae, lo cual aumenta o reduce las posibilidades de supervivencia de las plantas, respectivamente. La primera opción hace que la quema de áreas para la ganadería sea tan popular, se eliminan insectos nocivos y hay hierba fresca y nutritiva después de la quema, además de que la zona se libera de garrapatas, moscas parásitas y competidores. También se reportan respuestas positivas de las plantas después de un incendio, asociadas al incremento de la productividad primaria —esto es, la tasa de fijación de materia o energía por parte de las plantas—, de la floración, la dispersión de semillas, la germinación y del establecimiento de las plántulas. La productividad primaria aumenta por la alta disponibilidad de nutrimentos y el rápido calentamiento del suelo debido al color negro que le confiere las cenizas, las cuales estimulan el crecimiento vegetal. Los animales, a diferencia de las plantas, no resisten las elevadas temperaturas que se experimentan durante un incendio, pues además del daño que sufren sus órganos, la inhalación de humo dificulta su respiración y pueden morir por asfixia. Sus principales mecanismos para no sucumbir en un incendio son escapar o esconderse en madrigueras, islas de vegetación no afectadas por el fuego o al interior de cuerpos de agua. Por lo general, los animales grandes huyen, mientras que los pequeños buscan refugio. Después de un incendio, los animales encuentran su ambiente sumamente alterado. La vegetación que proveía de espacio, alimento y protección se reduce o desaparece. La mayor parte de los cambios no los favorecen; pero, a pesar de esto, se mejora la calidad y cantidad de alimento disponible y disminuye la incidencia de parásitos. Se ha registrado que las comunidades de saltamontes, grillos, cucarachas y arañas se recuperan rápidamente. La situación actual en México En México, que ocupa el octavo lugar entre los países que pierden sus bosques por causa de los incendios, 90% de ellos son superficiales y muchos ocurren en épocas de mayor estiaje. En la década de los noventas se registraron 7 839 incendios por año, los cuales consumieron 267 mil hectáreas anualmente. Las causas cambian según la región: en el centro del país es la quema de pastos y las fogatas, en el sureste, la práctica de la roza, tumba y quema para preparar zonas de vegetación natural para el cultivo. Los incendios forestales provocan diversos daños en los ecosistemas mexicanos, como la destrucción de madera, el aumento de zonas erosionadas que limitan la infiltración de agua al subsuelo, la destrucción del hábitat de la fauna silvestre, la generación de contaminantes atmosféricos que contribuyen al calentamiento global y la reducción de la belleza del paisaje. Asimismo, conllevan negativos efectos económicos y sociales. Si bien es cierto que los incendios naturales son parte importante de la dinámica de algunos ecosistemas, no ocurre lo mismo con los frecuentes incendios de origen antrópico. Un año catastrófico fue 1998, cuando 14 445 incendios fueron registrados, los cuales afectaron 850 mil hectáreas. Su envergadura fue tal, que alcanzaron veinte entidades federativas de México y algunos países de Centroamérica; entre el 14 y el 20 de mayo de ese año se detectó una bruma espesa producto de las partículas liberadas por esos incendios, que se extendió hasta Texas y Florida, donde se decretaron medidas sanitarias y de contingencia ambiental. Para combatir este tipo de incendios es necesaria la capacitación en técnicas de control de incendios para proteger los bienes y las vidas de quienes los combaten. Durante 1998, por ejemplo, se registró la muerte de setenta personas durante acciones de control de incendios forestales en el país. Por otra parte, es importante conocer la relación entre la acumulación de combustibles y la probabilidad de que ocurra un incendio. Los de baja intensidad deben ser permitidos y aun prescritos artificialmente, porque impiden que se acumulen grandes cantidades de combustible, lo que ha causado los mayores desastres producidos por incendios. Ese fue el caso del incendio ocurrido en el Parque Nacional Yellowstone en julio de 1988, en el cual se quemaron 450 000 hectáreas de bosque, porque desde 1872 se implantó un estricto control que permitió la acumulación de gran cantidad de materia combustible. Actualmente, se sabe que los incendios que asolan la península de Yucatán están relacionados con el paso previo de un huracán sobre las selvas, el cual ocasiona la caída de hojas y ramas leñosas. La prescripción de quemas ligeras y periódicas tienen numerosas ventajas, como la disminución de riesgos para el ser humano, las plantas y los animales, la reducción de la pérdida de suelos, el control de plagas y enfermedades, la eliminación de combustibles, el control de la vegetación dominante y competitiva, la protección del banco de semillas, el mantenimiento de la diversidad, la estimulación de plantas de interés económico —como los pinos y los zacates— y el mejoramiento de la calidad del forraje. La prescripción de quemas ligeras puede ir acompañada con el retiro de los restos leñosos y de la vegetación exótica, como los eucaliptos y los pastos que incrementan el riesgo de incendios. También es necesario estudiar con detenimiento la posibilidad de usar brechas cortafuego en ecosistemas donde ocurran incendios frecuentes y donde no existan posibilidades de invasiones por parte de comunidades humanas. No obstante, todas las acciones de control y manejo del fuego deben estudiarse profundamente y aplicarse con suma cautela. El Pedregal de San Ángel En la ciudad de México, la Reserva Ecológica del Pedregal de San Ángel de Ciudad Universitaria, que cuenta con una vegetación tipo matorral xerófilo única en el país por su estructura y composición biótica, se asienta sobre un sustrato rocoso basáltico originado hace 2 000 años por los derrames del volcán Xitle y de conos adyacentes. La actividad volcánica ocasionó una alta heterogeneidad geomorfológica, aunque en algunas zonas se pueden apreciar sitios planos. La extensión original del derrame fue de 80 kilómetros cuadrados, de los cuales 2.37 fueron decretados como Reserva Ecológica en 1983. En este sitio domina un estrato herbáceo y uno arbustivo, aunque también se encuentran elementos arbóreos de menos de siete metros de altura. La flora de este particular ecosistema cuenta con más de 300 especies de plantas vasculares, entre las que se encuentra la especie endémica Mammillaria haageana var. san-angelensis, conocida como biznaga de chilito, mientras que la fauna la componen artrópodos, moluscos, peces, anfibios, reptiles, aves y mamíferos. Por ejemplo, salamandras, víboras de cascabel, colibríes, zorrillos, tlacuaches, liebres, cacomixtles y zorras grises sobreviven dentro de la gran megalópolis. En la Reserva, los incendios ocurren principalmente en la época de secas —entre febrero y abril— y, a pesar de ser un área natural protegida, la mayoría son de origen artificial. Entre 1992 y 1997, se reportaron 455 incendios en la zona de la reserva ecológica y las aledañas de vegetación natural. Es muy probable que la frecuencia de incendios en este ecosistema se haya incrementado como consecuencia de la fragmentación y la reducción del área, lo que origina un mayor impacto de las actividades humanas que favorecen la producción de incendios, como el pisoteo, la introducción de especies exóticas pirófilas —como los eucaliptos y el pasto kikuyo—, las fogatas, las colillas de cigarros y la acumulación de basura doméstica inflamable —papel, cartón, plásticos y madera. El Pedregal de San Ángel es un ecosistema donde se acumula una gran cantidad de combustible en forma de materia vegetal muerta, la cual se deposita en el suelo o permanece en pie. Pero a pesar del gran número de incendios que ocurren dentro de la zona, existen pocos estudios acerca del origen y efecto del fuego sobre la comunidad biótica. De hecho, hasta la fecha sólo existen cinco investigaciones que analizan los incendios en este ecosistema. Los incendios se producen en la temporada más seca del año, cuando muchas especies de plantas se encuentran en estado latente como bulbos, tubérculos, meristemos —que son tejidos cuyas células pueden dividirse y originar los otros tejidos de la planta— enterrados y semillas, y mucha materia orgánica seca se encuentra almacenada en el mantillo, que en esas fechas alberga en promedio un kilogramo y medio de materia muerta por metro cuadrado. En 2001, Martínez Mateos registró que después de un incendio ocurrido en febrero de 1998, la cobertura vegetal disminuyó hasta en 12% y que la temperatura máxima del aire al nivel del suelo alcanzó 26.1°C, mientras que en las zonas no quemadas era de sólo 16.4°C. Después del incendio, únicamente detectó 15 especies de plantas con tejidos aéreos. Entre las especies que crecen en la reserva medio año después del incendio, 73% son perennes y rebrotan a partir de bulbos, tubérculos, meristemos subterráneos y tallos semienterrados; en tanto que el restante 27% son hierbas anuales que se reclutan a partir de semillas. Por su parte, en 1998, Cano Santana y León Rico observaron que la cobertura vegetal se incrementa rápidamente entre abril —que es cuando ocurrió el incendio estudiado— y octubre, y que el fuego reduce la cobertura de los árboles y los arbustos provocando que la comunidad vegetal retroceda en el proceso sucesional. Tres años más tarde, Martínez Orea encontró que el número de semillas viables y la riqueza específica en semillas se reducen después de un incendio, pues en los sitios quemados registró 33 o 34 especies y 22 o 23 plántulas en 300 gramos de suelo, mientras que en los no quemados, entre 36 y 43 especies y de 55 a 108 plántulas en la misma cantidad de suelo. Recientemente Juárez-Orozco encontró que después de siete meses de ocurrido un incendio, en el sitio quemado se registra una biomasa aérea en el estrato herbáceo tres veces más alta que en un sitio adyacente no quemado. En el primero, la diversidad vegetal, siete meses después del incendio, es baja por la gran dominancia, en términos de biomasa, del zacatón Muhlenbergia robusta y del bejuco Cissus sycioides. En ese momento, en el sitio que se quemó se encontró un tercio de la densidad de artrópodos epífitos registrada en el sitio no quemado. Finalmente, en 2006 Vivar Evans y sus colaboradores encontraron que las semillas de Dahlia coccinea pueden tolerar o incluso ser favorecidas por incendios de baja intensidad. Ellos sugieren que la alta heterogeneidad del sustrato del Pedregal de San Ángel permite la presencia de microhábitats donde las semillas pueden mantener su viabilidad. Las evidencias observadas sugieren que el ecosistema que alberga esta reserva ecológica es resiliente al fuego, es decir, muestra una alta velocidad de recuperación después del siniestro. Sin embargo, es necesario considerar que el fuego reduce la diversidad de un hábitat, ya que algunos elementos de la flora, como Senecio praecox y los helechos, así como los artrópodos, son afectados negativamente. De igual forma, hay que reconocer que se ha estudiado poco la forma como los incendios dañan a los vertebrados, durante un incendio se han escuchado los chillidos de los mamíferos que se esconden en las grietas subterráneas. Nuestras observaciones de campo nos permiten sugerir que en los sitios de topografía plana, donde domina el zacatón Muhlenbergia robusta, los incendios pueden ser más frecuentes por la naturaleza pirófila de esta especie y la baja densidad de árboles, por lo que las temperaturas son más altas y los niveles de humedad muy bajos. Lo contrario ocurre en los sitios de topografía accidentada, donde se establece un estrato arbóreo bien definido. Para acrecentar nuestros conocimientos acerca de los incendios en este ecosistema, sería de gran utilidad contar con el registro de las zonas específicas que se queman año con año, de la duración e intensidad de los incendios, en términos del calor producido o de las temperaturas registradas, así como del factor de inicio y las temperaturas de ignición de los distintos materiales. Conclusiones El papel del fuego es complicado, pues tiene efectos positivos y negativos, dependiendo de las características del incendio y de las adaptaciones de las especies. Existen ecosistemas en los que los incendios son raros y otros en los que son parte integral de su funcionamiento. En México, hay pocos estudios acerca del papel del fuego en sus ecosistemas, de allí la importancia de hacer investigaciones en ecología del fuego para mejorar la protección de nuestros recursos naturales y enfrentar el problema de su control. Además, debemos conocer cuáles ecosistemas tienen relación con el fuego y en cuáles aplicar quemas controladas. El fuego puede tener consecuencias ambientales, económicas y sociales indeseables si se sale de control. El adecuado manejo de los incendios en el país resulta fundamental para proteger los ecosistemas terrestres y los servicios ambientales que nos prestan, así como para salvaguardar los bienes de la población y evitar pérdidas humanas. El control de incendios en los ecosistemas naturales debe iniciar con medidas preventivas. En el caso de la Reserva Ecológica de Ciudad Universitaria, es recomendable el control de los accesos de visitantes, establecer una estricta vigilancia sobre las personas que tiran escombros, desechos de jardinería y basura doméstica, implementar jornadas de limpieza y acciones de control de plantas exóticas —en este caso, eucaliptos y el pasto kikuyo—, impulsar jornadas permanentes de educación para la comunidad universitaria y sus visitantes, y fortalecer las acciones de control de los incendios artificiales. Estas actividades preventivas podrían aplicarse en otras zonas de vegetación natural susceptibles de quemarse. Epílogo Los filósofos presocráticos pensaban que toda la materia estaba constituida por cuatro elementos: tierra, agua, aire y fuego. Heráclito afirmó que el principio de todas las cosas era el fuego, el cual representaba el movimiento y el cambio que describe nuestra realidad. El fuego es destrucción, pero también renovación. Sin aire, tierra y agua no hay vida. El fuego, el temible cuarto elemento, seguirá persistiendo en los ecosistemas terrestres y por ello es fundamental conocer los beneficios y los daños que ocasionan, y qué tan rápido es capaz un ecosistema de recuperarse, todo ello para predecir mejor los cambios que sufrirían los otros tres elementos vitales. |
||
Sonia Juárez Orozco y Zenón Cano Santana
Facultad de Ciencias, Universidad Nacional Autónoma de México. |
||
Agradecimientos
Agradecemos a Marco Romero su asistencia técnica. A la Dirección General de Servicios Generales de la unam la información sobre los incendios en Ciudad Universitaria y a Leticia Valencia su revisión bibliográfica. A Vania Chagoya Lizama y a Víctor López Gómez les agradecemos la revisión del texto. |
||
Referencias bibliográficas
Böhme, G. y H. Böhme. 1996. Fuego, agua, tierra y aire: Una historia cultural de los elementos. Herder, Barcelona.
Cano Santana, Z. y R. León Rico. 1998. “Regeneración de la vegetación después de un incendio en una comunidad sucesional temprana de la Ciudad de México”, en Libro de resúmenes. P. Magaña (ed.), vii Congreso Latinoamericano de Botánica y xiv Congreso Latinoamericano de Botánica, Sociedad Botánica de México, México, D.F., p. 125.
conafor, Comisión Nacional Forestal. 2005. www.conafor.gob.mx.
Juárez Orozco, S. M. 2005. Efectos del fuego y la herbivoría sobre la biomasa aérea del estrato herbáceo de la Reserva del Pedregal de San Ángel. Tesis profesional, Facultad de Ciencias, unam.
Martínez Mateos, A. E. 2001. Regeneración natural después de un disturbio por fuego en dos microambientes contrastantes de la reserva ecológica El Pedregal de San Ángel. Tesis profesional, Facultad de Ciencias, unam.
Martínez Orea, Y. 2001. Efecto del fuego sobre el banco de semillas de la Reserva Ecológica del Pedregal de San Ángel. Tesis profesional, Facultad de Ciencias, unam.
Vivar-Evans, S., V. L. Barradas, M. E. Sánchez Coronado, A. Gamboa de Buen y A. Orozco Segovia. 2006. “Ecophysiology of seed germination of wild Dahlia coccinea (Asteraceae) in a spatially heterogeneous fire-prone habitat”, en Acta Oecologica, núm. 29, pp. 187-195.
Whelan, R. J. 1995. The ecology of fire. Cambridge University Press, Cambridge.
|
||
Sonia Juárez Orozco es bióloga por la Facultad de Ciencias, unam. Estudia ecología del fuego y los factores de riesgo de incendios en la República Mexicana. Cursa la Maestría en Geografía en el Instituto de Geografía, unam campus Morelia.
Zenón Cano Santana es biólogo y doctor en ecología por la unam. Actualmente es coordinador de la Unidad de Enseñanza de la Biología de la Facultad de Ciencias de la unam. Sus líneas de especialización son ecología de artrópodos terrestres, ecología de ecosistemas, ecología de la interacción planta-insecto y restauración ecológica de pedregales.
_______________________________________________________________
como citar este artículo → Juárez Orozco, Sonia y Cano Santana, Zenón. (2007). El cuarto elemento y los seres vivos: ecología del fuego. Ciencias 85, enero-marzo, 4-12. [En línea] |
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
imago | |||
El parque Virunga, hogar de los gorilas de montaña
|
|
||
Sabastiâo Salgado
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | ||
El parque nacional Virunga, en la República Democrática de Congo, el parque nacional del Gorila Mgahinga y el Bosque Impenetrable de Bwindi, en Uganda, forman, junto al parque nacional de los Volcanes, en Ruanda, un complejo comúnmente conocido como el parque Virunga, hogar de los únicos gorilas de montaña del mundo, los Gorilla gorilla beringei. Fue el primer parque nacional de África, creado en 1925 con el nombre de parque nacional Albert y con una superficie inicial de 809 000 hectáreas.
La región es célebre por sus numerosas montañas volcánicas. Los ocho volcanes del parque Virunga, con edades que oscilan entre 100 000 y 500 000 años y altitudes de hasta 4 500 metros, se erigen en barrera que cruza el brazo occidental del gran Valle del Rift. Dos de ellos permanecen todavía activos, ambos en la República Democrática del Congo. A principios de 2002, el Nyiragongo destruyó buena parte de la ciudad de Goma, a orillas del lago Kivi, y el Nyamulagira entró en erupción en mayo de 2004.
El gorila de la montaña es una de las mayores atracciones del parque. De la variedad más singular de las tres existentes, sólo quedan alrededor de 358 ejemplares en la zona de los volcanes. Similar cifra habita en el Bosque Impenetrable de Bwindi, lo que suma una población total de 700 individuos. El gorila es un simio de descomunal tamaño —los machos adultos pesan hasta 250 kilogramos—, pero de temperamento pacífico. Las familias formadas por jóvenes machos, hembras y sus crías siguen la pauta del macho dominante, que se caracteriza por su espalda plateada, tonalidad que adquieren al alcanzar la edad adulta. Los jóvenes gorilas de espalda plateada a menudo abandonan el grupo y llevan una vida solitaria hasta que consiguen atraer a hembras y formar su propia familia. Las hembras, por su parte, se trasladan a veces de un grupo a otro, aunque evitan la endogamia. Los gorilas son vegetarianos, y su dieta consiste en tallos de bambú, apio salvaje, cardos, ortigas, galio, vernonia y raíces. La fauna es todavía abundante en el parque, aunque ha ido reduciéndose sustancialmente durante la última década a causa de la presión de la cada vez mayor presencia humana en la zona ugandesa, superior incluso en Ruanda, con una densidad de más de 300 habitantes por kilómetro cuadrado. Además, una gran cantidad de refugiados ruandeses, de 1.5 a 2 millones, se ha ido desplazando al área congoleña del parque, antes Zaire, a raíz de los violentos enfrentamientos de 1994. Con todo, todavía pueden apreciarse muchas especies de la región. |
|||
Sabastiâo Salgado
Fotógrafo brasileño.
|
|||
Nota
El proyecto Génesis fue creado por Sabastiâo Salgado en 2004 y el fotógrafo estima culminarlo en 2011. Su objetivo es no sólo presentar la megadiversidad de la Tierra, sino invitar a la reflexión. Nacido de la preocupación de Sebastião Salgado por los diversos maltratos a los que está siendo sometida la naturaleza, éste muestra una serie de fragmentos del mundo que permanece aún inexplorado, intacto y virgen.
_______________________________________________________________
como citar este artículo → Salgado, Sebastiao. (2007). El parque Virunga, hogar de los gorilas de las montañas. Ciencias 85, enero-marzo, 62-63. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Helechos invasores y sucesión secundaria post-fuego |
Se analiza el problema de la invasión de Pteridium en la Península de Yucatán como resultado de una larga historia de disturbios, entre los que destacan el cambio de uso de suelo y la amplia utilización del fuego como herramienta agrícola. Se discuten algunos aspectos de la biología de este helecho, enfatizando su adaptación al fuego.
|
|
María del Rosario Ramírez Trejo, Blanca Pérez García y Alma D. Orozco Segovia
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
La introducción de especies invasoras, junto con la pérdida del hábitat, es una de las mayores amenazas para la biodiversidad. Se establecen fuera de su área de distribución normal y actúan como agentes de cambio, provocando la pérdida irrecuperable de especies y la degradación de los ecosistemas nativos. Normalmente, las invasiones biológicas se producen después de la presencia de disturbios, los cuales son parte de la dinámica de los ecosistemas; sin embargo, las actividades humanas modifican los regímenes de disturbio provocando importantes alteraciones en el sistema —por ejemplo, en la disponibilidad de recursos— y, frecuentemente, incrementando las oportunidades para la invasión por especies exóticas. El cambio de uso del suelo ha exacerbado los efectos negativos de las especies invasoras, al crear hábitats favorables para su establecimiento e invasión temporal o permanentemente en los ecosistemas nativos.
Después de perturbaciones antropogénicas de intensidad moderada, los bosques tropicales pueden recuperarse, pero si los disturbios son severos, como la compactación y pérdida de suelo o los incendios forestales de gran intensidad, producen condiciones que dificultan la regeneración de la vegetación y detienen los procesos de sucesión. Esos sitios suelen estar dominados por especies invasoras, como pastos y helechos, que compiten con las nativas por la humedad del suelo, los nutrimentos y la luz; en ocasiones, pueden excluirlas. El resultado es la formación de extensos tapetes monoespecíficos o comunidades empobrecidas desde el punto de vista florístico, las cuales ofrecen muy pocos recursos y atraen un limitado número de dispersores de semillas, lo que aumenta los obstáculos para el reestablecimiento de la flora nativa.
La península de Yucatán es una zona que desde tiempos prehistóricos está sujeta a todo tipo de disturbios, tanto naturales como humanos. La actual vegetación del área es el resultado de esa larga historia. Habitada desde hace más de 10 000 años, sustentó el desarrollo de la civilización maya y estuvo densamente poblada en el Periodo Clásico —entre los años 300 y 900 de nuestra era. Durante siglos, la península yucateca fue el escenario de diversas actividades económicas que promovieron un cambio sustancial en el uso del suelo. Por ejemplo, el sistema de roza, tumba y quema practicado por los mayas para preparar los suelos destinados a la agricultura, sufrió fuertes modificaciones durante las últimas décadas, principalmente por la reducción de los periodos de descanso de la tierra, los cuales pasaron de entre quince y veinte años a tan sólo de tres a cinco. Esto ocasionó que la recuperación de la fertilidad no fuera completamente adecuada y que disminuyeran las escasas áreas de vegetación en etapas de sucesión avanzada. Al requerirse más superficie incorporada al sistema, se produjo un aumento en los índices de deforestación y en los incendios forestales. Desde 1890 hasta finales de la segunda guerra mundial, la extracción del chicle representó una importante actividad económica para la Península. Con la estrepitosa caída de la demanda de este producto, la industria maderera se convirtió en la principal actividad forestal de la región. Mientras que el cultivo de caña de azúcar, primero, y el de henequén después, propiciaron una gran transformación en el uso del suelo. A mediados de los años setentas, ante el fracaso del cultivo de henequén, se abandonaron extensas áreas que ahora están en diversas etapas de regeneración. Esta ocupación continua tuvo un fuerte impacto en la vegetación de la península. Sin embargo, la mayor afectación ocurrió en los últimos veinte años, periodo en que el área fue impactada por el huracán Gilberto, en 1988 y por dos grandes incendios forestales, en 1989 y 1995, cuyos orígenes pueden atribuirse a las interacciones sinérgicas de las fluctuaciones climáticas y las actividades humanas. En las zonas tropicales, los incendios tienen una estrecha relación con la presencia de huracanes, los cuales, cuando pasan, derriban una gran cantidad de árboles y producen la defoliación y el resquebrajamiento de las copas. Con el tiempo, eso convierte en material combustible y al combinarse, por un lado, con la presencia de condiciones meteorológicas adversas, como sequía y fuertes vientos, y por el otro, con el amplio uso del fuego para actividades agropecuarias durante la temporada seca, se incrementa las probabilidad de que ocurran incendios forestales de considerable magnitud. En 2002, según el informe sobre la Situación del Medio Ambiente en México de semarnat, las actividades agropecuarias fueron responsables de 46% de los incendios forestales en México. En las últimas décadas, la frecuencia, escala e intensidad de los incendios han aumentado. Esta espiral ascendente de mayor biomasa quemándose en el trópico puede tener múltiples y severos impactos sobre la diversidad y las funciones ecológicas de los bosques. Entre los más preocupantes, la invasión de una flora oportunista, conformada principalmente por especies secundarias resistentes al fuego como las del género Pteridium, que además de crecer abundantemente después de quemas recurrentes, favorecen la ocurrencia de incendios por la gran cantidad de hojarasca que generan y por su alta flamabilidad, originando un círculo vicioso que podría continuar indefinidamente si se sigue utilizando el fuego de manera incontrolada. El género Pteridium Las especies de este género están consideradas entre las plantas invasoras más exitosas del mundo, se encuentran en los cinco continentes, tanto en zonas templadas como tropicales y desde el nivel del mar hasta altitudes que superan 3 000 metros. Afectan profundamente los ecosistemas intervenidos por la actividad humana y son especialmente propensas a invadir sitios talados, campos de cultivo, pastizales inducidos, parcelas abandonadas y, sobre todo, áreas afectadas por incendios. En México crecen tres especies de Pteridium, todas ampliamente distribuidas en el país: Pteridium aquilinum (L.) Kuhn, con tres variedades, var. latiusculum (Desv.) Underw. ex Heller; var. pubescens Underw. y var. feei (W. Shaffn. ex Fée) Maxon ex Yunck.; P. arachnoideum (Kaulf.) Maxon y P. caudatum (L.) Maxon, la última se encuentra en la península de Yucatán. La invasión de Pteridium representa un serio problema para la conservación y para los productores y administradores de recursos, pues retrasa la recuperación de la estructura y composición de los bosques y obstaculiza o, en el peor de los casos, imposibilita las labores agrícolas y forestales al obligar a los campesinos a abandonar sus tierras por la fuerte inversión inicial en mano de obra que requiere el abatimiento de la población de helechos, cuyos rizomas —tallos subterráneos— forman una densa red bajo el suelo que es extremadamente difícil de remover en su totalidad y prácticamente inmune a los herbicidas. Desafortunadamente, no se trata sólo de una maleza que crece profusamente, ahogando pastos y cultivos, también es una amenaza para los humanos, en la medida en que afecta su salud y la sus animales de cría. Al ser ingerido por el ganado produce afecciones graves como avitaminosis, parálisis mecánica, padecimientos hematológicos, ceguera permanente, hemorragias internas y cáncer. Existen crecientes evidencias de que algunos de sus efectos pueden transmitirse al ser humano por medio de la leche de animales expuestos al helecho. Se ha demostrado que la leche contiene un carcinógeno denominado ptaquilósido en cantidad suficiente para ser el causante o coadyuvante del muy alto índice de cáncer gástrico observado en algunas regiones de Venezuela y de Costa Rica, donde este helecho invade los potreros de producción láctea. En Gales, al oeste de Inglaterra, donde abundan las poblaciones de Pteridium, se ha observado una inusual incidencia de cáncer entre la población humana. Se han adelantado varias hipótesis, incluyendo la contaminación del agua de pozos por exudados de las raíces y rizomas del helecho, y la invasión de sus esporas en los acueductos de superficie, pero no se ha demostrado claramente ninguna relación. También en Japón, país en donde no sólo abundan los Pteridium sino que se comen los brotes tiernos como una delicadeza en ensaladas, se observa un índice muy elevado de cáncer gástrico y esofágico en relación con otros tipos de cáncer humano. ¿Qué los hace tan exitosos? El gran potencial competitivo de este helecho resulta de su amplia tolerancia al estrés y las perturbaciones ambientales, aspectos que responden, en gran medida, al producto de una exitosa combinación de características morfológicas y fisiológicas, entre las que destacan: 1) un sistema de rizomas o tallos subterráneos muy largo y longevo que se ramifica indefinidamente, confiriéndole una gran capacidad de invasión. Adicionalmente, estos órganos almacenan carbohidratos que pueden movilizarse rápidamente hacia las hojas y son los responsables de la abundante propagación vegetativa, por el gran número de yemas en estado latente que portan. Cada una, potencialmente puede formar nuevas hojas, especialmente después de quemas recurrentes; 2) una efectiva actividad alelopática y antidepredadora, resultante de la posesión de un amplio y poderoso arsenal químico de metabolitos secundarios, entre los que destacan las ecdisonas —un tipo de hormonas que promueven la muda o ecdisis en los insectos—, los sesquiterpenos, taninos, glucósidos cianogénicos, flavonoides y tiaminasa —una enzima que descompone la tiamina o vitamina B1; 3) un alto potencial reproductivo, cada planta produce cientos de millones de esporas microscópicas, transportadas grandes distancias por el viento, las cuales permanecen viables, es decir, capaces de germinar en la siguiente etapa favorable, después de la dispersión; y 4) un fenotipo —estructura o arquitectura— que le confiere ventajas sobre otras plantas, como por ejemplo su tamaño, que en ocasiones supera tres metros de altura, además de que poseen tallos rígidos y hojas muy grandes —de entre 1.5 y 3 metros—, amplias y sobrepuestas que privan de luz solar a las plantas subyacentes, debilitándolas o matándolas, al tiempo que impiden el establecimiento de otras especies colonizadoras. Todo ello hace de Pteridium una planta extremadamente competitiva, muy hábil para sobrevivir, sumamente prolífica y con una amplia plasticidad morfológica y fisiológica en su rango de distribución, características que la convierten en una de las malezas más difíciles de combatir por métodos mecánicos, biológicos e incluso químicos. Invasión de Pteridium en Yucatán Se desconoce si Pteridium constituyó un obstáculo para la agricultura y los sistemas de producción de los antiguos mayas y, más aún, si éstos realizaron algún tipo de control o manejo de dicha maleza. El registro fósil muestra una relación inversa entre la cantidad de esporas del helecho y los granos de polen de maíz en las tierras bajas de la región, lo cual probablemente indica que la abundancia de Pteridium estuvo restringida por la práctica de una agricultura intensiva. Sin embargo, esta misma línea de evidencia pone de manifiesto un incremento de las esporas de Pteridium hacia finales del Clásico Tardío, período en el que sobrevino el colapso de la civilización maya y la subsecuente desocupación masiva de esa zona. Existen varias interpretaciones de las causas de la invasión de este helecho en la península de Yucatán. Una teoría propone que este fenómeno está relacionado con el uso, en el largo plazo, de técnicas tradicionales de cultivo —por ejemplo, la agricultura itinerante de roza, tumba y quema combinada con reducidos ciclos de reposo—; otro punto de vista considera que las quemas que se escapan del control de los campesinos, y que se propagan en extensas áreas del paisaje, son las responsables de la existencia de manchones continuos de Pteridium. Una tercera teoría incorpora ambos aspectos y sugiere que la invasión de este helecho es un proceso complejo, donde están involucrados degradación ambiental, estrategias de uso del suelo y regímenes de fuego. Independientemente de las causas que originan o facilitan la expansión de esta pteridofita en el sureste mexicano, es un hecho que el problema va en aumento. Un estudio realizado en la región de Calakmul, al sur de la península, mostró que entre 1987 y 2001 se incrementó significativamente la densidad de Pteridium, tanto en el área protegida de la Reserva de la Biósfera, como en las tierras ejidales y privadas. Entre 1987 y 1997, el área invadida se cuadruplicó pasando de 19 a 92 kilómetros cuadrados. En esta zona, la distribución de Pteridium se caracteriza por una baja densidad poblacional en ejidos donde se realiza el cultivo intensivo de la milpa combinado con la producción comercial de chile en baja escala, mientras que las densidades más altas del helecho están asociadas con los ejidos de mayor antigüedad y extensión, donde predominan los proyectos agrícolas o ganaderos de gran escala. El mecanismo de invasión de Pteridium en comunidades sucesionales tempranas puede desarrollarse por dos vías: partiendo de esporas provenientes de la lluvia de propágulos —parte de una planta capaz de originar otro individuo—, siguiendo la vía sexual, también llamada gametofítica, o mediante la expansión lateral de rizomas de individuos localizados en áreas adyacentes previamente invadidas. Se asume que la mayor parte de las invasiones ocurren, principalmente, por el último mecanismo. ¿Por qué lo beneficia el fuego? Pteridium se considera bien adaptado al fuego en su rango de distribución. En los trópicos, muchos bosques son aclareados, usando el sistema de roza, tumba y quema. El material vegetal acumulado se deja secar y se quema justo antes del advenimiento de las primeras lluvias de verano. Consecuentemente, cuando la estación lluviosa comienza las condiciones existentes después del fuego son muy próximas a las ideales para la germinación de las esporas y el establecimiento de los jóvenes esporofitos o plántulas. El fuego crea un sustrato estéril, rico en nutrimentos y alcalino, lo cual favorece el desarrollo de los gametofitos —fase del ciclo vital de las plantas en la que se producen los gametos—, remueve temporalmente a los competidores y reduce la diversidad microbiótica; Pteridium rápidamente toma ventaja de estas condiciones y sus esporofitos pueden establecerse en un periodo muy corto, incluso en áreas donde no existía previamente. Por otro lado, la remoción y quema de la cobertura vegetal altera significativamente el microclima del suelo del bosque e incrementa la mineralización de la materia orgánica, resultando en una mayor disponibilidad de nutrimentos para Pteridium y otras especies herbáceas. La principal adaptación de las especies de Pteridium al fuego es el sistema de rizomas subterráneos que se encuentran usualmente a una profundidad de entre 10 y 50 centímetros; así permanecen aislados de las temperaturas letales producidas por un incendio en el horizonte mineral del suelo. Algunos estudios indican que en sitios incendiados Pteridium crece abundantemente partiendo de las yemas vegetativas del rizoma, las cuales producen hojas rápidamente, incluso antes de que los competidores se establezcan, confiriéndole ventaja en la subsecuente competencia ecológica. Por otro lado, las evidencias disponibles parecen indicar consistentemente que el establecimiento de Pteridium, partiendo de esporas, es un evento muy raro en situaciones naturales, pero en una gran variedad de hábitats intervenidos por los humanos, especialmente aquellos creados por la remoción y quema de la cobertura vegetal, la colonización vía esporas puede ser rápida y efectiva. Se sospecha que incluso la presencia de fuego podría ser un requerimiento para la germinación de las esporas. Una vez removida la competencia natural, estas plantas pueden completar su ciclo de vida exitosamente. Bajo esas condiciones cada espora que germine podría producir una invasión rápida en dos años. En los trópicos, donde las condiciones de temperatura y humedad son bastante estables, es probable que la liberación de esporas ocurra durante gran parte del año, por lo que una fuente constante de esporas estaría disponible para cualquier área potencialmente habitable. Las oportunidades para el establecimiento de Pteridium podrían incrementarse considerablemente si el suelo contuviera un reservorio de esporas viables con el potencial para germinar en cualquier época del año. La probabilidad de que Pteridium colonice nuevas áreas vía esporas tiene implicaciones importantes para el control de su establecimiento en sitios nuevos y para su reestablecimiento en áreas donde existía previamente. Más aún, la amplia existencia de bancos de esporas de Pteridium podría significar que las actividades diseñadas para erradicar este helecho promueven la colonización por nuevos individuos, al crear numerosas oportunidades para la germinación de las esporas y el establecimiento de los gametofitos después de cualquier forma de disturbio en el suelo, lo que promueve la renovación de la población y de su acervo genético. ¿Que se hace en México? Evidentemente la expansión de este helecho no es un problema exclusivo del sureste mexicano; su presencia en casi todo el planeta lo convierte en un problema de carácter global y en un tópico de investigación fundamental para muchos países. Si bien es cierto que se ha estudiado intensamente la ecología de este helecho en las zonas templadas, las investigaciones en los trópicos son escasas y algunos aspectos importantes, como la respuesta ecológica al fuego y su dinámica en áreas incendiadas, se han explorado poco en los trópicos americanos y prácticamente nada en México. En el país, recientemente se están realizando importantes esfuerzos para entender la biología de este helecho. Por ejemplo, en 1988 Suazo publicó un estudio sobre aspectos ecológicos de esta invasora en una selva húmeda de la región de Chajul, Chiapas. En Calakmul, al sur de la península de yucateca, Schneider evaluó en 2004 la distribución de Pteridium en relación con el uso del suelo. Desde ese año, en la región de la Chinantla, Edouard y sus colaboradores dirigen un programa experimental de restauración de áreas invadidas por P. aquilinum. Motivados por la fascinante biología de este helecho, y por la necesidad impostergable de lograr una mejor comprensión de los factores que promueven su establecimiento, persistencia y distribución en el trópico mexicano, el grupo de Biología de pteridofitas de la Universidad Autónoma Metropolitana Iztapalapa inició un proyecto de investigación en la Reserva Ecológica El Edén, ubicada al noreste de Quintana Roo, cuyo principal objetivo es evaluar las estrategias de regeneración post-fuego de esta pteridofita y el papel que juegan las esporas y las estructuras vegetativas en la sucesión secundaria. Esto permitirá generar información básica sobre el proceso de invasión y desarrollar, en el mediano y largo plazo, adecuadas estrategias de control encaminadas hacia la restauración funcional de las áreas invadidas por Pteridium en el norte de Quintana Roo y en el resto de la península de Yucatán. Consideramos que un programa efectivo de control o combate de especies invasoras como Pteridium amerita el desarrollo de esquemas específicos de manejo acordes con las características físicas, biológicas y sociales de cada zona, así como al grado de intervención antrópica. Por ello, es preciso entender que la expansión de especies vegetales invasoras como las pertenecientes al género Pteridium amenazan la integridad de algunos de los ecosistemas más diversos del planeta, como los bosques tropicales del sureste mexicano; por esa razón, debería asumirse como un tema de prioridad que exige acciones urgentes, así como una mayor participación y compromiso de las partes interesadas. Por otro lado, constituye un reto para los científicos dedicados al estudio de malezas e interesados en la conservación, así como una tarea impostergable para los gobiernos y administradores de recursos. |
||
María del Rosario Ramírez Trejo y
Blanca Pérez García Departamento de Biología, Universidad Autónoma Metropolitana-Iztapalapa. Alma D. Orozco Segovia Instituto de Ecología, Universidad Nacional Autónoma de México. |
||
Referencias bibliográficas
Aguilar, V. 2005. “Especies invasoras, una amenaza para la biodiversidad y el hombre”, en Biodiversitas, núm. 60, pp. 7-10.
Edouard, F., J. Jiménez y M. Cid. 2004. “Restauración de áreas invadidas por copetate en la región de la Chinantla, Oaxaca, México”, en Revista de Agroecología leisa, núm. 30, pp. 34-37.
Gómez Pompa, A., M. F. Allen, S. L. Fedick y J. J. Jiménez Osornio. 2003. The Lowland Maya Area. Three millenia at the human-wildland interface. The Haworth Press, Inc., Nueva York.
Mickel, J. T. y A. R. Smith. 2004. “The pteridophytes of Mexico”, en Memoirs of The New York Botanical Garden, núm. 88, pp. 529-533.
Rué, D. J. 1987. “Early agriculture and postclassic ocupation in western Honduras”, en Nature, núm. 326, pp. 285-286.
Schneider, L. C. 2004. Understanding Bracken Fern Invasion in the Southern Yucatán Peninsular Region through Integrated Land Change Science. Doctoral Dissertation, Graduate School of Geography. Clark University.
Suazo, I. 1988. Aspectos ecológicos de la especie invasora Pteridium aquilinum (L.) Kuhn en una selva húmeda de la región de Chajul, Chiapas, México. Universidad Michoacana de San Nicolás de Hidalgo, Morelia, Michoacán.
Turner, B., W. C. Clarck, W. Kates, J. F. Richards, J. T. Mathews, W. B. Meyer (eds.). 1990. The earth as transformed by human action: global and regional changes in the biosphere over the past 300 years. Cambridge University Press, Reino Unido.
|
||
Ma. del Rosario Ramírez Trejo es bióloga por la Universidad Autónoma Metropolitana y Maestra en Ciencias por la unam. Actualmente es becaria del conacyt y candidata a Doctora en Ciencias Biológicas por la uam. Ha publicado varios artículos científicos y de divulgación sobre pteridofitas.
Blanca Pérez-García es profesora-investigadora del Departamento de Biología en la Universidad Autónoma Metropolitana-Iztapalapa. Doctora en Ciencias por la Facultad de Ciencias de la unam. Miembro del Sistema Nacional de Investigadores.
Alma Orozco-Segovia es Investigadora del Instituto de Ecología de la unam. Doctora en Ciencias por la Facultad de Ciencias de la unam. Miembro del Sistema Nacional de Investigadores y de la Academia de la Investigación Científica.
_______________________________________________________________
como citar este artículo → Ramírez Trejo, María del Rosario, Blanca Pérez García y Orozco Segovia Alma D. (2007). Helechos invasores y sucesión secundaria post-fuego. Ciencias 85, enero-marzo, 18-25. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Hijo de Zague, ¿Zaguiño? |
Este texto presenta algunos análisis que contribuyen al debate en torno al concepto de la herencia. A partir de la lectura del libro El Sesgo Hereditario de Carlos López Beltrán, el autor desarrolla una serie de ideas acerca del origen de la teoría sobre la herencia.
|
|
Antonio Lazcano Araujo
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
“Las generaciones de los hombres”, escribió Homero en La Iliada, “son como las hojas de los árboles de un bosque. Unas caen para ser substituidas por otras que tomarán su lugar”. Lo mismo ocurre con los cantantes y la música que interpretan. Abrumados por la presencia metrosexual de Alejandro Fernández, se nos olvida que hace unos cuantos años era su padre, Vicente Fernández, el que se escuchaba en todas las estaciones de radio interpretando con energía La ley del monte, un auténtico himno al lamarckismo escrito por José A. Espinosa. “Grabé en la penca de un maguey tu nombre”, aullaba frenético Don Vicente, “unido al mío, entrelazados, como una prueba ante la ley de monte/que allí estuvimos enamorados”. Ah! Pero como se puede ver en Elmariachi.com, la ingrata no sólo olvida el amor jurado, sino que resulta ser una pérfida: aprovechando la oscuridad de la noche, sube al monte y corta la penca del maguey en un intento por borrar las huellas del pasado. La botánica predarwinista es la que rescata la memoria del amor perdido. Como cantaba Vicente Fernández, “no se si creas las extrañas cosas/que ven mis ojos, tal vez te asombres/las pencas nuevas que al maguey le brotan/vienen marcadas con nuestros nombres.”
¿Laboraron Mendel, Weissman y Morgan en vano? ¿Tenían razón Lamarck y Vicente Fernández, su heredero intelectual, cuando afirmaba que los rasgos que los organismos van adquiriendo a lo largo de su vida serán heredados a sus descendientes? Si los nombres grabados en las pencas de los magueyes se perpetúan a través del tiempo, ¿estaban predestinados Alejandro Fernández a seguir los pasos de su padre, Angélica Vale los de Angélica María y Raúl Vale, e Irene Joliot-Curie los de Pierre y Marie Curie, sus progenitores? Hijo de tigre, ¿pintito? Hijo de Zague, ¿Zaguiño?
¿Por qué nos parecemos (por lo general) a nuestros padres? ¿Por qué heredamos el lunar de la bisabuela, las orejas del tío materno o la calvicie prematura del padre? ¿Por qué reaparecen, luego de varias generaciones, rasgos y parecidos que creíamos perdidos en los vericuetos de las genealogías y los secretos familiares? Con una franqueza que parecía debilitar sus ideas sobre el papel de la selección natural, Charles Darwin se vio obligado a confesar en El Origen de las Especies, que “las leyes que rigen la herencia son, en su mayor parte, desconocidas. Nadie puede decir por qué la misma particularidad en diferentes organismos de la especie o en diferentes especies es unas veces heredada y otras no; no sabemos por qué muchas veces el niño, en ciertos caracteres, vuelve a su abuelo o a su abuela, o a un antepasado más remoto, por qué muchas veces una particularidad es transmitida de un sexo a los dos sexos, o a un sexo solamente y, en éste caso, más comúnmente, aunque no siempre, al mismo sexo”. No todos compartían las dudas que Darwin ventilaba abiertamente con tanto candor. Tan pronto como supo del embarazo de su nuera, la archiduquesa Sofía de Austria se apresuró a escribirle a su hijo, el emperador Francisco José, para prevenirlo sobre los riesgos a que se estaba exponiendo el trono de los Habsburgo por culpa de su mujer, la excéntrica emperatriz Sissi. En una carta enviada el 29 de junio de 1859 al Emperador, apenas unos meses antes de la publicación de El Origen de las Especies, la archiduquesa escribió: “Me parece que Sissi no debería pasar tantas horas con sus papagayos. Durante los primeros meses del embarazo resulta demasiado peligroso ver con insistencia determinados animales. Es mucho más conveniente que la Emperatriz se mire al espejo durante mucho tiempo, o que te contemple a ti. Que procurase hacerlo sería muy de mi agrado”. No importa la preocupación, a menudo violentada por el nacimiento de bastardos, por mantener la pureza de la sangre en las familias de la aristocracia, o la precisión de los nombres de linajes reales en el Directorio Nobiliario del Gotha (cuyos editores, me contó una vez la heredera de un título nobiliario, cobran una cuota anual en euros para tener actualizadas las ramas de los árboles genealógicos). La carta de la archiduquesa Sofía es un resumen espléndido de la ignorancia sobre las leyes de la herencia que predominaba en muchos sectores de la sociedad decimonónica. Lo más irónico, sin embargo, es que en los dominios de los Habsburgo, no muy lejos del asiento de la corte imperial de Viena, un monje llamado Gregor Mendel, neé Johann, llevaba más de cinco años cruzando chícharos y otras plantas en un intento por describir en términos cuantitativos los fenómenos de la herencia.
¿Quién era Mendel? La mayoría de los textos de biología suelen presentarlo como un monje con aficiones de jardinero que compensó la falta de inteligencia, inventiva y educación formal con una tenacidad de horticultor que le permitió resolver, por vez primera en la historia de la biología, los secretos de la genética y las leyes de la herencia gracias a los chícharos que se cultivaban en el monasterio de Brno por razones estéticas o culinarias. Nada más alejado de la realidad. Como lo demuestra el último libro de Carlos López Beltrán, el “sesgo hereditario” (para utilizar el título de la obra misma) ha dominado muchos aspectos de la vida intelectual y científica mucho tiempo antes de que la doble hélice del DNA se convirtiera en un icono de nuestros tiempos. Ello no significa, como se suele creer, que la genealogía de nuestras ideas sobre la herencia esté enraizada en la noche de los tiempos, o que haya comenzado a ser sistematizada desde las épocas de Aristóteles. Por el contrario, como afirma explícitamente López Beltrán en su libro, “a pesar de lo que algunas veces leemos en algunos libros de historia de la biología, no hay tal cosa como una teoría de la herencia biológica anterior al siglo XIX” y aclara, sin ánimo condenatorio pero con la firme intención de reducir los índices de los textos de genética, que “ni Aristóteles ni Hipócrates ni Harvey ni aun Buffon elaboraron teorías sobre ese fenómeno. Más adelante agrega, usando el plural mayestático, que “ni el concepto ni su dominio empírico de referencia ni propuesta teórica alguna se dio antes del trabajo constructivo que los posibilitó y que hemos intentado esbozar”. Lo que López Beltrán llama un esbozo es, en realidad, el libro en el que transformó los resultados del trabajo de investigación que le sirvió como tesis de doctorado en Inglaterra, y en donde es fácil advertir la influencia de autores como Frederick Churchill (cuyo espléndido análisis sobre la evolución de las teorías de transmisión hereditaria debería ser lectura casi obligatoria entre los biólogos) pero, sobre todo, el peso de los grandes nombres que contribuyeron a configurar la escuela francesa de la historia de las ideas. Aunque el diploma de doctorado de López Beltrán viene del muy inglés King’s College, es obvio que su libro creció no a la sombra del espíritu británico (always minding the gaps), sino bajo la tutela de las ideas de Bachelard, Cavailles, Koyré, Canguilhem y, por supuesto, Foucault. Hay detalles reveladores, como el uso inclemente de términos como “coagulación conceptual”, o la manera implacable en que nos asesta galicismos como “hereditarismo” o, pecado de lesa nomenclatura en un científico, al referirse al DNA como ADN (variante que les perdono a los franceses, como les perdono casi todo, pero no a un biólogo mexicano). Pero donde más se nota la influencia de la escuela francesa, sin embargo, es en su versión de la historia del concepto de la herencia, que hace girar en torno al examen social de su medicalización, una preferencia más o menos extraña en un biólogo. Para hacer cuajar su idea, Carlos López Beltrán adoptó el eclecticismo metodológico que vuelve tan atractiva la historia de las ideas: revisó libros y otras publicaciones científicas, se asomó a las biografías de investigadores, leyó hagiografías de héroes científicos, examinó diccionarios médicos y generales, vio de pasada los catálogos siempre indispensables de Carmen Castañeda, y leyó y analizó novelas (aunque menos de las que yo hubiera creído. Hubiera sido interesante ver la inclusión de novelas como La Maquina del Tiempo, de H. G. Wells, publicada en 1896, de Tarzán de los Monos, de Edgar Rice Burroughs, 1917 y Tess of the D’ Urbervilles, de Thomas Hardy, un autor emparentado con la mitad de la ecuación Hardy-Weinberg. Al igual que sus sinodales del King’s College, no dudo ni del esfuerzo hecho por López Beltrán, ni de la lucidez de su análisis, ni la precisión de su metodología—pero su conclusión central me sorprende, y me parece que se hubiera podido completar. Más allá de cualquier chauvinismo profesional, me hubiera gustado encontrarme en la larga lista de referencias y pies de página de su libro con el registro de la literatura producida por los naturalistas y los agrónomos de la época, así como por los criadores de animales (como lo hizo Darwin, por ejemplo, al citar una y otra vez a quienes se dedicaban a criar palomas). En lugar de hacerlo, López Beltrán se limitó a mencionar el trabajo de otros como Vatizlav Orel, que relata las tribulaciones de Nestler, y terminó omitiendo a Koelreuter, Gaertner y otros que han sido estudiados por historiadores de la ciencia como Olby. A pesar de la extrañeza que nos puede causar hoy en día, es fácil comprender el que criadores de plantas y animales supieran seleccionar diversos organismos sin tener ni una teoría de la herencia ni una idea de la selección natural. Por ejemplo, se pueden encontrar ejemplos de fenómenos donde hay replicación (o multiplicación) y genealogía (o, si se quiere, pedigree), pero no herencia (la lista de los nombres de los Papas o el fuego de las antorchas olímpicas son ejemplos de ello), y es posible que a Carlos López Beltrán le asista la razón en forma absoluta y que haya podido prescindir sin problema alguno del análisis de las ideas de los naturalistas —pero la ausencia de evidencia no es evidencia de ausencias. Hubiera sido interesante incluir y analizar las ideas de personajes como Cotton Mather, un inglés que desde los confines provincianos de Norteamérica aún nonata describió en 1716 el fenómeno de la dominancia al estudiar las plantas de maíz. ¿Tenía o no un concepto, aunque fuera rudimentario, de lo hereditario? Como trataré de explicar más adelante, me resulta difícil aceptar la conclusión de López Beltrán que fue sobre todo en la comunidad médica donde se definió inicialmente el fenómeno hereditario, y que la larga tradición de naturalistas, agrónomos y los que él llama hibridólogos no haya contribuido desde un principio al reconocimiento formal de éste concepto. Mi desconcierto no proviene de ningún intento de reivindicar a los biólogos y a los naturalistas desde la óptica de quien no es un historiador ni de las ideas ni de la ciencia, pero no deja de ser sorprendente la afirmación que se hace en la Introducción de El sesgo hereditario, en el sentido de que “la herencia biológica comenzó siendo herencia humana”. O, como escribe más adelante, que “el sustantivo francés heredité fue sin duda el primero en establecerse como un término científico con fuerza explicativa autónoma, impulsado por toda una generación de médicos de principios del siglo XIX, que decidió que ‘lo hereditario’ debía jugar un papel menos marginal en la comprensión del pasado y del presente en la humanidad, y por tanto también en la creación de su futuro. Las causas de ésta decisión son complejas, están enraizadas en los dramáticos cambios sociales de la Europa del periodo. Después de 1830, la herencia (heredité) ocupó un lugar preponderante en los escritos de la comunidad médica francesa hasta convertirse en el emblema de su nueva actitud, ambiciosa, postilustrada y postrevolucionaria”. Así, al amparo del King’s College, pero asomándose hacia la otra orilla del Canal de la Mancha para analizar las transformaciones radicales que sufrieron la práctica y la teoría médicas luego de la Revolución Francesa, López Beltrán escribe que “creo que la posibilidad de que existiera un campo de investigación científica que se concentrara en la transmisión de las características particulares y generales de los padres [yo hubiera usado el término “progenitores”] a los descendientes, a través de una ruta fisiológica es una de las cosas que le debemos casi por entero a las primeras décadas del siglo XIX francés”. Y añade que “dicha posibilidad no surgió espontáneamente; fue concebida en un medio intelectual en el que los fenómenos de la transmisión hereditaria en diferentes especies, y entre los humanos en particular, adquirieron una importancia que nunca habían tenido antes”. Como lo insinúa López Beltrán a lo largo de los primeros cuatro capítulos de su libro (y lo afirma con toda claridad Clara Pinto-Correia en su libro The Ovary of Eve) “era fácil usar la herencia como una arma letal en contra del preformacionismo”, si se intentaba explicar la presencia de rasgos de ambos progenitores. Ello, lo sabemos bien, desató un debate feroz y maniqueo sobre las contribuciones que uno y otro sexo hacían a los procesos hereditarios, una discusión importante que Carlos López Beltrán prefirió obviar por razones que no alcanzo a comprender. Es cierto que, como se afirma en El sesgo hereditario, para que la herencia fisiológica (es decir, biológica) se volviese una corriente hegemónica se requería el concurso y la coincidencia de diferentes grupos, entre los cuales, dice el autor, estaban los biólogos con formación médica. También es cierto que en ese momento las fronteras entre las diferentes disciplinas eran difusas, y que muchos transitaban sin dificultad de la medicina a la botánica y de ésta a la geología. Pero ¿y las otras tradiciones intelectuales atentas al fenómeno biológico, ajenas a las ciencias médicas y al estudio del hombre, que también existían y que venían de raíces distintas? Sorprende la ausencia casi absoluta de los puntos de vista de naturalistas porque, después de todo, Mendel no surgió por generación espontánea. Como recuerda López Beltrán en su libro, Vitezlav Orel ha documentado la forma en que en la década que comienza en 1830 la noción de herencia se detecta por primera vez en las discusiones entre los criadores de borregos sobre la capacidad de los sementales para transmitir características a sus descendientes. Creo en el azar, pero no en tantas casualidades. ¿Esa coincidencia en el tiempo resultó de la convergencia de ideas, o de vasos comunicantes cuya existencia se le escapó a López Beltrán? ¿O de una retroalimentación aún por describir entre los médicos a los que hace referencia López Beltrán y los agrónomos y naturalistas a los que no hace mención alguna? A pesar de lo que dicen libros de moda pero ridiculamente triviales como The Monk in the Garden, de Robin Marantz Hening, Mendel se incorporó a una comunidad religiosa empujado no por el llamado de los ángeles, sino por la pobreza familiar, que le impedía dedicarse al estudio de las ciencias. El monasterio de Brno representaba una alternativa espléndida para un joven campesino sin recursos. Cuando concluyó sus estudios de enseñanza media Mendel carecía de los medios necesarios para continuar con su educación por lo que, para poder ingresar a la universidad, escribió que “tenía que encontrar una forma de vida que me librara para siempre de la amarga lucha por la existencia”. En septiembre de 1843 Mendel fue aceptado como novicio en el monasterio de Santo Tomás de Brno, adoptando el nombre de Gregor. En el claustro, sin embargo, no se encontró con una atmósfera de recogimiento y meditación, sino con un pequeño observatorio astronómico, una magnífica biblioteca y un vivero dedicado a la investigación agrícola. El monasterio de Brno era un sitio peculiar. Poco después de que la huída del anciano príncipe de Metternich y la abdicación del emperador Fernando de Habsburgo llevaron al trono a su sobrino Francisco José, un grupo de monjes, entre los que se encontraba el propio Mendel, dirigió una larguísima carta a la Asamblea Imperial solicitando la extensión de los derechos civiles al interior de las órdenes monásticas y solicitando para la comunidad de Brno el permiso para dedicarse exclusivamente a la docencia y a la investigación científica. Luego de haber reprobado los exámenes de geología y de biología, lo que le impidió obtener el diploma que lo hubiera podido acreditar de manera permanente como profesor de enseñanza media, Mendel fue enviado en octubre de 1851 a la Universidad de Viena, en donde estudió bajo la dirección del célebre físico Christian Doopler y de Franz Unger, un fisiólogo vegetal que llevaba varios años trabajando en la obtención de nuevas variedades de plantas mediante la fertilización artificial (cuyo nombre también omite López Beltrán). Como escribe Viteslav Orel, Mendel estaba de suerte, porque muchos de los profesores de la Universidad de Viena creían no sólo en el estudio estadístico de la biología, sino también en la posibilidad de explicar los fenómenos físicos a partir de unas pocas leyes que describieran el comportamiento de partículas elementales. Aquí, de hecho, están parte de las raíces de lo que Carlos López Beltrán describe como “la ilusión con la que se inicia la genética en el siglo xx es que pronto se cerraría la búsqueda de la causa hereditaria, reduccionista y determinista (como las causas de la física), con la que los biólogos (y los demás) tendrían una teoría general de la vida basada en ella”. En realidad, tanto la ilusión como el optimismo reduccionista que se encierra tras ella eran mucho más antiguos. Es cierto, como escribió Michel Morange en 1998 en su libro La part des gènes, que en 1926 Hermann Muller escribió que “los genes son los átomos de los biólogos”. Sin embargo, como lo demuestra una rápida ojeada a la formación intelectual de Mendel, esta visión de la herencia tenía una larga genealogía cuyos atisbos ya se perfilan desde mediados de la segunda mitad del siglo XIX. La lectura del libro de López Beltrán permite desplazar a Mendel del sitial de padre fundador de la genética, para conducir su memoria a un sitio distinto pero igualmente meritorio. En todo caso, ni Mendel vivió mucho tiempo que digamos, ni pudo continuar dedicado al estudio de la biología. Tuvo mucho en contra, desde las obligaciones administrativas que le imponía su papel de abad pueblerino, hasta el desdén injusto y apenas disimulado con el que lo trataron déspotas como Karl von Nageli, un influyente naturalista de la Universidad de Munich, que le recomendó abandonar el estudio de la herencia. Por razones aún desconocidas, pocos días después de la muerte de Mendel su sucesor ordenó la destrucción de sus archivos. Sin embargo, entre los pocos documentos y libros que lograron sobrevivir se encuentra un ejemplar del Origen de las Especies y de otros libros de Darwin, en los que hay una gran cantidad de anotaciones manuscritas. Gracias al testimonio de uno de sus amigos, sabemos que Mendel “estaba muy interesado en las ideas evolutivas, y ciertamente no era un adversario de la teoría evolutiva —aunque afirmaba que algo seguía faltando”. Lo que faltaba era que Mendel aceptara el concepto de selección natural. Como han señalado Olby, Serre, Bowler y otros investigadores contemporáneos, lo que Mendel en realidad pretendía demostrar con sus experimentos era que especies nuevas podían surgir de híbridos estables. Darwin, por supuesto, no hubiera aceptado esta idea. Sabía de ella, pero no por Mendel, con quien nunca tuvo contacto alguno. Nunca hubo correspondencia entre Brno y Down, y el desinterés de Darwin en las separatas que supuestamente le envió Mendel no es más que un mito largamente acariciado. Es importante insistir, como lo hace Carlos López Beltrán, que la genética de Darwin era pre-mendeliana. Como escribió en 1930 Ronald A. Fisher, uno de los fundadores del neodarwinismo, las bases del mendelismo son tan obvias que cualquier pensador de la época victoriana las hubiera podido descubrir —pero no lo hicieron, y ello incluye al propio Charles Darwin, que cultivó chícharos en un intento por acercarse al estudio del problema de la herencia. Contrariamente a lo que afirma López Beltrán, Darwin no se contentó con acumular “durante décadas datos sobre la transmisión hereditaria, y en su hipótesis de la pangénesis trató de ‘salvar los fenómenos de la mejor manera posible para reafirmar los aspectos de la transmisión que le interesaban”. A muchos se les olvida que Darwin era también un excelente experimentalista, y es una pena que se haya pasado por alto la espléndida introducción que Richard Dawkins escribió para una reedición de El origen del hombre de Darwin publicada en 2002, en donde reprodujo parte de una carta que Darwin envió a Wallace en Febrero de 1866. La misiva es espléndida: Mi querido Wallace, me parece que no entiendes a lo que me refiero cuando hablo de que ciertas variedades no se mezclan entre sí. Mi comentario no tiene nada que ver con la fertilidad, y un ejemplo lo puede explicar. He cruzado entre sí plantas de chícharos de las variedades Painted Lady y Purple, que presentan coloraciones muy diferentes, y he obtenido, incluso en la misma vaina, chícharos de ambas variedades pero ninguno intermedio. Me parece que algo similar debe estar ocurriendo con tus mariposas y con las tres formas de Lythrum que mencionas. Aunque estos casos parecen sorprendentes, en realidad se trata del mismo fenómeno que hace que cada hembra en el mundo produzca descendencia tanto masculina como femenina. Con mi afecto más sincero, Ch. Darwin Pocos años más tarde, y al amparo de la escuela literaria del naturalismo, la genética (acompañada de la predestinación poética a las patologías) comenzó a llenar las páginas de cuentos y novelas. Como escribió en 1871 Emile Zolá, al describir los vicios de Naná, “al igual que la gravitación, la herencia está regida por sus propias leyes”. Es una pena que Carlos López Beltrán, que de biólogo, poeta y filósofo tiene de todo un poco, haya dejado pendiente el examen de la literatura mexicana que por esas épocas comenzó a tener preocupaciones equivalentes en las novelas de Ignacio Manuel Altamirano y en los textos de Justo Sierra, y que años más tarde encontrarían cabida en la obra de Federico Gamboa, Mariano Azuela, y otros más. Como el mismo López Beltrán escribe, la historia de cómo llegó para quedarse en la comunidad de médicos y naturalistas mexicanos la visión francesa de la herencia aún está por investigarse. Estoy cierto que ello es, más que una veta prometedora, una mina riquísima que todavía no ha sido explorada. En realidad, la segunda parte de El sesgo hereditario debe ser vista como el preámbulo a trabajos aún por llevar a cabo. El apresuramiento con el que Carlos López Beltrán concluyó su libro es un reflejo de la riqueza del tema y la complejidad del problema. Me hubiera gustado ver, aunque fuera como pie de página en el capítulo en donde escribe sobre la genética y la medicina en México, alguna mención a los empeños de biólogos como Herrera, Ochoterena y otros más, que al margen de sus posibles predecesores médicos (si es que los tuvieron), inauguraron una disciplina nueva. Llaman la atención los buenos augurios con los que se inauguró en México el siglo XX: en 1904 Don Alfonso L. Herrera publicó su libro Nociones de biología, pensado como lectura para los estudiantes de la Normal Superior, en donde incluyó una pequeña sección en la que se mencionan las leyes de Mendel. Una lectura de la obra de Herrera que se detuviera en este libro (en cuyas páginas coexisten pacíficamente el mendelismo con el darwinismo de principios del siglo XX) parecería sugerir que Herrera no le concedió mucha importancia a la nueva genética. Sin embargo, basta leer el texto que Herrera publicó en 1931 en La medicina argentina, titulado “Continúan los ataques a los misterios de la vida, imitación de las figuras mitósicas o de la división celular” o, mejor aún, echar una ojeada a los boletines de Plasmogenia que editaba desde la azotea de su casa en Santa María la Ribera, y observar sus empeños por simular la síntesis de centriolos y husos cromáticos para percibir la forma en que reconoció la importancia de la genética en el contexto de una teoría abiertamente darwinista. Sobreviven algunas evidencias de la correspondencia que Hugo de Vries, el mal llamado “redescubridor” de Mendelman, tenía con Herrera, y basta acercarse a la esquina de Balderas y Artículo 123, a pocas calles de la Alameda de la Ciudad de México, para descubrir en la arquitectura ecléctica de lo que alguna vez fue el Instituto de Biología General y Médica de la Dirección de Estudios Biológicos, los centriolos, husos mitóticas y cromosomas que Don Alfonso hizo esculpir en la fachada para mostrar a los ojos de una ciudad turbulenta los misterios de la reproducción celular y la danza de los cromosomas. Esta parte de la historia de la biología mexicana está aún por estudiarse, y espero que El sesgo hereditario ayude a ello. Menciono rápidamente los textos de S. D. Montejo, la Teoría de Mendel sobre la herencia, que publicó en revistas y periódicos mexicanos, los empeños de 1916 de Isaac Ochoterena para describir La carioquinesis vegetativa en las plantas mexicanas, o sus comentarios a la teoría de la mutación de De Vries, que el mismo Ochoterena tradujo, publicó y comentó bajo los auspicios de Herrera para la incipiente comunidad de científicos mexicanos. Las preguntas que pueden surgir incluyen los aspectos políticos e ideológicos que López Beltrán menciona de pasada en su libro. Enlisto, en aras de la brevedad, sólo algunos de ellos. En 1976 Oparin me regaló copias de los trabajos en los que Vavilov reportaba los resultados de su visita a México, en donde estudió el origen de plantas cultivadas. Los textos, que incluyen imágenes espléndidas que evocan la películas de Einsenstein, no sólo son un recordatorio no estudiado de la recepción apoteósica que biólogos y agrónomos de Chapingo le hicieron a Vavilov cuando le otorgaron la Medalla de Oro de la Sociedad Mexicana de Agricultura, sino también del silencio ominoso que guardaron cuando fue empujado por Lysenko a las mazmorras de Stalin. No está por demás evocar el ambiente político y científico insinuado por otros libros por ahora sólo disponibles en las librerías de viejo, como las ediciones de Prenant que publicaba la Universidad Obrera de México al amparo del oportunismo político de Vicente Lombardo Toledano, los Problemas biológicos: ensayos de interpretación dialéctica materialista, que Enrique Beltrán publicó en 1945, el volumen titulado La genética en la urss, de Alan G. Morton, traducido y prologado en 1953 por Alfredo Barrera, Narciso Bassols Batalla y Rafael Martín del Campo, o las sorprendentes declaraciones prosoviéticas (y poco informadas) de Don Isaac Ochoterana, que en un ciclo de conferencias sobre “Genética y Herencia” que impartió en el Colegio Nacional al afirmar que “las investigaciones sobre genética en la urss tienen tal fuerza y conducen a resultados tan definitivos, que tarde o temprano convencerán a los escépticos y acabarán modificando en grado mayor o menor el panorama de la doctrina biológica”. Ningún libro nace sin errores y omisiones, y el de Carlos López Beltrán no es la excepción. No importa. Concentrémonos en sus méritos fundamentales, y en el reconocimiento de que su publicación viene a aumentar la exigua colección de textos dedicados a examinar la historia de las ideas científicas en nuestro país. Ello no es un mérito menor en un ambiente enrarecido por el desdén con el que muchos intentan disfrazar en los medios la distancia casi analfabeta que los separa de la cultura científica. Reconocer las limitaciones del volumen de López Beltrán no impide ver su valor para contribuir a la comprensión de la cascada de descubrimientos y aplicaciones tecnológicas que provienen de la biología molecular y que están cambiando precipitadamente la relación de las estructuras legales, éticas y económicas en las sociedades contemporáneas con las ciencias de la vida. Enfrentemos los chícharos del monje a las declaraciones no por piadosas menos desinformadas del Episcopado mexicano, al rechazo igualmente ridículo que los diputados del pan le oponen a la clonación, o a la incomprensible negativa de los militantes locales de Greenpeace a la ingeniería genética. El desarrollo de la medicina genómica, la clonación de ovejas y otros animales, los experimentos con células madres y con organismos genéticamente modificados, la terapias génicas, la expansión experimental del código genético, y la posibilidad de sintetizar vida, así los veamos a distancia, son una demostración cotidiana de la necesidad de abrir con urgencia nuevas áreas de reflexión y discusión que la sociedad mexicana ha ignorado hasta ahora. Nos guste o no, estamos transitando con rapidez del código genético al código civil. El debate intelectual en México se ha ido restringiendo a unas cuantas voces cada vez menos informadas de lo que ocurre en disciplinas científicas. El mérito fundamental del libro de Carlos López Beltrán, estoy seguro, es el de enriquecer los puntos de partida para reflexiones más informadas que abran debates y discusiones hasta ahora inéditas. |
||
Antonio Lazcano Araujo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Nota
Texto leído durante la presentación del libro El sesgo hereditario de Carlos López Beltrán, unam, México, 2004.
|
||
Antonio Lazcano Araujo es biólogo egresado de la Facultad de Ciencias de la unam, donde también obtuvo el grado de Doctor en Ciencias. Es Profesor Titular C de tiempo completo y ha publicado en libros y revistas científicas internacionales más de un centenar de trabajos de investigación sobre el origen y la evolución temprana de la vida.
_______________________________________________________________
como citar este artículo → Lazcano Araujo, Antonio. (2007). Hijo de Zague, ¿Zaguiño? Ciencias 85, enero-marzo, 52-61. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Homeopatía: mitos y realidades |
Se hace un recuento histórico del origen, desarrollo y estado actual de la práctica médica de la homeopatía. Se expone la biografía de Samuel Hahnemann, creador de la homeopatía, y se ubican sus propuestas en su contexto histórico y social. Se discuten los debates modernos en torno a la efectividad de los tratamientos homeopáticos y de sus posibles mecanismos causales.
|
|
Pedro Miramontes
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
El colapso del bloque soviético en 1990 permitió la aparición de un poder mundial unipolar sin contrapesos. La supremacía que impusieron los Estados Unidos de América sobre el resto del mundo es incontestable desde el punto de vista militar e ideológico y ha conducido a la humanidad, por las buenas o por las malas, hacia una globalización homogeneizante —lo cual no quiere decir que los pueblos de la Tierra tomen lo mejor los unos de los otros para enriquecer su acervo cultural—, más bien significa la forzosa aceptación de los estándares y valores estadounidenses. Esto se puede constatar todos los días en los medios electrónicos; la música, los deportes y el entretenimiento son importados del Norte. Un ejemplo claro es la exagerada exaltación de la vida sana. Esta pasión no tendría nada de malo si no fuera porque es promovida —casi impuesta— por compañías que logran pingües ganancias con la venta de bienes de consumo que la mayor parte de las veces representan un engaño total: maquinitas o remedios para lograr una figura perfecta, un desempeño sexual extraordinario o bien curas para todos los males, incluida la mala suerte o el mal de amores. Como el liberalismo económico y sus agentes políticos no entienden de ética o de moral y su única finalidad es la ganancia inmediata, no es de extrañar que sea el mismo sistema el que, hipócritamente, provoca los transtornos que después pretende remediar. Por ejemplo, la comida chatarra es el origen de muchos de los males, como la hipertensión, hipercolesterolemia y la obesidad, que después las medicinas chatarra pretenden curar.
En la actual comercialización de la salud se encuentran métodos y técnicas tanto emergentes como tradicionales. El torbellino con el que nos atosigan los medios incluye la medicina biomagnética, la iridología, la cirugía psíquica, la alfabiótica, la aromaterapia y muchas otras. Valdría la pena discutir cada caso y ponerlos, de uno por uno, en su lugar, pero este ensayo está dedicado a otros fines; aquí hablaremos de una teoría médica que tuvo una legítima razón de ser en sus orígenes pero que hoy es cuestionada. Sin embargo, su génesis, historia y filosofía, así como su importancia económica y la amplia aceptación que tiene en algunos estratos de la población hace que valga la pena ponerla en la lente de una discusión desapasionada. Me refiero a la homeopatía. La medicina en el siglo XIX Pese al esfuerzo racionalista del enciclopedismo francés de finales del siglo XVIII, hasta bien entrado el XIX la medicina se manejó como un oficio más cercano a la brujería que a una actividad científica. En la segunda mitad de ese siglo, científicos de la talla de Louis Pasteur, Claude Bernard y otros, sentaron las bases para su estudio sistemático y contribuyeron para que la disciplina de Hipócrates y Galeno empezara a liberarse del lastre, que cargó durante siglos, de prácticas empíricas sin sustento en otra cosa que no fueran mitos y fábulas.
Al inicio del siglo XIX todavía se encontraba vigente y muy en boga la teoría médica del equilibrio de los humores fundamentales. Originada en algún sitio del Peloponeso alrededor del siglo vi antes de nuestra era, se basaba en el supuesto de que los humores eran cuatro líquidos fundamentales del cuerpo humano: sangre, bilis negra, flema y bilis amarilla. El desequilibrio de su balance era la causa de las enfermedades, de los rasgos de la personalidad y del comportamiento social. La cosmovisión de la época incluso iba más lejos: los cuatro humores tenían su contraparte en otros aspectos de la naturaleza y todo formaba un cuadro coherente y completo. Por ejemplo, la sangre se asociaba con la primavera, el aire, el hígado, el comportamiento valiente y amoroso, y tenía la salamandra como tótem. Análogamente, los dominados por la bilis negra son insomnes y abatidos —la palabra atrabiliario proviene del latín atra bilis que significa bilis negra, melancolía también quiere decir lo mismo pero por la ruta del griego melas, negro, y jolé, bilis. Los individuos con exceso de bilis amarilla serían coléricos e intolerantes y, por último, los flemáticos se caracterizan por la desidia y la falta de emociones. Curiosamente, lo que hoy llamamos humor —el sentido humano de percepción de la diversión y la propensión a la risa— proviene de la clasificación hipocrática; eran los individuos sanguíneos los que tenían mejor humor.
En estricta consecuencia con estas ideas, la práctica médica de la época intentaba mantener el equilibrio de los humores mediante métodos que en nuestro tiempo bondadosamente podríamos calificar como ligeramente brutales. Las sangrías —fueran mediante lanceta o con sanguijuelas— eran prescritas con frecuencia cuando se pensaba que el desequilibrio era causado por el exceso de sangre, también eran prescritos según fuera el caso el uso de potentes eméticos —sustancias que provocan el vómito—, lavativas, enemas o emplastos altamente tóxicos de compuestos de mercurio o cromo. Si bien estos métodos se han abandonado casi totalmente, en su época podían constituir buenas soluciones por malas razones. Por ejemplo, en casos de hipertensión o de policeturia, los pacientes sometidos a sangrías podían tener una notable mejora sintomática que no se debía al equilibrio de los humores sino al efecto mecánico del sangrado o a la consecuente disminución de eritrocitos en la sangre.
Para terminar de iluminar la escena de la medicina de finales del siglo XVIII y principios del XIX, hay que tomar en cuenta que la mayoría de la población ni siquiera tenía acceso a estos horrores. Las grandes masas, con suerte, tenían que recurrir a barberos que ejercían su oficio y, simultáneamente, el papel de cirujanos o dentistas. Allí, entra en la historia el joven Samuel Hahnemann cuando ingresa en la universidad de Leipzig con el noble ánimo de estudiar medicina para aliviar el dolor de la gente. Similia similibus curentur Hahnemann nació en 1755, en el seno de una familia modesta de artesanos de la porcelana, en la ciudad sajona de Meissen. Trevor Cook, uno de sus más reputados biógrafos, afirma que “de niño, mostraba una notable aptitud para el estudio, destacando tanto en ciencia como en lenguas extranjeras. Hablaba fluidamente inglés, francés, griego y latín”. En 1775 se matriculó en la escuela de medicina de la Universidad de Leipzig, misma que abandonó rápidamente pues sus instalaciones no le parecieron satisfactorias. De ahí pasó a la Universidad de Viena, donde su estancia también fue breve —nueve meses— pues no pudo sostenerse económicamente. Gracias a la recomendación de un profesor que le tomó aprecio en la capital austriaca, consiguió un trabajo como médico y bibliotecario de un poderoso e influyente funcionario público en Hermannstadt —lo que ahora es Sibiu, Rumania. En este lapso tuvo tiempo y tranquilidad para dedicarse al estudio autodidacta en la bien provista biblioteca del funcionario, lo cual rindió frutos dos años después cuando luego de cursar un semestre en la Universidad de Erlangen, en 1779 solicitó directamente el examen para obtener el título de médico presentando la tesis Conspectus adfectuum spasmodicorum aetiologicus et therapeuticus —algo así como “Observación acerca de las causas y tratamiento de los calambres”.
A partir de ese momento, no se sabe mucho de su vida —salvo que en 1782 contrajo matrimonio— hasta 1784 cuando se muda a la ciudad de Dresden. En este periodo —en el contexto de una medicina que normalmente agregaba a los males del paciente los derivados de sus métodos y técnicas— Hahnemann se siente horrorizado de la práctica médica, abandona la medicina y se labra una buena reputación como traductor de textos científicos.
Ocupado en esta labor, en 1790 cae en sus manos el libro Materia Medica de William Cullen y mientras lo traduce, Hahnemann aprende que el autor recomienda la quinina como un remedio contra la malaria. Poco convencido de las razones que expone Cullen, decide experimentar en su persona y someterse a pequeñas dosis de quinina durante periodos largos, lo que le produce fiebres intermitentes, que son síntoma de la malaria, y le sugiere el principio médico de similia similibus curentur —los semejantes curan a los semejantes. Después de años de intensa actividad de recopilación y experimentación, en 1796 publica el Ensayo sobre un nuevo principio y regresa a la práctica de la medicina. En esta obra consolida su estudio sobre la quinina y lo extiende a muchas otras plantas y compuestos minerales. En 1804 se establece en la ciudad de Torgau sobre el río Elba —la cual ganó fama en la segunda guerra mundial pues ahí se encontraron por vez primera los ejércitos soviético y estadounidense cuando cerraban la pinza sobre lo que quedaba del Tercer Reich. En esta población reside siete años, lo que es todo un récord personal tomando en cuenta que los doce anteriores se mudó de ciudad catorce veces. Se puede decir que Torgau es la cuna de la homeopatía. Allí publica Fragmenta de viribus, seguido de la Medicina de la experiencia y posteriormente, lo que se considera su opera magna, El Organon. En 1812 regresa a Leipzig y consigue un puesto de profesor en la universidad local. Desde esa posición inicia la propagación de su teoría de que lo semejante cura lo semejante. Esto es, si uno padece de fiebre, entonces el remedio es tomar en dosis pequeñas la misma sustancia que la produce o si se presenta una alergia, pues entonces habrá que tomar una sustancia que la produzca —siempre en dosis pequeñas. Al principio, sus cursos tuvieron un gran éxito, pero Hahnemann acompañaba la exposición de su sistema médico con ataques cada vez más virulentos contra el establishment médico, lo que le restó la confianza de sus colegas y después, la popularidad entre los estudiantes. Con el tiempo llegó al extremo de tener un grupo de sólo cinco estudiantes y quedó en una posición muy frágil ante los ataques de sus colegas que, a la larga, lo obligaron a abandonar Lepzig. Entonces, tuvo la suerte de encontrar el mecenazgo del duque Ferdinando de Anhalt-Cöthen —la misma corte ducal que cien años atrás acogió a Johann Sebastián Bach—, quien esencialmente le permitió hacer en la ciudad de Cöthen lo que le viniera en gana, que en su caso consistía en preparar sus propias medicinas y realizar sus experimentos con tranquilidad. En 1830 fallece su esposa y cuatro años más tarde se casa con Melanie d’Hervilly, una joven francesa cuarenta años menor que él. Por este matrimonio se cambia una vez más de ciudad, la última. Se establece en París donde continúa su trabajo hasta que la muerte lo alcanza en 1843. Una lágrima en el mar ¿En qué consiste exactamente el método homeopático de Hahnemann? La homeopatía es una doctrina producto de una intensa y prolongada reflexión y sus postulados son claros: 1) ley de la similitud; 2) experimentación pura; 3) reglas de curación; y 4) dosis infinitesimal y medicamento único. El primer punto afirma que en la naturaleza no existe nada que pueda dañar y que, a la vez, no pueda curar, pero exclusivamente aquello que la misma sustancia causó. La experimentación pura señala la imposibilidad de determinar con certeza, a priori, el efecto de un medicamento sobre una persona enferma. Puesto que se administran los semejantes, es imposible saber cuáles son los efectos o síntomas de la enfermedad y cuáles los del medicamento. En consecuencia, el método de experimentación homeopática tiene que realizarse exclusivamente en individuos sanos. Las reglas de curación se refieren al tratamiento de las enfermedades siguiendo órdenes temporales y espaciales perfectamente bien especificados. La primera regla dice que la curación se produce de adentro hacia afuera, donde adentro quiere decir el plano mental y afuera las mucosas y la piel. Por ejemplo, si a un paciente se le somete a tratamiento por depresión y mejora, pero como consecuencia le surge una dermatitis, entonces esto es una clara indicación de que la curación va por buen camino, pues el nuevo mal es más externo que el primero y esta dolencia se debe respetar si no se desea una regresión al cuadro anterior. Las demás reglas, son cuatro en total, son semejantes y hablan de curar de arriba hacia abajo y del orden temporal en el que van apareciendo las enfermedades. El cuarto rubro —dosis infinitesimal y medicamento único— es el núcleo de la medicina homeopática y quizá el más difundido y el peor entendido. Se parte del supuesto, como lo dice la ley de la similitud, de que no hay sustancias inertes en la naturaleza. Pero para que alcancen el grado necesario para actuar sobre el organismo, tienen que ser sometidas a una preparación física especial. En la práctica homeopática se emplean únicamente sustancias después de ser dinamizadas, sistema de diluciones sucesivas que es el fundamento de la preparación de los remedios homeopáticos. Se toma una parte del compuesto esencial, que puede ser mineral, vegetal o animal, y se diluye en agua o en alcohol —cuando la sustancia es insoluble, se muele finamente y se mezcla con lactosa para su dilución—, se emplea la letra x, el número diez en romano, para representar la dilución a la que se llega después de mezclar una parte del original en nueve de agua. Este proceso puede repetirse varias veces. Una dilución 6x quiere decir que se realizó el proceso seis veces y que consecuentemente queda una parte del material original entre un millón de partes de la dilución final, una dilución 30x quiere decir que la parte original es una entre uno seguido de treinta ceros. Análogamente, se emplean los numerales romanos c y m para representar las diluciones 1:100 y 1:1 000. La segunda parte del proceso de dinamización de los remedios homeopáticos es la sucusión o la manera como se agita la mezcla después de cada paso de dilución. Tiene que agitarse vigorosamente golpeando el recipiente con la mano o con una pieza de cuero, y con un mínimo de cien enérgicas agitaciones por minuto —hoy, este paso se hace mecánicamente. Una vez completado el proceso puede hablarse de, por ejemplo, la primera dinamización centesimal (1c) o de la sexta dinamización decimal (6x) y así sucesivamente. Con el líquido resultante se impregnan unos glóbulos de azúcar y es ésta la presentación que recibe el paciente. Hahnemann recomendaba y empleaba diluciones de 6x o de 24x y eso fue la norma durante mucho tiempo, hasta comienzos del siglo xx cuando James Tyler Kent, un médico estadounidense que pasó de la medicina académica a la homeopática y que tuvo gran influencia en el crecimiento de la homeopatía en su país y en Inglaterra, emprendió una cruzada en favor de diluciones más altas y, dependiendo de la enfermedad, recomendaba con pasión, y en ocasiones con enojo y desdén hacia los médicos homeópatas que no seguían sus pasos, las diluciones 30c, 200c, 1m, 50m, cm, dm y mm. La estructura molecular de la materia Los filósofos materialistas griegos Leucipo de Mileto y su discípulo Demócrito de Abdera, así como el romano Tito Lucrecio Caro, sugirieron que la materia estaba compuesta por átomos: pequeñísimas partículas cuyas características físicas determinarían las propiedades macroscópicas de los objetos de nuestro mundo. El cristianismo temprano reprimió estas concepciones pues complicaba terriblemente las explicaciones sobre la composición del alma y el espíritu, conceptos centrales para la cosmogonía cristiana. Después de siglos, en el xviii Rudjer Josip Boscovich, un jesuita croata estudioso de la astronomía y la física, enunció una teoría atómica coherente. Boscovich falleció en 1787, diez años después del nacimiento del inglés John Dalton, quien reunió evidencias incontestables en favor de que la materia se encuentra conformada por átomos, de manera que un tipo de átomo corresponde a un elemento y sus combinaciones dan lugar a los compuestos que forman las sustancias que encontramos alrededor nuestro. Aun así, durante algún tiempo hubo confusión entre lo que son los átomos y lo que son las moléculas. El último concepto lo propuso por primera vez Amedeo Avogadro, quien alrededor de 1811 mostró que cada litro de gas a 20 grados centígrados y una atmósfera de presión contiene una cantidad enorme de moléculas —un diez seguido de 22 ceros. Aunque nos parezca natural pensar en átomos y moléculas pues así fuimos educados desde pequeños, la idea de que la materia está formada por los átomos y sus combinaciones que son las moléculas fue confrontada hasta inicios del siglo XX. Uno de los representantes más conspicuos de esa resistencia fue Ernst Mach, físico y filósofo austriaco asociado con la escuela del positivismo. La cuestión de la estructura de la materia quedó resuelta con los trabajos de Albert Einstein en 1905 y de Jean Perrin en 1911. Así, la materia se forma de moléculas que son entes discretos muy pequeños pero que tienen una individualidad espacial única y se caracterizan por tener dimensiones físicas determinadas. Por ejemplo, una molécula de azúcar (glucosa) mide aproximadamente un nanómetro, que es la milmillonésima parte de un metro. Hagamos un ejercicio aritmético: veinte gotas de líquido hacen un mililitro —un centímetro cúbico—, por lo tanto, tenemos 20 millones de gotas por metro cúbico. Por otra parte, si la molécula de glucosa mide un nanómetro, entonces —como los volúmenes van como el cubo de las dimensiones lineales— hay un número igual a un diez seguido de veinte ceros de moléculas en una gota. Si esta gota la sometemos a una dilución homeopática de 30x, entonces hace falta un volumen igual que un diez con treinta y nueve ceros de gotas para encontrar una molécula. Prosiguiendo el ejercicio, llegamos al resultado de que tal cantidad de gotas ocupan un volumen igual al de una esfera de diez millones de kilómetros de radio. Resumiendo, después de una dilución 30x —muy baja para los gustos de Tyler Kent— existe una molécula del compuesto original en una esfera que tiene un radio semejante a la distancia del Sol a Venus, si de ahí sacamos una gota para mojar nuestros chochitos de azúcar, es absolutamente seguro que no habrá ninguna molécula del compuesto original. Entonces, si no queda una sola molécula de la sustancia original en mis chochitos de azúcar, ¿qué es lo que cura de la homeopatía, si es que cura? La memoria del agua Una vez aceptada la naturaleza molecular de la materia —lo cual Hahnemann nunca conoció— esta pregunta queda abierta y es polémica. Tenemos a teóricos de la homeopatía clásica, como el contemporáneo inglés Peter Morrell, que afirman que la homeopatía se basa en un agente llamado dynamis o fuerza vital. Según Morrell, esta fuerza es la hipótesis de trabajo con la cual se explica cómo una sustancia potenciada —que no es del mundo físico— entra en contacto con la estructura física de un organismo y altera su estado. En sus palabras: “Podemos definir la fuerza vital como una nada. Una entidad invisible e intangible que manipula la sustancia del cuerpo y produce el fenómeno que llamamos vida. La fuerza vital es la fuerza motriz y la organizadora de las moléculas. Es aquel agente que se encuentra en un organismo vivo y claramente ausente en un cadáver. En la muerte, las moléculas pierden su organización y velocidad de movimiento. Ya se encuentra ausente la fuerza que las obliga a moverse en patrones con significado o que las une en una matriz armónica y bien coordinada. El cadáver carece de percepción o voluntad aunque todavía posee una bioquímica estacionaria bastante sofisticada”. Yo supongo que todo lector de la revista Ciencias levantará las cejas y emitirá alguna interjección más o menos altisonante ante esta perla de estulticia. Desafortunadamente, más para mal que para bien, esta es la esencia de la homeopatía clásica. Los escritos de Hahnemann y de sus principales seguidores no difieren esencialmente del discuro de Morrell. No obstante, hay que intentar ser justos y analizar la obra de Samuel Hahnemann en su tiempo y su entorno, no podemos culparlo de pensar que la diferencia entre la materia viva y la inerte es una fuerza vital “sin peso, sin sustancia, invisible e imponderable” si todavía en pleno siglo xx el filósofo francés Henri Bergson —premio Nobel de literatura en 1927— y su seguidor Gilles Deleuze argumentan en favor de la existencia de este élan vital —de lo que Bertrand Russell hacía mofa diciendo que el élan vital explica tanto del fenómeno de la vida como el élan locomotrice lo hace del funcionamiento de una locomotora. Actualmente, las personas educadas no aceptan como explicación de algún fenómeno natural la existencia de sustancias que no se puedan ver, medir, oler, sentir ni detectar. Por lo que cualquier explicación que se busque del fenómeno de la homeopatía no puede ir por este camino. La homeopatía en diskette En 1988 aparece en la prestigiada revista británica Nature un artículo cuyo título no presagiaba la tormenta que iba a desatar. Efectivamente, “Human basophil degranulation triggered by very dilute antiserum against IgE” podría pasar por ser uno de tantos artículos de inmunología accesibles únicamente para los especialistas en el tema. Este reporte fue firmado por trece científicos, de los cuales, según los usos y costumbres de las publicaciones en biología, el último es el investigador principal, quien se vio envuelto en apasionadas discusiones, descalificaciones y debates sin fin. Nacido en París, Jacques Benveniste fue un inmunólogo descendiente de una famosa y antigua familia judía de académicos e intelectuales con asiento en la histórica ciudad meridional de Narbona, cuyos orígenes pueden rastrearse hasta la edad media. El punto medular del artículo es que este grupo de investigadores afirmaban que habían logrado activar la desgranulación —la liberación de sustancias— de los leucocitos basófilos cuando los exponían a dosis extremadamente diluidas —homeopáticas— de anticuerpos. Los basófilos son células que responden a la presencia de agentes externos al organismo liberando una sustancia llamada histamina que, a su vez, produce cambios locales en el metabolismo de todas aquellas células que contienen los receptores adecuados; entre otras reacciones, la histamina puede producir dilatación de los vasos sanguíneos y reacciones alérgicas. Benveniste y su equipo interpretaron su resultado como la transmisión de información biológica pese a la ausencia de moléculas activas. En pocas palabras, el medio usado para la dilución homeopática podía provocar una reacción alérgica. No es difícil imaginar el revuelo que provocó este artículo. Benveniste y su equipo tuvieron una enorme cobertura mediática: “Un descubrimiento francés que podría trastornar los fundamentos de la física: la memoria del agua”, tituló su nota, con buena dosis de nacionalismo galo, el periódico Le Monde en su edición del 30 de junio de 1988. Aquellos homeópatas honestos y no satisfechos con la hipótesis del élan vital creyeron encontrar la explicación científica de su disciplina. Aquellos escépticos, pero de buena fe, estuvieron dispuestos a conceder el beneficio de la duda. Sin embargo, el grueso del establishment científico se escandalizó ante algunas afirmaciones un poquito exageradas del propio Benveniste, como: “es como si usted metiera las llaves de su carro en el río Sena en París y luego descubre que si toma agua de la desembocadura —unos 400 kilómetros— ¡ésta tiene la información suficiente para echar a andar su carro!”. Después de que varios laboratorios independientes no pudieron reproducir los resultados, la agitación llegó a tal grado que sir John Ryden Maddox, el editor en jefe de Nature, con entrenamiento formal en química, tuvo que pedir que el equipo de Benveniste repitiera el experimento en su presencia y de un equipo convocado y encabezado por él, que constaba de expertos en desenmascarar fraudes científicos. Los resultados fueron negativos. Intentos subsecuentes de reproducir el experimento en laboratorios independientes también fallaron. La revista Nature retiró el artículo de sus archivos y aunque Benveniste nunca se retractó, su prestigio sufrió un daño irreparable. Fue un buen investigador médico que alcanzó notoriedad por el descubrimiento de un factor de activación de las plaquetas en la sangre y llegó hasta la dirección de una unidad de investigación del Instituto Nacional de la Salud y de la Investigación Médica de Francia, institución que se vio forzado a abandonar como consecuencia del escándalo. Falleció en 2004, de una afección cardíaca. Uno de los integrantes del comité fue Jame Randi, un excéntrico millonario canadiense que en su juventud trabajó como escapista e ilusionista y en su edad madura se dedica a desenmascarar casos de fenómenos paranormales o de pseudociencia. Es uno de los editores de la revista The Skeptical Inquirer. Después del affaire Benveniste, Randi ofreció un premio de un millón de dólares a quién pudiese demostrar la acción fisiológica de diluciones ultramoleculares. El reto fue recogido por Madeleine Ennis, profesora de la Queen’s University de Belfast en 2001 y se montó cuidadosamente un experimento que fue supervisado por la Royal Society de la Gran Bretaña, por medio de su vicepresidente sir John Enderby, físico de profesión, y filmado paso a paso por la bbc. El experiento fue asistido por un equipo de médicos, expertos en estadística y el mismo Benveniste. Los resultados, de nuevo fueron negativos. La puntilla al esfuerzo de Benveniste y sus seguidores por demostrar que el agua posee memoria, lo que a la larga sería la explicación racional de la homeopatía, la dio un estudio patrocinado por la Agencia de Proyectos de Investigación Avanzada de los Estados Unidos de América. El reporte final: “Can specific biological signals be digitized?” fue publicado recientemente en la muy prestigiada revista The faseb Journal. El estudio contó con la participación de un impresionante equipo multidiciplinario que incluyó a Jacques Benveniste, quien no vivió lo suficiente para llegar a la conclusión negativa de la investigación. Hasta donde llega la ciencia moderna, la cuestión de la memoria del agua está completamente desechada. Así pues, la situación en octubre del 2006 es contundente: no existe mecanismo físico conocido que pueda explicar la acción de la homeopatía. Sin embargo, bien pudiera suceder que ese mecanismo exista y que simplemente la ciencia contemporánea no haya sido capaz de detectarlo. Si se concede el beneficio de la duda a la homeopatía y aceptamos la premisa de que ese mecanismo existe y asimismo reconocemos nuestra actual incapacidad para explicarlo, se puede todavía recurrir a un método muy empleado por los médicos para los casos en los que se requiere probar la acción o falta de acción de algún medicamento; me refiero a los estudios clínicos. Son técnicas diseñadas para establecer una relación de causalidad entre la administración de un fármaco y sus consecuentes efectos cuando se desconoce con precisión la acción fisiológica de ellos o bien su actividad química o molecular. Uno de los protocolos más aceptados es el estudio aleatorio controlado, doble ciego y con control de placebo —del latín complacer. De manera muy sucinta, en estos estudios se elige una muestra de pacientes, a cada uno de ellos se le administra de manera aleatoria sea el medicamento que se prueba o un placebo. Ni los pacientes ni los investigadores saben cómo se hace la asignación —por eso se llama doble ciego. Es necesario aclarar que este tipo de estudios normalmente se realizan para que algún fármaco nuevo consiga aprobación para ser comercializado. Esto quiere decir que la nueva droga ya pasó por toda una serie de experimentos previos, posiblemente incluyendo su prueba en animales de laboratorio, y que desde su diseño se sabe o se tiene fundada sospecha de para qué sirve. El estudio clínico proporciona una medida estadística de su eficiencia y de los posibles efectos secundarios. En el caso de la homeopatía, los estudios clínicos tienen que ser particularmente cuidadosos pues ya sabemos que no hay mecanismos de interacción molecular involucrados y que no se puede deducir su eficiencia de leyes conocidas o de principios aceptados. Por lo mismo, los estudios clínicos lo más que pueden hacer es comparar cuantitativamente, mediante métodos estadísticos, la respuesta de los pacientes que toman el remedio homeopático con los que reciben un placebo. La cantidad de estudios clínicos que se han hecho para indagar si la homeopatía logra un nivel de curación por encima de lo que obtiene un placebo es enorme. Una investigación superficial en alguna base de datos —yo usé el PubMed— arroja cientos de artículos que reportan los resultados más encontrados y contradictorios. Afortunadamente, dentro de ese maremagnum existe un buen número de artículos de revisión. Recurrí a varios, en particular a uno que me pareció que destacaba por su profundidad, “A systematic review of systematic reviews of homeopathy”, y cuyo autor, E. Ernst de la Universidad de Exeter, es un reconocido profesionista. Las conclusiones de esta revisión ya no dejan lugar para dudas, la homeopatía no consigue efectos distinguibles del efecto placebo. En pocas palabras, no tiene efecto alguno sobre el organismo más allá de la sugestión y para todo fin terapéutico es igual de eficaz que rezar un rosario. Primum non nocere Esta frase en latín, que con frecuencia es atribuida erróneamente a Hipócrates, es la máxima fundamental de la medicina y se enseña a todo estudiante durante su carrera: primero, no dañar. La mayoría de la gente que yo conozco opina que puesto que la homeopatía no hace daño, más allá de la posible autosugestión, se debería permitir que quien quiera recurra a esa práctica pues, después de todo, aunque el efecto placebo siga siendo un misterio para la ciencia ¿qué importa qué sea lo que haga que el paciente se sienta mejor mientras efectivamente se sienta mejor? Es difícil estar en contra de esta posición y diga lo que diga aquí y en otros foros, la gente seguirá recurriendo a la homeopatía. Sin embargo, quiero llamar la atención sobre cuatro aspectos poco discutidos cuando se habla de homeopatía. Primero, una práctica muy frecuente en la literatura científica es que los equipos de investigación, como regla general, únicamente reportan resultados positivos. Es muy difícil, casi imposible, encontrar un artículo que diga: “después de llevar a cabo cuidadosamente el protocolo experimental diseñado, los resultados fueron contrarios a lo esperado”. Aunque los resultados negativos tienen valor científico en sí, el investigador que los publique —si es que se los publican— se suicida profesionalmente. Esta actitud desgraciadamente es la regla y es muy importante para el tema que nos ocupa pues en todos los reportes que consulté acerca de los supuestos efectos benéficos de la homeopatía, ninguno tomó en cuenta el efecto placebo negativo, el cual en ocasiones es llamado respuesta nocebo, que se refiere a que un paciente que recibe una sustancia inerte también puede sentirse mal por pura autosugestión. En resumidas cuentas, los artículos que estudian la supuesta eficacia de la homeopatía, no sólo no logran niveles distinguibles del efecto placebo sino que nunca reportan efectos negativos, aunque estos sean por autosugestión. Segundo, aunque ingerir un glóbulo de azúcar no daña, el hacerlo en lugar de un medicamento con eficacia probada en un caso grave sí lo hace. En esta situación, el daño que se le provoca al paciente es por omisión; bien pudiera ser que alguien tenga un cuadro sintomático común —un dolor de cabeza— que oculte un problema grave. En ese caso, acudir a la medicina homeopática puede representar una pérdida de tiempo fatal para el paciente. Tercero, la industria homeopática se apartó por completo de la filosofía hahnemaniana original y ya no es éticamente superior a la industria farmacéutica ortodoxa. Antes de escribir este ensayo, visité algunas farmacias homeopáticas y me llevé una tremenda sorpresa; se vende árnica en preparación homeopática para la curación de inflamaciones y hematomas, cuando esa planta macerada o en infusión se usa exactamente para lo mismo. Es imposible, según la teoría homeopática, que una planta tenga los mismos efectos en dosis homeopáticas y en preparación macro. Consecuentemente, en dosis homeopáticas el árnica debería de provocar inflamación y hematomas. También encontré valeriana contra el insomnio, cuando debería de ser lo contrario; para dormir habría que tomar cafeína en dosis homeopáticas. El problema de fondo es que la excesiva y poco ética comercialización de todo lo que tiene que ver con la salud no respeta principios ni tradiciones; cuando lo único importante es la ganancia, pueden vender cualquier cosa bajo una etiqueta de medicamento homeopático —o de los otros. Por último, cuando realizan las dinamizaciones también entran en juego trazas de los compuestos de los que están fabricados los recipientes, tubos de ensayo, tapas, etcétera. ¿Cómo dilucidar el efecto del compuesto homeopático de las dinamizaciones de moléculas de óxidos de silicio del vidrio del frasco o de los compuestos orgánicos del corcho de la tapa y de todos los demás? ¿Qué hacer? La gente seguirá recurriendo a la homeopatía y lo hará por razones parecidas a las que orillaron a Samuel Hahnemann a formular su teoría. La medicina en México —y en muchos lugares del mundo— en el siglo xxi es una actividad deshumanizada y sin valores. Si uno acude a los servicios públicos de salud, se encontrará maltratos, regaños, groserías, mala atención, escasez de medicamentos o mercado negro de ellos. Si se está entre el 5% de “afortunados” que pueden acudir a los servicios privados, la mala atención viene enmascarada detrás de una falsa sonrisa y acompañada de una factura que quita la respiración. Ante ello, no es de extrañar que se recurra a las medicinas alternativas, lo que no quiere decir que las últimas tengan alguna validez o sirvan para algo. De hecho, en su gran mayoría son un engaño y su finalidad es sacarle el dinero a la gente. Es una verdadera lástima que la homeopatía no funcione pues las distorsiones de la medicina que provocaron su nacimiento son tan válidas hoy como lo fueron en el tiempo de Hahnemann. Se seguirá empleando, al igual que los medicamentos chatarra que se anuncian en la televisión, sin saber nada de su rica historia e ignorando que surgió como un rechazo hacia un sistema de salud ineficiente, elitista y deshumanizado. También es una lástima que la comercialización de la homeopatía la lleve por el camino de la chatarrización. Desgraciadamente, es difícil terminar este ensayo con una nota optimista; mientras sigamos teniendo en Mexico gobiernos nacionales que se desentienden de sus obligaciones en salud y en educación para favorecer las instituciones privadas sobre las públicas, las multitudes cuya lucha cotidiana es la supervivencia seguirán acudiendo al tipo de medicina que les pongan enfrente. Es triste que la gente desposeída sea acarreada por la propaganda televisiva al consumo de medicamentos fraudulentos que caen en, al menos, dos categorías: los populares que son los similares vendidos sin ningún control y cuya calidad es, en el mejor de los casos, dudosa, y los medicamentos chatarra de costo elevado —como los de Genomma Lab— cuya venta constituye un crimen social pues al insulto del precio se le agrega la burla del engaño. Colofón Samuel Hahnemann falleció de bronquitis en París en 1843. El amor lo llevó a radicar en la ciudad luz. Fue sepultado en el panteón de Montmartre y hubiera sido vecino de sepultura por la eternidad de Heinrich Heine y Théophile Gautier de no haber sucedido que una suscripción pública organizada en los Estados Unidos reunió fondos para trasladarlo al más encumbrado cementerio del Pére Lachaise. El destino, siempre juguetón y caprichoso, quiso que su tumba se encuentre muy próxima de la de Joseph Gay-Lussac y casi vecina de la de François-Vincent Raspail. El primero, impulsor de la teoría molecular de la materia y el segundo, un famoso revolucionario francés que destacó por su participación activa y militante del lado republicano en los sucesos del 48 en Francia. La imagen política de Raspail opacó sus logros profesionales como médico. Como tal, preconizó la higiene y el uso de antisépticos. Fue un adherente a la teoría patogénica de las enfermedades, negada por Samuel Hahneman y sus seguidores. |
||
Pedro Miramontes
Departamento de Matemáticas,
Universidad de Sonora.
|
||
Pedro Miramontes es profesor de tiempo completo del Departamento de Matemáticas de la Facultad de Ciencias de la unam. Integrante del Grupo de Biomatemática de la misma. Actualmente se desempeña como profesor en la Universidad de Sonora.
_______________________________________________________________
como citar este artículo → Miramontes, Pedro. (2007). Homeopatía: mitos y realidades. Ciencias 85, enero-marzo, 64-76. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
del bestiario | |||
Las tribulaciones del tiranosaurio adolescente
|
|
||
Héctor T. Arita
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | ||
La más profunda definición de juventud
es vida no afectada aún por la tragedia. Alfred North Whitehead |
|
||
Joseph Burr Tyrrell quedó estupefacto ante la noticia. Corría el año de 1884 y el joven canadiense, recién graduado en artes por la Universidad de Toronto, recibía la encomienda de realizar un levantamiento geológico en la región del río Red Deer, justo a mitad de camino entre lo que ahora son las ciudades de Edmonton y Calgary, en la provincia de Alberta. Sin conocimiento científico previo, Tyrrell, apenas de 26 años, había participado en otras exploraciones en la región. Debido a cambios en la política canadiense de exploración y crecimiento, se había decidido impulsar el desarrollo de esa zona, y dentro de la estrategia para lograrlo se estableció la importancia de realizar un reconocimiento en busca de riquezas geológicas. Tyrrell, para sorpresa suya, fue designado responsable de tal estudio.
La cuenca del Red Deer es una región inhóspita. La retirada de los glaciares hace unos cuantos miles de años dejó al descubierto un terreno erosionado y difícil de explorar. Paradójicamente, es esa erosión la que ha dejado expuesto uno de los grandes tesoros de la zona: los afloramientos cretácicos ricos en inusitados fósiles de dinosaurios. La expedición de Tyrrell, que tuvo que realizar peligrosas travesías río abajo en frágiles balsas, dio frutos con el descubrimiento de restos del cráneo de un dinosaurio, bautizado años después por Edward D. Cope como Albertosaurus sarcophagus (reptil carnívoro de Alberta). Posteriormente, Tyrrell renunció a sus encargos en la prospección geológica y se hizo millonario como administrador de varias minas de oro en Ontario. No obstante, su nombre se recuerda aún en el Museo Tyrrell de Paleontología, localizado en Drumheller, muy cerca del lugar de su gran hallazgo. En la década de 1910, Barnum Brown, del Museo Americano de Historia Natural de Nueva York, realizó expediciones a lo largo del río Red Deer en balsas de gran tamaño, equipadas para el trabajo paleontológico. Brown logró rescatar material de alto valor científico, que incluía restos de al menos diez individuos de Albertosaurus. Por ese mismo tiempo, ya se había logrado establecer que los albertosaurios eran parientes cercanos de Tyrannosaurus, el dinosaurio carnívoro por excelencia.
A finales del Cretácico, hace alrededor de 70 millones de años, Albertosaurus sarcophagus era el depredador más temible en los ambientes subtropicales de lo que ahora es el suroeste de Canadá. Era un tiranosaurio de talla “moderada”, lo que para estos gigantescos depredadores significa ser una bestia de nueve metros de longitud, de unos tres o cuatro metros de altura y de un peso de unas tres toneladas. En términos generales, la fisonomía de Albertosaurus era muy parecida a la de Tyrannosaurus: un dinosaurio bípedo, con corpulentas patas traseras y rudimentarias extremidades superiores, ridículamente pequeñas y dotadas de dos dedos terminados en garras. Tenía una cabeza desproporcionadamente robusta, fuertemente armada con hileras de imponentes y afilados dientes propios de los carnívoros. Albertosaurus tenía un perfil más esbelto y grácil que el de Tyrannosaurus. Aun así, es muy probable que haya sido un muy poderoso depredador capaz de sembrar el pánico entre los hadrosaurios, los dinosaurios de “pico de pato” con los que convivía. En 1997, usando las notas de campo de un miembro de la expedición de Brown, se logró localizar el sitio de las excavaciones, y entre 1998 y 2005 se logró el rescate de material procedente de un número inusitado de individuos de Albertosaurus. Los estudios de Philip Currie, de la Universidad de Alberta, permitieron establecer que los fósiles conocidos correspondían a veintidos individuos. Más aún, Currie pudo estimar la edad de cada individuo, examinando las líneas de crecimiento en las tibias y huesos del metatarsiano. Esta información, proveniente de un solo sitio y, presumiblemente, de un intervalo de tiempo reducido (algunas semanas o meses), constituía una oportunidad única para analizar la estructura de edades de una población de dinosaurios, así como para especular sobre los patrones de supervivencia con la edad. La estructura de edades y la supervivencia de las poblaciones, tanto humanas como de plantas y animales, se estudian construyendo las llamadas tablas de vida. En ellas se tabula la proporción de individuos que pertenecen a diferentes categorías de edad, de manera que se pueden calcular las tasas de mortalidad correspondientes a las diferentes fases de la vida del organismo en cuestión. Parece ser que los romanos del siglo iii a. de C. ya usaban tablas actuariales para calcular las necesidades alimentarias de acuerdo con el número de personas de diferentes edades. La primera tabla de vida moderna fue construida por Edmund Halley, el astrónomo del cometa, en 1693, para una población polaca. La primera tabla de vida construida para un organismo no humano fue elaborada por Pearl y Parker, en 1921, para una población de la mosca de la fruta (Drosophila melanogaster) cultivada en laboratorio. No fue sino hasta 1947 que se logró tener datos similares para una población silvestre, cuando Edward Deevey construyó una tabla de vida para los borregos cimarrones (Ovis dalli) de Alaska. Deevey utilizó un método indirecto que consiste en recolectar restos de individuos muertos en forma natural y estimar la edad al momento de la muerte. En el caso de los borregos cimarrones es posible calcular la edad con base en los patrones de crecimiento de los cuernos. Bajo algunos supuestos, como la no variabilidad en la estructura de edades, es posible construir tablas de vida completas usando datos como los de Deevey. De hecho, eso fue lo que hizo un equipo de trabajo encabezado por Gregory Erickson, un ecólogo de poblaciones de la Universidad Estatal de Florida, con los fósiles de tiranosaurios de Alberta. De acuerdo con los datos de Erickson y sus colaboradores, los albertosaurios tenían una expectativa de vida máxima de unos treinta años. De hecho, se ha calculado que el individuo más longevo que se ha encontrado tenía veintiocho años en el momento de su muerte. Como sucede con la mayoría de los vertebrados actuales, y particularmente con los ovíparos, los albertosaurios muy jóvenes tenían una mortalidad muy alta. Erickson y sus colegas calculan que apenas entre 20 y 50% de los tiranosaurios alcanzaban la edad de dos años. Un albertosaurio recién salido del cascarón seguramente era tan vulnerable como la cría de cualquier otro vertebrado coetáneo. Entre dos y trece años de edad, en cambio, los jóvenes tiranosaurios aparentemente gozaban de una vida tranquila y segura. La tasa de mortalidad anual era de apenas tres y medio por ciento. Es difícil pensar en algo que pudiera ser una amenaza mortal para un joven e inquieto albertosaurio de un par de toneladas de peso. Pero como sucede en muchos casos, la adolescencia y el inicio de la actividad reproductiva traían como consecuencia la pérdida del paraíso infantil. Entre catorce y veintitres años de edad, la tasa de mortalidad anual era de 23%.Erickson y colaboradores especulan que el incremento en la mortalidad tenía que ver, en las hembras, con el estrés fisiológico de producir huevos y, en los machos, con la competencia entre ellos por conseguir parejas para la reproducción. Sea cual haya sido la causa, el hecho es que para los tiranosaurios la vida se hacía cada vez más difícil con los años, de manera que muy pocos de ellos sobrevivían más allá de veinticinco años de edad. Hace 70 millones de años los albertosaurios vivían y morían en los parajes semitropicales de lo que ahora es Canadá. La historia de sus vidas estuvo perdida en la inmensidad del tiempo, hasta que varios eones después la narrativa de su nacimiento, crecimiento y muerte fue develada por pequeñas marcas en el material fosilizado de sus huesos. Hoy en día, otros seres nacen y mueren y, al igual que los tiranosaurios del Cretácico, parecen dominar su ecosistema. ¿Qué historias contarán sus restos fósiles dentro de 70 millones de años? |
|||
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
|
|||
Referencias bibliográficas
Erickson, G. M., P. J. Currie, B. D. Inouye y A. A. Winn. 2006. “Tyrannosaur life tables: An example of nonavian dinosaur population biology”, en Science, núm. 313, pp. 213-217.
Hutchinson, G. E. 1981. Introducción a la ecología de poblaciones. Blume, Barcelona.
_______________________________________________________________
como citar este artículo → Arita, Héctor T. (2007). Las tribulaciones del tiranosaurio adolescente. Ciencias 85, enero-marzo, 26-29. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Los colores invisibles de la astronomía |
En este texto se describen los principales sucesos que llevaron a la incorporación del estudio del espectro electromagnético en la astronomía. El autor nos narra cómo el descubrimiento de las radiaciones invisibles estimuló el surgimiento de nuevos campos en la astronomía, que aún hoy continúan desarrollándose.
|
|
Luis F. Rodríguez
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Los seres humanos siempre hemos observado los astros tratando de entenderlos. Inicialmente, sin la ayuda de ningún instrumento, utilizando el ojo para este propósito. Pero desde 1609, cuando Galileo apuntó su primitivo telescopio hacia la Luna, Saturno, Júpiter y otros cuerpos cósmicos, esta herramienta se ha mejorado de manera dramática, proporcionando información cada vez más detallada de cuerpos y fenómenos cada vez más remotos.
El estudio del Universo utilizando la luz, sea sólo con la vista o con telescopios y otros detectores, constituye el campo de la astronomía clásica, sobre la cual se fundamenta buena parte del conocimiento que tenemos del Universo. Pero la luz únicamente es un componente de un fenómeno mucho más amplio, el espectro electromagnético. En efecto, a mediados del siglo xix los estudios del físico escocés James Clerk Maxwell dejaron claro que la luz era parte de algo más grande. Como todas las cosas importantes, la luz tiene varias descripciones. Aquí la visualizaremos como una forma de energía que viaja por el espacio a gran velocidad, aproximadamente 300 000 kilómetros por segundo. Más aún, podemos describir esta energía como existente en forma de ondas electromagnéticas, que quedan caracterizadas principalmente por su longitud de onda —es decir, la separación entre dos crestas consecutivas de la onda—, la cual determina el “color” de la luz visible. Por ejemplo, si la longitud de la onda es de alrededor de 0.55 micras —que son una millonésima de metro—, el ojo humano la capta como de color verde y, así, cada color es producido por un intervalo de longitud de onda. Pero si es menor que 0.38 o mayor que 0.74 micras —lo que respectivamente corresponde al extremo violeta y al rojo del espectro visible—, el ojo humano simplemente no la detecta. En otras palabras, fuera de este intervalo de longitudes de onda, la radiación electromagnética no es visible para nosotros. Metafóricamente, son colores invisibles. El prisma de Newton En 1666, Isaac Newton realizó un importante descubrimiento que se ha representado románticamente en algunas pinturas: en un cuarto intencionalmente oscurecido, un angosto rayo de Sol penetra a través de un agujero en la cortina. Un joven y apuesto Newton sostiene un prisma que intersecta la trayectoria del rayo de luz. El milagro ocurre; del otro lado del prisma surge, transfigurado, el rayo de Sol que de originalmente blanquecino se ha transformado en un abanico de colores, en un pequeño arco iris artificial. Por supuesto, el mérito de Newton no fue jugar con un prisma y la luz del Sol para producir pequeños arcos iris, efecto conocido desde siglos atrás, sino ofrecer una explicación de lo que observaba. Newton propuso que la luz no era simple y homogénea, como se creía hasta entonces, sino que estaba compuesta de distintos colores y que el prisma los afectaba de diferentes maneras, desviándolos en diversos ángulos y permitiéndonos así distinguir uno del otro. Al abanico de colores que se formaba al pasar un rayo de luz por un prisma, Newton lo bautizó con el nombre de espectro. Al atravesar el prisma, de acuerdo con su longitud de onda —o su color—, la luz se desvía un ángulo diferente, con el violeta desviándose más que el azul, éste más que el verde y así sucesivamente. El color de las estrellas Para el astrónomo, el color de una estrella proporciona información sobre su temperatura. En una primera aproximación, las estrellas emiten como un cuerpo negro, siguiendo la ecuación de Planck —la cual relaciona la energía y la frecuencia. La radiación de cuerpo negro tiene su máximo en una longitud de onda que va inversamente como la temperatura del cuerpo —relación que es conocida como la ley de Wien. De este modo, las estrellas rojas son relativamente frías, mientras que las azules lo son calientes. La estrella Antares, que tiene una temperatura superficial de 3 400 grados Kelvin, es roja, mientras que la estrella Spica, con una temperatura superficial de 23 000 grados Kelvin, es azul. Nuestro Sol, cuya temperatura superficial es de 5 800 grados Kelvin, es intermedio entre las dos anteriores, se ve amarillo. En realidad, la mayoría de las estrellas en el cielo simplemente se ven blancuzcas, porque la luz que nos llega es muy poca, insuficiente para excitar los conos de la retina —que son los fotorreceptores sensitivos al color— y sólo excita los bastones, que no son sensitivos al color. Casi todas las estrellas se ven así por la misma razón que aquello que dice el refrán: “de noche, todos los gatos son pardos”. Por supuesto, los astrónomos podemos medir con bastante exactitud la forma del espectro de emisión de las estrellas y determinar la temperatura con precisión, pero el color por sí solo nos da una idea. Es interesante que esta relación entre el color y la temperatura era conocida y utilizada desde hace mucho por los herreros y forjadores de metales que la empleaban para estimar a ojo la temperatura del metal que estaban calentando. En este contexto, cuando un astrónomo habla de una estrella azul quiere decir una caliente y cuando habla de una roja, es una fría. Recientemente se descubrió un nuevo tipo de cuerpos que están entre las estrellas y los planetas. Son muy fríos en el contexto de la astronomía estelar —tienen temperaturas de apenas alrededor de 1 000 grados Kelvin— y se les bautizó como enanas marrón —en inglés brown dwarfs. Lo de enanas es por su tamaño relativamente pequeño y lo de marrón porque a su temperatura casi no emiten luz visible y se verían oscuras. Si bien estos cuerpos, más grandes que los planetas y más pequeños que las estrellas, al inicio de su vida pueden tener procesos termonucleares en su interior —como lo hacen las estrellas normales—, no logran mantenerlos y después se comportan casi como planetas, sin fuente propia de energía. En México, en ocasiones las llamamos enanas cafés, pero para no confundir el color con la bebida, quizá el término marrón sea más apropiado. Por otra parte, con lo de que “de noche, todos los gatos son pardos”, quizá las deberíamos de llamar enanas pardas —lo cual creo que es el caso en algunos países de habla castellana. Entonces, si un cuerpo es muy frío o muy caliente, por la ley de Wien emitirá la mayor parte de su radiación electromagnética fuera del intervalo de los colores tradicionales y será invisible para nosotros o al menos, muy difícil de detectar. Si es muy frío será más rojo que el rojo y si es muy caliente, más violeta que el violeta. ¿Cómo llamarle a estos colores invisibles? El espectro electromagnético Podemos pensar en la parte visible del espectro electromagnético como en un piano. Del lado izquierdo están los sonidos graves, de longitud de onda larga —que equivaldrían al rojo— y del derecho están los sonidos agudos, de longitud de onda corta —que representarían el azul. Imaginemos ahora que el piano se extiende infinitamente, tanto hacia la izquierda como hacia la derecha. Al apretar las teclas que están más allá de las del piano normal, ya no captaríamos los sonidos por encontrarse fuera del intervalo de audición del oído humano. Lo mismo pasa con la radiación electromagnética. El ojo humano sólo percibe la parte visible, pero construyendo los detectores adecuados se puede captar y detectar el resto del espectro electromagnético. Como era de esperarse, fueron astrónomos y físicos los que descubrieron los colores invisibles que colindan con el intervalo de radiación visible. En 1799, el astrónomo británico Sir William Herschel realizó unos sencillos experimentos que indicaban la existencia de radiaciones invisibles. Luego de haber formado un espectro con la luz solar, Herschel tomó un termómetro y lo fue colocando en la zona de cada uno de los colores, la temperatura subía al absorber la energía contenida en la luz solar, aumentaba al ir hacia el extremo rojo del espectro. Con una brillante intuición, Herschel colocó el termómetro antes del color rojo, donde no llegaba luz visible. La columna de mercurio se elevó aún más que en el rojo. Entonces, había una forma de energía invisible antes de este color. A esta radiación se le llama infrarroja, por encontrarse por debajo del rojo. Al año siguiente, en 1800, Johann Wilhelm Ritter descubrió que también había una radiación invisible más allá del otro extremo del espectro visible. Esta nueva radiación tenía el poder de ennegrecer el cloruro de plata de las placas fotográficas de antaño, con mayor efectividad que la luz visible. ¿Cómo bautizar este nuevo color? Radiación ultravioleta, desde luego, por encontrarse más allá del color violeta. Por conveniencia y tradición, en la actualidad se acostumbra dividir el espectro electromagnético en seis bandas, que en orden decreciente de longitud de onda son: radio, infrarrojo, visible, ultravioleta, rayos X y rayos gama. Estas ondas tienen propiedades muy similares —por ejemplo, están descritas por las ecuaciones de Maxwell y, en particular, todas viajan a la velocidad de la luz— pero difieren en su longitud de onda. Por supuesto, la más familiar de las bandas del espectro electromagnético es la de la luz visible. Pero las radiaciones invisibles cada vez son más comunes por la aplicación de la tecnología en la vida diaria. Todos tenemos aparatos que captan ondas de radio, y las aplicaciones médicas de los rayos X y los rayos gama también nos son familiares. Los hornos de microondas utilizan ondas de radio para calentar los alimentos. Las ondas ultravioletas del Sol son las que broncean nuestra piel. La radiación infrarroja es de utilidad en ciertos tratamientos de rehabilitación médica. Los colores invisibles de Herschel, Ritter y Maxwell son ya parte de nuestra vida diaria e inclusive han encontrado múltiples aplicaciones prácticas. Las rayas espectrales Además de la emisión de banda ancha que caracteriza un cuerpo negro, los átomos y moléculas que hay en los astros emiten y absorben radiación electromagnética a longitudes de onda muy bien definidas, produciéndose las rayas espectrales que son generalmente muy angostas en el intervalo de longitud de onda en el que están presentes. Por ejemplo, el átomo de calcio tiene dos rayas espectrales a 0.39685 y 0.39337 micras en la zona del color violeta. Otra raya espectral muy importante proviene del hidrógeno y está a 0.65628 micras en el rojo. También hay rayas espectrales de importancia para la astronomía fuera del intervalo visible. A 1.3483 centímetros, en la banda de radio, está la línea del vapor de agua, y en todas las bandas encontramos rayas espectrales que proporcionan información de la composición química y de las condiciones físicas —como temperatura, densidad o grado de ionización— de los objetos estudiados. Como estas longitudes de onda son tan precisas, la presencia de rayas usualmente nos dice inequívocamente que tal o cual elemento está presente en el astro estudiado. Corrimiento Doppler Pero la situación de las rayas espectrales se complica cuando consideramos que los astros tienen movimientos relativos a la Tierra, en ocasiones de muy alta velocidad. Por el efecto Doppler, si un cuerpo se acerca a nosotros, la longitud de cualquier onda que emita —sea radiación electromagnética o sonido— se acorta, mientras que el efecto contrario se presenta si el cuerpo se aleja de nosotros. Entonces, una onda que tiene un color en el marco de referencia del cuerpo que la emite, puede verse de otro color por un observador en reposo. Los astrónomos decimos que la radiación “está corrida al rojo” si el cuerpo se aleja de nosotros, o bien, “corrida al azul” si se acerca. Esta designación se emplea aun cuando nos refiramos a ondas fuera del intervalo visible, donde en realidad su uso no tiene sentido. Si estudiamos ondas de radio, decir que una raya espectral está corrida al rojo, significa que tiene una longitud de onda mayor que la que mediríamos en el marco de referencia del emisor. Es la convención, aun cuando una señal de radio “corrida al rojo” —del espectro visible— tendría en principio una longitud de onda más corta que la que mediríamos en el marco de referencia del emisor. Una de tantas inconsistencias con las que vivimos todos los científicos. En 1929, el astrónomo estadunidense Edwin Hubble comenzó a estudiar las galaxias externas a la nuestra. La luz que de ellas nos llega es la suma de la luz individual de muchísimas estrellas, lo cual confirma que son cuerpos celestes similares a nuestra Vía Láctea. Pero pronto quedó claro que tenía una característica extraña: estaba sistemáticamente corrida al rojo. De estas observaciones del cambio de color de la luz de las galaxias derivó uno de los descubrimientos más grandes de la humanidad, el que el Universo está en expansión, de modo que las galaxias se alejan las unas de las otras. El hecho de que el movimiento relativo entre el objeto emisor y el observador cambia el color de lo emitido queda bien reflejado en la novela Hacedor de estrellas de Olaf Stapledon, donde el protagonista inicia un viaje interestelar a gran velocidad y nos dice: “Al cabo de un rato, noté que el Sol y todas las estrellas vecinas eran rojas. Las del polo opuesto del cielo eran en cambio de un frío azul. Entendí rápidamente el extraño fenómeno. Yo estaba viajando aún, y viajando a tal velocidad que la luz misma no era indiferente a mi paso. Las ondas de los astros que quedaban atrás tardaban en alcanzarme. Me afectaban por lo tanto como pulsaciones más lentas que lo normal y las veía como rojas. Las que venían a mi encuentro, en cambio, se apretaban y acortaban y eran visibles como una luz azul”. Por cierto, Stapledon comete el pequeño error de asociar el azul con lo frío —“de un frío azul”—, cuando en realidad es lo opuesto, lo caliente. Un caso extremo de corrimiento al rojo lo presenta la llamada radiación cósmica de fondo. Cuando se produjo, hace 13 700 millones de años, el Universo estaba a 3 000 grados Kelvin y la longitud de onda típica de esta radiación era como de una micra. Por la expansión del Universo, ahora la detectamos con longitudes de onda típicas de un milímetro, es decir, mil veces mayor que la original. Hoy, la radiación cósmica de fondo tiene la forma prácticamente perfecta de un cuerpo negro con temperatura de 2.725 grados Kelvin, pero su temperatura original era mil veces mayor. La primera de las astronomías invisibles Hace un siglo, en 1901, prácticamente todo el conocimiento astronómico provenía de la observación de la luz visible que emiten los astros. Durante el siglo xx ocurrió una ampliación dramática en nuestra capacidad para estudiar el Universo gracias a la observación en las otras cinco bandas, hasta entonces inexploradas, del espectro electromagnético. La exploración del Universo en las bandas invisibles la inició Karl Guthe Jansky en la década de los treintas. Nacido en 1905, en el estado de Oklahoma de los Estados Unidos, en el seno de una familia de raíces europeas —su padre era de origen checoeslovaco y su madre, francés e inglés—, Jansky estuvo desde su niñez inmerso en una atmósfera con marcadas influencias científicas y de ingeniería. Se recibió de físico en 1927 en la Universidad de Wisconsin y al año siguiente empezó a trabajar en los importantes laboratorios Bell, en sus instalaciones de Cliffwood, New Jersey. Su jefe, Harald Friis, de inmediato le encomendó trabajar en el problema de la estática que se recibía en las bandas de radio y que dificultaba la comunicación trasatlántica. En aquel entonces esos laboratorios eran la institución encargada de la investigación de la compañía de teléfonos Bell y trataban de entender por qué había estática que interfería con las comunicaciones radiotelefónicas entre América y Europa. Obviamente, era un área con gran futuro comercial y había gran interés en dominarla tecnológicamente. Para investigar el problema, Jansky construyó una antena con su respectivo sistema de recepción que captaba ondas electromagnéticas con longitud de onda de 15 metros. La antena de Jansky tenía una importante característica: estaba montada sobre una estructura que podía girar como un carrousel y que le daba la capacidad de apunte. Es decir, Jansky podía determinar de qué región del horizonte provenían las señales que recibía. Pronto notó que una importante fuente de estática eran las tormentas eléctricas, tanto las cercanas como las lejanas. En efecto, todos hemos tenido la experiencia de que los relámpagos producen un ruido en un receptor comercial de radio. Pero además de esta interferencia de origen natural y terrestre Jansky detectaba, como luego reportaría por escrito, “una estática constante, como un siseo, cuyo origen es desconocido”. Con la tenacidad que lo caracterizaba, continuó estudiando el problema hasta que pudo determinar que la misteriosa estática alcanzaba su mayor intensidad cuando su antena apuntaba hacia cierta región en el cielo. Era el centro de nuestra galaxia, la Vía Láctea. Jansky reportó su descubrimiento el 27 de abril de 1933 en una ponencia titulada “Perturbaciones eléctricas de origen aparentemente extraterrestre”, la cual presentó en una sesión de la Unión Internacional de Radiociencia en Washington. Si bien estos resultados no despertaron gran interés ahí —en una carta a su padre, Jansky se queja de que el auditorio estaba somnoliento—, el departamento de prensa de los Laboratorios Bell preparó un resumen que hizo llegar a los más importantes periódicos, y así a los pocos días, el 5 de mayo de 1933, uno de los encabezados del New York Times decía: “Ondas de radio provenientes del centro de la Vía Láctea”, seguido del resumen. Uno hubiera esperado que esta noticia despertara gran interés en la comunidad astronómica de la época, pero no fue éste el caso. Los astrónomos de entonces estaban familiarizados con las propiedades de la luz, con los telescopios y las placas fotográficas, pero se sentían totalmente incómodos en un medio en el que se hablaba de ondas de radio, antenas y receptores. Además, por razones ajenas a su control, Jansky tuvo que abandonar esta área de investigación. A pesar de su insistencia en continuar trabajando en el problema de la “estática estelar”, su jefe le encargó otras tareas. Después de todo, Jansky había cumplido en identificar el origen de las distintas formas de estática que dificultaban las telecomunicaciones y Friis pensó que no correspondía a ellos, prácticos ingenieros de una compañía telefónica en medio de la gran depresión, el continuar dedicando recursos a un problema que tenía características de pertenecer a la ciencia pura. Pero la semilla ya estaba sembrada y pronto germinó. Al final de la segunda guerra mundial, con equipo de radar de desecho, grupos de investigadores en Inglaterra, Holanda, Australia, la Unión Soviética y Canadá, entre otros países, comenzaron a construir radiotelescopios y a refinar lo que Jansky había iniciado. Ahora, la radioastronomía es un área importante de la astronomía e inclusive se han entregado tres premios Nobel en física a radioastrónomos. En 1974, lo recibieron Antony Hewish y Martin Ryle por el descubrimiento de los pulsares —el primero— y por el desarrollo de la técnica de síntesis de apertura —el segundo. En 1978, les tocó a Robert W. Wilson y Arno Penzias por el descubrimiento de la radiación cósmica de fondo. Finalmente, en 1993 lo recibieron Russell A. Hulse y Joseph H. Taylor Jr. por el descubrimiento del pulsar binario, lo cual ha permitido poner a prueba ciertas predicciones de la relatividad general. En una primera aproximación, la radioastronomía es la astronomía del Universo frío —recordemos la ley de Wien. Fenómenos como las nubes moleculares y el polvo cósmico nos proporcionan información de componentes muy fríos del Cosmos. En general, los procesos de formación de galaxias y de estrellas inician en regiones frías y la radioastronomía ha brindado información muy valiosa. Hay fenómenos de muy alta energía que emiten fuertemente en ondas de radio. Quizá el mejor ejemplo sea la radiación sincrotrónica, que se produce cuando electrones moviéndose a velocidades relativistas en un campo magnético emiten copiosamente ondas de radio. Este tipo de radiación ha permitido estudiar objetos como las radiogalaxias, los pulsares y distintos tipos de estrellas. La astrofísica de altas energías Después de la segunda guerra mundial, hubo gran interés en comenzar a explorar astronómicamente las regiones de altas energías del espectro, ¿emitirían los astros rayos x y rayos gama? Del considerable conocimiento acumulado en los inicios del siglo xx, quedaba claro que las estrellas más o menos normales como el Sol, no serían fuentes significativas de rayos x o gama puesto que prácticamente emiten casi toda su energía en el infrarrojo, visible y ultravioleta. Para que hubiera una astronomía de altas energías, tendría que haber en el Universo astros de naturaleza distinta a los que entonces se conocían. Una limitante crucial al estudio en las otras bandas del espectro electromagnético es que la atmósfera sólo es transparente —o sea, deja pasar— para la luz, parte del infrarrojo y las ondas de radio, pero es opaca —o sea, no deja pasar— para las otras radiaciones.
Entonces, no es fortuito que la segunda astronomía en desarrollarse fuera la radioastronomía, porque como la astronomía visible, se puede realizar desde la superficie de la Tierra. Para observar el Universo en las otras radiaciones era necesario elevarse por encima del manto protector de nuestra atmósfera. La astrofísica de altas energías tuvo que esperar el desarrollo de la tecnología espacial para poder realizarse. En 1960, un grupo de estadounidense encabezado por Riccardo Giacconi, Herbert Gursky, Frank Paolini y Bruno Rossi envió un cohete que por unos minutos estuvo por encima de la atmósfera terrestre y que trataría de detectar rayos x provenientes de la Luna. Habían supuesto que la Luna podría absorber y reemitir parte de los rayos x que le llegaban del Sol. Para su gran sorpresa, detectaron una fuente muy intensa de rayos x en la constelación del Escorpión, en una posición distinta a la de la Luna. Esta fuente era mucho más intensa de lo que esperaban que fuese la Luna. Más aún, seguramente se encontraba fuera del Sistema Solar y esto quería decir que la fuente era intrínsecamente muy luminosa en los rayos x. De hecho, si suponían que el objeto emisor de rayos x era una estrella colocada en el centro de nuestra Galaxia, resultaba ser cien millones de veces más intensa en los rayos x que nuestro Sol. Varios grupos comenzaron a lanzar cohetes con detectores de rayos x, encontrando algunas nuevas fuentes, pero el verdadero alcance e importancia de la astronomía de rayos X sólo quedó claro con la construcción del primer satélite dedicado a los rayos X, el cual fue puesto en órbita el 12 de diciembre de 1970 y se le bautizó con el nombre de uhuru. La misión de este satélite duró poco más de dos años —pasado cierto tiempo, los fluidos que lleva el satélite para distintos usos se agotan y la electrónica comienza a fallar y el satélite “muere” quedando en silenciosa órbita alrededor de la Tierra—, al final de los cuales produjo un catálogo de más de 300 fuentes cósmicas de rayos X. La mayoría caía en una de las cuatro categorías siguientes: 1) sistemas de estrellas binarias, 2) remanentes de supernova, ambos tipos de objeto en nuestra Galaxia, 3) las llamadas galaxias activas y 4) los cúmulos de galaxias. Si bien los cuatro tipos de objetos se conocían con anterioridad, la presencia de emisión de rayos X reveló nuevas facetas de ellos. En todos, la emisión de rayos x proviene de gas que se ha calentado, por distintos procesos, a temperaturas enormes, de decenas de millones de grados Kelvin o más. En 2002, Riccardo Giacconi recibió 50% del premio Nobel de física por su papel en el descubrimiento de fuentes cósmicas de rayos x. En realidad, en este caso el premio reconocía la labor de cientos, si no es que miles, de personas que creyeron en Giacconi y que trabajaron por décadas con él en la construcción de enormes y costosos satélites, verdaderos observatorios en órbita, que permitieron esos descubrimientos.
En la actualidad, existe investigación astronómica en todas las ventanas del espectro electromagnético y gracias a estos colores invisibles, sabemos que el Universo es mucho más diverso e interesante de lo que se creía hace unas décadas. Con el conocimiento cada vez más detallado de la radiación electromagnética que proviene del Cosmos, la astronomía comienza a volver los ojos hacia diferentes formas de energía, como los neutrinos y la radiación gravitacional, para continuar avanzando en el entendimiento de nuestro Universo. |
||
Luis Felipe Rodríguez
Centro de Radioastronomía y Astrofísica
Universidad Nacional Autónoma de México
|
||
Luis Felipe Rodríguez es físico por la Facultad de Ciencias de la unam y Doctor en Astronomía por la Universidad de Harvard. Es el iniciador en nuestro país de la radioastronomía y autor de numerosos trabajos científicos y de divulgación. Actualmente es Director del Centro de Radioastronomía y Astrofísica de la unam, en el campus de Morelia, Michoacán.
_______________________________________________________________
como citar este artículo → Rodríguez, Luis Felipe. (2007). Los colores invisibles de la astronomía. Ciencias 85, enero-marzo, 40-48. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |