revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
 
     
Predecir el clima es una cosa, predecirlo correctamente es otra  
Pedro Miramontes Vidal
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Edward Lorenz es profesor de meteorología en el prestigiado Instituto de Tecnología de Massachusetts. La suya es una profesión de presiones y burlas. La navegación marítima, el tráfico aéreo, la agricultura y muchas actividades de gran importancia económica en las sociedades modernas, en buena medida dependen de la confianza que se pueda tener en los reportes del clima. Y eso genera presiones intensas para que los meteorólogos predigan y lo hagan bien.
 
En su excelente libro The Essence of Chaos, cuenta Lorenz que uno de sus sueños más anhelados es que alguien (de preferencia un periodista) le pregunte:
 
 
—¿Por qué no hacen ustedes mejores previsiones del clima?
 
 
 
Para poder responderle
 
 
 
—¿Y por qué deberíamos hacerlas? Es más, ¿por qué tendríamos que albergar esperanzas con respecto a la posibilidad de prever, aunque fuera parcialmente, el futuro?
 
La humanidad lo ha hecho desde tiempos lejanos: Delfos, Dodona, Tebas, Delos, son unos cuantos de los santuarios otrora dedicados a otear el porvenir. Los oráculos eran parte importante de la vida cotidiana, y consulta obligada ante sucesos extraordinarios. Reyes y gobernantes helénicos comparecían ante la Pitoni sa de Delfos; los emperadores romanos lo hacían ante Fortuna Primigenia, en lo que ahora es la ciudad italiana de Palestrina.
 
No es necesario retroceder tanto en el pasado. Hace unos pocos años, durante el paso de Ronald Reagan por la presidencia de Estados Unidos, en la Casa Blanca había una astróloga de planta; en tiempos recientes, en México, tanto policías como ladrones (que suelen ser los mismos) han sido clientes asiduos de La Paca o de sus colegas.
 
 
El notable profeta hebreo Jeremías sostenía que no hablaba por sí mismo, sino que era vehículo de una fuerza divina, y —muy acorde con la tradición judía— se especializó en predecir calamidades y desgracias como castigo por el desapego de su pueblo a los mandatos de Jehová.
 
 
Casandra también obtuvo el don de la profecía directamente de un dios. Fue Apolo quien, a cambio de la promesa de obtener sus favores amorosos, le otorgó la facultad de mirar en el futuro. Una vez que la tuvo, se negó a cumplir su parte del trato y Apolo se vengó condenándola a que sus predicciones —infortunios, por lo general— nunca fueran creídas.
 
Artemidoro Daldiano escribió en el siglo II de nuestra era un tratado de clarividencia a través del onirismo; su oneirocritica (el tratado de los sueños) allanó el camino para que en el siglo xx otro adivinador genial, Sigmund Freud, nos embelesara con sus tratados modernos de vaticinio.
 
Después de un matrimonio afortunado con una viuda rica, Mahoma pudo dedicarse a la cavilación contemplativa, y a los 40 años de edad fue objeto de la revelación divina por medio de una aparición del arcángel Gabriel. Sus profecías eran en buena parte preceptos morales y estaban dirigidas a proporcionar los fundamentos éticos de una religión que hoy transita por su edad media.
 
En el siglo xvi Nostradamus sentó las bases de la profecía como oficio moderno, al emitir designios que si se cumplían eran aclamados; de lo contrario, se alegaba que “estaban aún por venir”. Tiempo después, Guiseppe Cagliostro ganó el favor de la nobleza francesa por su ingenio de mago, profeta y vidente, virtudes que no le fueron suficientes para predecir la muerte en la guillotina de sus clientes.
 
Pero quizá el designio que ha tenido la más grande influencia en la cultura occidental y que ha cambiado radicalmente la vida de una mayor cantidad de gente es el referido al día del Juicio Final. La religión cristiana enseña que en esa fecha ocurrirá el segundo advenimiento de Jesucristo. Será el último de nuestro mundo; Dios juzgará a sus enemigos, los muertos resucitarán, cada alma será ponderada, los justos serán separados de los malvados y la furia de un Dios Padre colérico e iracundo caerá sobre ellos.1
 
¿Para cuándo se vaticina ese día? Ésta es una de las preguntas más interesantes en la historia de la cristiandad. Según el Libro de las Revelaciones2, la fecha fatal vendrá exactamente siete mil años después de la creación del mundo pues, afirman, Dios fabricó al mundo en seis días y descansó el séptimo. Y dado que su tiempo no es el nuestro “No ignoréis esto que os digo: que un día es para el Señor como mil años y que mil años son su día” (Pedro 3:8).
 
El fin del mundo ocurrirá a la medianoche del último día de una semana de Dios, siete mil años nuestros. Esto implica que para conocer con precisión la fecha del fin del mundo, lo único que se necesita es saber cuándo exactamente fue el principio3 y sumarle siete milenios.
 
Esta tarea ha sido y seguirá siendo emprendida por mucha gente: Sexto Julio Africano (180-250) anunció que el cataclismo sería en el año 500 de nuestra era. Como resulta evidente, le fallaron las cuentas y su revés estimuló a otros a probar suerte. Entre ese cúmulo destaca el monje francés Radulfo Glaber, quien determinó que la fecha fatídica sin lugar a dudas era el año 1000. A diferencia del Africano, Glaber estuvo vivo para soportar la vergüenza de su fracaso, que no fue lo suficientemente grande para inhibirlo e impedir que lo intentase de nuevo. Esta vez alegó que el verdadero fin del mundo vendría en el 1033, el milenio de la pasión de Cristo. Sus fiascos tuvieron como feliz e involuntaria consecuencia el incremento del patrimonio artístico de la humanidad, pues los fieles —agradecidos de no haber sido testigos del día del Juicio Final— se dieron a la explosiva construcción de iglesias góticas por toda Europa.
 
Tiempo después, el arzobispo anglicano primado de Irlanda4, monseñor James Ussher (1561-1656), anunció con absoluta precisión el momento exacto de la creación: las 12:00 horas del 23 de octubre del 4004 antes de Cristo, ni un minuto más ni un minuto menos. Si le sumamos siete mil años a esta fecha para saber cuándo este mundo pecador dejará de existir, ¡resulta que la catástrofe ocurrió el 23 de octubre de 1997 y no nos dimos cuenta!
 
La primera plana del diario La Jornada del 24 de octubre consigna en sus titulares: Caída de 4.5% en la Bolsa, el peso retrocede. ¿Será que Dios usó el índice de valores de la Bolsa como balanza para separar justos de pecadores?
 
Predecir o no predecir...
 
Augures, adivinos, profetas, quirománticos, teólogos, políticos y todo un ejército de profesionales de la adivinación han extasiado a la humanidad durante siglos, y por lo que se ve ninguno ha acertado en sus vaticinios. ¿Por qué diablos los meteorólogos lo han de hacer?
 
—“Porque son científicos y la ciencia predice” —responderían a coro positivistas, empiricistas, estadísticos y seguidores del Círculo de Viena.
 
—“Nada de eso” —exclamaría Karl Popper (1902-1994), filósofo inglés que se inscribió en la escuela del indeterminismo metafísico. —“Pensar que si se tiene el suficiente conocimiento de la física y de la química, usted podría predecir lo que Mozart escribiría mañana, es una hipótesis ridícula.”
 
—“Predecir no es explicar...”, terciaría René Thom.
 
¿Quién tiene la razón? A mi juicio, la discusión sobre el posible papel predictivo de la ciencia es estéril. En todo caso, primero habría que alcanzar un acuerdo sobre qué quiere decir exactamente “predecir”. El determinismo es un concepto importante por la relación que guarda con la noción de predictibilidad. La Enciclopedia Británica define claramente: “Determinismo. Teoría de que todos los eventos, incluyendo las elecciones morales, son totalmente determinados por causas preexistentes. Esta teoría afirma que el universo es completamente racional, puesto que el conocimiento total de una situación dada asegura el conocimiento inequívoco de su futuro.”
 
Si un esquema es predecible, entonces tiene que ser necesariamente determinístico, mientras que lo contrario no es cierto. Diversos autores hacen la distinción entre lo que es la predicción y la predicción estadística. En este ensayo concibo a la primera en el sentido del determinismo laplaciano y no voy a referirme a la segunda (para mí, la afirmación: “la probabilidad de que en el próximo volado caiga águila es del 50 por ciento”, definitivamente, no predice cosa alguna).
 
 
Coincido con la frase de Thom. Desde mi punto de vista, el papel principal de la ciencia es explicar. Si su tarea fuese predecir estaría en un grave aprieto, pues parece ser que los sistemas de la naturaleza que constan de varios elementos interactuantes entre sí de manera no lineal son intrínsecamente impredecibles. Para elaborar esta afirmación tendremos que revisar algunos conceptos clásicos y presentar al protagonista de este ensayo: el Caos.
 
Caos ¿de dónde viene la palabra?
 
En 1580 nació Jan Baptista van Helmont en Bruselas, ciudad que en ese entonces formaba parte de los Países Bajos españoles. Van Helmont descubrió que existen otros gases además del aire, y demostró que los vapores emitidos por combustión de carbón eran los mismos que se producían al fermentar el jugo de las uvas (bióxido de carbono). Fue él quien inventó la palabra “gas” a partir de la voz griega χαοσ(caos).
 
 
Si pensamos por un momento que el fenómeno que estamos estudiando obedece una función periódica, entonces basta con conocer el perfil de la función en uno de sus periodos para poder predecir infinitamente tanto al futuro como el pasado. Si esa función tuviese el doble de información para mantener nuestra capacidad de predicción infinita, si el periodo fuese diez mil, diez mil veces sería la información original. ¿Y si el periodo fuese infinito? Pues requeriríamos una información infinita, o lo que es lo mismo, en este caso la predicción sería imposible.

 
¿Por qué eligió ese término y no otro? Van Helmont era individuo cultivado y con buena educación5, y aprovechó un vocablo griego cuyos varios significados se pueden asociar con las propiedades de un gas.
 
Si nos ubicamos en una época en la que posiblemente era un poco difícil concebir la existencia de algo que no se pudiese ver o tocar, podremos comprender porqué la elección cayó sobre un término que, entre sus múltiples acepciones6, tiene las siguientes: primer estado del universo; materia amorfa; extensión o envergadura del universo; abismo inferior; oscuridad infinita, y oquedad o abismo muy vasto7. Para los antiguos griegos el abismo aludido es el Tártaro, el inframundo, aún más bajo que el Hades, en donde pululaban las almas de los difuntos.
 
El sentido moderno que tiene la palabra caos —como sinónimo de desconcierto, confusión, embrollo, lío, etcétera— fue forjado por Publio Ovidio Nasón (43 ac-17 dC) en sus Metamorfosis, un enorme poema en versos hexámetros que es una colección de mitos y leyendas. Las historias se desenvuelven en orden cronológico; la primera y la última se refieren a la creación del orden a partir del caos. La primera metamorfosis es la transición de un universo amorfo y desordenado a uno ordenado: el Cosmos8. La última metamorfosis, la culminante, es la muerte y deificación de Julio César; la transformación del caos de las guerras civiles romanas en una paz brillante y magnífica: la paz augusta.
 
Los antecedentes
 
Galileo sentó las bases de la ciencia moderna al matematizar algunos fenómenos de la mecánica; él es uno de los “gigantes” en los cuales se apoyó Newton para concebir y producir su obra magnífica, tanto que una vez complementada por pensadores de la talla de los Bernoulli, Laguerre y Laplace, nos heredó una visión de un universo completamente racional y en el que, cual mecanismo de relojería, el conocimiento de la reglas de funcionamiento y de las condiciones en un instante dado, nos garantizan el conocimiento inequívoco de todo el futuro.
 
 
La teoría newtoniana se ganó el respeto y la admiración de todos cuando Halley, en 1705, pudo predecir con gran exactitud el retorno del cometa que ahora lleva su nombre. La posibilidad de predecir los eventos futuros generó un gran entusiasmo que fue formulado por Pierre Simon, Marqués de Laplace (1749-1827)9 y que coincide conceptualmente con el bello canto del poeta persa Omar Jayam (1048-1131) refiriéndose al Creador: “Y la primera mañana de la creación escribió lo que se leería en la cuenta final del último día”.
 
Curiosamente, también fue Laplace uno de los fundadores de la teoría de las probabilidades, aunque el azar para él era una medida del desconocimiento o ignorancia humana de las condiciones de un sistema. A partir del tiempo de Laplace, los fenómenos naturales que cambian al transcurrir el tiempo se encajonaban en dos clases: los llamados sistemas determinísticos —cuyo estado presente determina de manera unívoca y predecible su estado futuro— y los aleatorios, en los cuales el estado futuro puede ser cualquiera y no se puede predecir sino a la luz de una distribución de probabilidad.
 
Hasta tiempos recientes, esta dicotomía ha sido guía de trabajo de la gran mayoría de los científicos; el escenario estaba perfectamente claro: los fenómenos son determinísticos y, en ese caso, predecibles; la única barrera para conocer el futuro es nuestro grado de conocimiento (o ignorancia) de las condiciones iniciales y de las ecuaciones dinámicas del sistema. O bien, son azarosos y tenemos que conformarnos con conocer sus propiedades probabilísticas y renunciar al sueño de la predicción.
 
En pocas palabras: un universo como maquinaria perfecta de relojería, como una película en la cual aunque no hayamos visto los cuadros futuros ya están ahí, esperando que llegue el momento de ser proyectados. O un universo en el que Dios decide todos los detalles y, por lo tanto, es inaccesible al conocimiento humano, dado que Dios es una metapresencia, y entonces para los humanos el transcurso de la historia es ciego y azaroso.
 
Newton resolvió el problema de dos cuerpos afectándose mutuamente debido a su atracción gravitacional: cada uno de ellos viaja en una órbita elíptica en torno al centro de masa común, y el comportamiento es periódico y predecible por siempre. De esta manera se podría concluir que la Tierra girará alrededor del Sol por los siglos de los siglos y que este sistema es completamente estable. Sin embargo, el problema es que la Tierra y el Sol no son los únicos cuerpos del sistema solar, pues se hallan acompañados de otros planetas con sus respectivas lunas.
 
Una serie de notables matemáticos —vale la pena mencionar a Félix Delaunay (1845-1896)— se dieron a la tarea de avanzar un escalón más, resolviendo el problema de tres cuerpos; para estimular estos esfuerzos, en 1887 el rey de Suecia ofreció un premio de 2 mil 500 coronas a quien demostrase que el sistema solar es estable.
 
Henri Poincaré se llevó el premio con su trabajo Acerca del problema de los tres cuerpos y de las ecuaciones de la dinámica. En el camino no sólo desarrolló técnicas matemáticas muy poderosas —la teoría de las expansiones asintóticas y el estudio de ecuaciones diferenciales con singularidades–, sino que inventó la topología, una nueva rama de la matemática que la revolucionó por completo. Sin embargo, su solución sólo es parcialmente correcta.
 
Poincaré trabajó el modelo reducido de Hill. En este modelo se supone que el tercer cuerpo es demasiado pequeño con respecto a los otros dos, y que su existencia no los afecta (pero la de ellos sí afecta al pequeño). Bajo estas premisas, ya sabemos que los dos cuerpos grandes se moverán en órbitas elípticas y, por lo tanto, su movimiento es periódico (ver recuadro página opuesta) y, por ende, estable y predecible.
 
Poincaré se esforzó por demostrar que el movimiento del cuerpo pequeño era también periódico, pero lo que encontró lo llenó de asombro: “...Se queda uno tan pasmado ante la complejidad de esta figura, que ni siquiera intentaré dibujarla...”10
 
El tercer cuerpo seguía una trayectoria aperiódica, irregular e impredecible, pese a estar sujeta a leyes determinísticas. El pasmo no era para menos: Poincaré se encontró de frente con un comportamiento dinámico que desafiaba todo lo que los matemáticos y físicos habían creído hasta ese momento; algo que parecía una criatura mitológica, una mezcla inconcebible de orden con desorden, de determinismo con aleatoriedad, de armonía y confusión. Ese monstruo se llama Caos, y aunque Poincaré lo tuvo en sus manos, no pudo identificarlo cabalmente ni aprovechar todas sus consecuencias científicas y filosóficas. Era un descubrimiento prematuro para su tiempo; por eso Poincaré no pudo —pese a ser un gran filósofo de la ciencia— evaluar su magnitud. No obstante, se dio perfecta cuenta de que la mecánica clásica ya no sería la misma: “...Sucede que pequeñas diferencias en los estados iniciales producen diferencias enormes en el estado final. Un pequeño error en los primeros se traduce en un error enorme en el último. La predicción se vuelve imposible, y entonces decimos que tenemos un fenómeno azaroso.”
 
El mérito de Poincaré es indiscutible; con la invención de la topología abrió un camino alternativo ante el desarrollo exclusivamente analítico del estudio de los sistemas dinámicos que había impulsado Laplace, y devolvió la mecánica a su cuna: la geometría. No estaría de más que los topólogos contemporáneos recordasen que su disciplina —considerada entre las más abstractas— nació de la física.
 
El trabajo de Poincaré fue continuado por una gran serie de luminarias. Desgraciadamente sería imposible contar aquí la historia con detalle. Reconociendo que faltan más que los que están, quiero mencionar al menos a Birkoff, Kolmogorov, Sinaí, Arnold y Smale.
 
El mismo Lorenz
 
En 1963 apareció un artículo titulado “Deterministic Nonperiodic Flow” en The Journal of Atmospheric Sciences, firmado por Edward Lorenz. Hace 35 años éste tuvo la misma visión que Poincaré, pero él sí se percató de la magnitud de su (re)descubrimiento. Veamos algo del resumen del artículo: “...Estados iniciales pueden dar lugar a estados que difieren considerablemente... Todas las soluciones encontradas son inestables y casi todas son aperiódicas... La viabilidad de la predicción climática a largo plazo se discute a la luz de estos resultados.”
 
¿De qué soluciones está hablando? Lorenz describió un sistema de tres ecuaciones diferenciales de primer orden, ordinarias, acopladas y no-lineales, para modelar la convección térmica en la atmósfera. El análisis del sistema lineal asociado en las vecindades de los puntos críticos11 no le proporcionó ningún resultado interesante, pero una vez que puso a su computadora a calcular una solución numérica usando valores cercanos a un punto que el análisis lineal clasificaba como inestable, obtuvo resultados sorprendentes.
 
¡Dos corridas del mismo programa, con los mismos parámetros le daban soluciones distintas!
¿El fin del determinismo? ¡No! ¡Una nueva faceta del determinismo!
 
Descubrió que las dos corridas mencionadas del mismo programa diferían en el número de dígitos decimales en el estado inicial de una variable.
 
Según James Gleick12, “de repente se dio cuenta de lo que había sucedido. No había errores en las cifras que había escrito. En la memoria de la computadora se había guardado la cifra 0.506127 y Lorenz, al día siguiente, para ahorrar tiempo escribió 0.506. Lorenz pensó que la diferencia —una parte en diez mil— no tendría consecuencias”.
 
Lorenz había descubierto el llamado efecto mariposa: una pequeñísima perturbación —el aleteo de una mariposa en el Amazonas— podría desencadenar un efecto mayúsculo —un tornado en Texas. Este efecto es el que menciona en el resumen de su artículo, y es lo que ahora se conoce técnicamente como la sensibilidad de un sistema a sus condiciones iniciales.
 
Esta es una de las características más interesantes del caos; una causa pequeña puede producir efectos enormes; las fluctuaciones se amplifican de manera que el resultado de una perturbación no guarda proporción con la magnitud de ella. ¡Esta es la esencia misma de la no linealidad!
 
Imaginemos ahora que un movimiento insignificante del aire modificó en décimas de milímetro el vuelo de una abeja en el pleistoceno temprano; que gracias a eso la abeja no se vio atrapada en una tela de araña y sobrevivió para fecundar una flor. Que la flor dio lugar a un fruto y que éste cayó del árbol justo en el momento que un homínido pasaba; éste lo tomó y se lo ofreció a una homínida que pasaba; ella se sintió obligada a agradecerle de alguna forma y si no hubiera sido por ello, la humanidad no se hubiera originado jamás. Si la abeja hubiera muerto, la humanidad no existiría... ¡Caray!
 
Este cuento ilustra las nociones de amplificación de las fluctuaciones y de la sensibilidad ante condiciones iniciales, pero no debe tomarse demasiado a la letra; la humanidad hubiera surgido de cualquier modo. Esto se debe a que el caos no es únicamente la sensibilidad ante las condiciones iniciales. Los sistemas caóticos tienen otro rasgo importante que, por falta de espacio, no nos será posible explorar aquí: la existencia de atractores extraños. Con esta noción se entiende por qué los sistemas dinámicos son robustos ante contingencias históricas.
 
Resumamos. Lorenz encontró que un sistema determinístico puede producir resultados aperiódicos e impredecibles, esa paradoja que relaciona dos comportamientos considerados hasta ese momento como incompatibles: determinismo y azar, se llama ahora Caos determinístico. Antes se pensaba que el azar surgía como resultado de nuestra ignorancia acerca de la totalidad de causas que se involucran en la evolución de un sistema; en pocas palabras, que el mundo era impredecible por ser complicado.
 
Recientemente se ha descubierto una serie de sistemas que se comportan de manera impredecible, pese a que las causas que los gobiernan son completamente conocidas, y a que son relativamente simples. Tales sistemas tiene en común la no linealidad y exhiben sensibilidad en las condiciones iniciales.
 
Por ser más complicados que sus contrapartes lineales, los sistemas no lineales habían sido poco estudiados; por lo tanto, la ubicuidad del caos no se había detectado. En su candor, los físicos estaban convencidos de que la predictibilidad era una consecuencia natural de una estructura teórica correctamente establecida, que dadas las ecuaciones de un sistema, únicamente restaría hacer las cuentas para saber cómo se va a comportar.
 
La historia reciente
 
En el medio matemático se atribuye a T.Y. Li y J.A. Yorke la acuñación del término caos para referirse al comportamiento determínistico, pero irregular y aperiódico. En su celebrado artículo “Period Three Implies Chaos” publicado en 1975, en el American Mathematical Monthly, demostraron que si un mapeo continuo de un intervalo a la recta real tiene un punto de periodo tres, entonces ese mapeo exhibe comportamiento caótico. A su vez, Yorke opina que R. May y G. Oster fueron “…los primeros en comprender cabalmente la dinámica caótica de una función de un intervalo en sí mismo”.
 
Es posible que Yorke haya acuñado el término, pero el primer artículo en donde yo pude encontrar en su título la palabra caos fue en el de R. May: “Biological Populations with Nonoverlapping Generations: Stable Points, Stable Cycles and Chaos”, publicado en 1974 en Science, que antecede al de Li y Yorke en un año. La afirmación de Yorke acerca de la primicia en comprender la dinámica de los mapeos unidimensionales es llanamente falsa: en 1964, el matemático soviético A.N. Sharkovsky publicó en la revista ucraniana de matemáticas Ukrainskii Matematicheskii Zhurnal un artículo llamado “Coexistencia de ciclos de un mapeo continuo de la línea en sí misma”, en el cual presenta de manera rigurosa y perfectamente bien fundamentada lo que May y Oster tardaron una década en comprender (Robert May reconoce que desconocía el trabajo de Sharkovsky). De paso, se debe mencionar que el resultado de Li y Yorke es un caso muy particular del teorema de Sharkovsky.
 
 
En 1982, el académico Sharkovsky y yo paseábamos por las ruinas de Xochicalco; yo intentaba explicarle lo que significaba Quetzalcóatl y él me miraba condescendientemente y me decía que ya lo sabía, que en Europa también había dragones. Temas recurrentes durante el paseo fueron la injusticia que Sharkovsky sentía por la apropiación de Yorke del crédito que a él le correspondía, y su disgusto con Guillermo Gómez —de la Facultad de Ciencias de la unam— por haberlo hecho trabajar demasiado sin respetar su edad venerable durante esa misma visita a México.
 
Conclusiones
 
El caos ya es un concepto que ha ganado su legitimidad en la ciencia. Resulta imposible hacer una lista de quienes han contribuido a su fundamentación teórica y a sus aplicaciones en las más diversas áreas del conocimiento. El caos ya existe como especialidad científica por derecho propio, y la mayoría de las universidades e institutos de investigación científica del mundo han abierto centros o departamentos de las disciplinas que explotan y desarrollan el concepto de caos: la dinámica no-lineal y la teoría de los sistemas complejos.
 
El avance de las ideas asociadas con el caos no ha sido fácil: en sus inicios se topó con la resistencia frontal de los científicos del establishment; aún hoy existe oposición y escepticismo en ciertos grupos conservadores a aceptar la ubicuidad de los comportamientos no-lineales en la naturaleza, y al caos como su consecuencia genérica.
 
También es preciso reconocer que ha surgido toda clase de charlatanes quienes han encontrado en este lenguaje novedoso una fuente inagotable de ideas para nutrir modas tipo new age, ecomísticas y esotéricas. Esto no debe constituir una fuente de preocupación: no hay revolución científica que no le resulte atractiva a multitud de oportunistas que intentan justificar sus ideas apoyándose en su muy particular interpretación de leyes naturales o hipótesis científicas. Recordemos el uso indebido, y muchas veces criminal, que ha tenido la teoría de evolución por selección natural por parte de eugenésicos, políticos y, más recientemente, algunos sociobiólogos y psicodarwinistas.
 
Hay definiciones formales del caos y los conceptos que se derivan de él. El lector interesado puede consultar algún texto de sistemas dinámicos13, pero creo que toda teoría científica requiere sus metáforas propias y que, gracias a éstas, cualquier persona podrá darse una idea de la teoría más complicada. En el caso de la teoría del caos, les propongo la de Germinal Cocho, del Instituto de Física de la unam: “El caos es un desmadre armónico”.
 
Esta caracterización me es particularmente grata, no sólo porque Germi es mi maestro —y lo ha sido de generaciones de matemáticos, físicos y biólogos en México—, sino porque es la más fácil de ver. Recuerde usted la mejor fiesta que haya tenido en su vida; la más divertida, en la que más ha gozado; una fiesta en la que se haya bailado y cantado hasta el cansancio. Yo le puedo apostar lo que quiera que no fue una fiesta en la que alguien pretendió que fuera completamente ordenada: todo el mundo bailando ordenada y disciplinadamente “la Macarena” o alguna canción de Bronco en perfecta formación, o cantando partitura en mano bajo la dirección de un espontáneo director de coro. Tampoco fue una fiesta en la cual cada quien, de manera individual, estuvo cantando y bailando simultáneamente canciones y ritmos distintos. Seguramente fue un guateque con la dosis precisa de coherencia y despapaye para hacerla memorable y divertida; es decir, caótica.
 
Karl Popper murió sin comprender —pese a que se jactaba, sin fundamento, de ser su descubridor— lo que es el caos. Si hubiera tenido tiempo para hacerlo, probablemente nunca hubiera afirmado lo que yo cité antes; ahora sabemos que el perfecto conocimiento de las leyes de la física y la química no garantizan el poder de predecir. De hecho, sistemas físicos tan simples como un péndulo en el cual la masa se sustituye por un doble brazo con capacidad de giro, para los cuales se conocen perfectamente sus leyes, son igual o más impredecibles que una ruleta. También da muerte al indeterminismo metafísico y al determinismo laplaciano: el caos determínistico es una síntesis dialéctica de ellos.
 
Para poder hacer predicciones en un sistema caótico sería necesario conocer con infinita precisión las condiciones iniciales de un sistema; es imposible, pues implica una cantidad infinita de información. Esto nos obliga a modificar la idea que tenemos acerca de la definición misma de ciencia, pues una de las premisas más aceptadas de lo que constituye el trabajo científico es que el resultado de un experimento sea reproducible. Ello no es posible en sistemas caóticos. La idea de la reproducibilidad como condición para que algo sea científico o no, tendrá que modificarse; será necesaria una etapa de reflexión y asimilación de todas las consecuencias que trae consigo el concepto de caos. Posiblemente será necesario rescatar las definiciones de ciencia que no la hacen depender del trabajo experimental; habrá que releer las propuestas de P.K. Feyerabend, cuando sugiere una ciencia sin experiencia. No lo sé, pero las cosas tendrán que cambiar.
 
Sin embargo, los meteorólogos no tienen por qué abandonar su trabajo. Dado que es posible conocer con precisión limitada las condiciones iniciales, también lo es hacer predicciones limitadas del futuro de un sistema. Se habla, entonces, del horizonte de predictibilidad de algún fenómeno o modelo.
 
Un sistema azaroso tiene un horizonte nulo de predictibilidad; el sueño de Laplace es un horizonte infinito. Los sistemas caóticos tienen horizontes de magnitudes que dependen de parámetros intrínsecos del fenómeno o modelo, y de la escala temporal de los mismos.
Por ejemplo: el sistema solar es inestable y caótico, pero el que un planeta de repente se fugue de su órbita y se pierda en el universo es perfectamente factible. Sin embargo, el horizonte de predictibilidad del sistema solar se estima en unos 20 millones de años, por lo que no debemos preocuparnos demasiado de que la Tierra se vaya a buscar otra estrella.
 
En el caso de la meteorología, se calcula que el horizonte de predictibilidad es de cuatro a siete días, y esto no depende de los métodos y computadoras empleados en hacer las cuentas. Durante algún tiempo se pensó que con el desarrollo de una vasta red de satélites que proveyeran información de alta calidad, sumado al progreso innegable de computadoras cada vez más poderosas, se podría extender ilimitadamente el horizonte de predictibilidad climática. Esta es otra ilusión perdida. En una visita que Ian Steward hizo al European Medium-Range Weather Forecasting Centre, le dijeron: “Podemos predecir el clima con precisión, siempre y cuando no ocurran cosas inesperadas”.
 
Colofón
 
Tengo que confesar que dejé para el final una buena parte de la historia remota: Antes de que Ovidio le confiriera al caos su sinonimia con desorden y anarquía, un escritor griego, Hesíodo, quien nació en Boecia en el siglo VIII antes de nuestra era, le legó a la humanidad la recopilación más ambiciosa y completa que existe de la mitología griega. En ella aprendemos, como lo referí arriba, que Caos fue el estado primigenio del universo.
 
Lo que no mencioné es que Caos es padre de Eros y, como todos lo sabemos, Eros —el amor— es la máquina que mueve al mundo.Chivi51
El título del artículo fue tomado de una frase de Ian Steward en su bellísimo y altamente recomendable libro Does God Play Dice? (Penguin Books, 1997).
Referencias bibliográficas
 
1. Para aclarar cualquier duda acerca del temperamento del Señor hay que mirar la escena correspondiente al juicio final en la decoración de la Capilla Sixtina de Miguel Ángel
2. También llamado El Apocalipsis de San Juan. Es el último libro del nuevo testamento, se piensa que fue escrito por varios autores anónimos a finales del siglo I de nuestra era y posteriormente atribuido a Juan, el discípulo favorito de Jesús.
3. Para un recuento a la vez gracioso y crítico de las vicisitudes de este cálculo, se recomienda el reciente libro Questioning the Milennium, de Stephen Jay Gould (Random House, 1997).
4. En el citado libro, Gould hace un divertido juego de palabras con la expresión inglesa The primate of Ireland, que lo mismo significa «el arzobispo primado de Irlanda» que «el simio irlandés».
5. Van Helmont estudió en la prestigiada Universidad Católica de Lovaina y necesariamente tuvo que haber aprendido griego clásico. Se graduó como médico en 1599 y trabajó como profesor de la misma universidad hasta que fue echado del cuerpo profesoral en 1622 por adherirse al trabajo de Phlippus Aureolus Theophrastus Bombastus von Honenheim “Paracelso” (¡que nombre!). En 1625 la Santa Inquisición condenó su obra por considerarla “herética, arrogante, imprudente y luterana”. Fue colocado en arresto conventual en 1634 por la Iglesia Católica y posteriormente fue rehabilitado públicamente en 1652, años después de su muerte, ocurrida en 1644.
6. A Greek-English Lexicon. H.G. Lidell. (Clarendon press, 1996).
7. Es interesante notar que la palabra inglesa para abismo es chasm, que se deriva directamente de caos.
8. La oposición dialéctica entre caos y cosmos es fuente generosa de inspiración: «El mundo, para el europeo, es un cosmos, en el que cada cual íntimamente corresponde a la función que ejerce; para el argentino es un caos». J.L. Borges (1899-1986), “A todo caos le corresponde un cosmos, a todo desorden un orden oculto”. Carl Jung (1875-1961).
9. “Una inteligencia que conociese en un momento dado todas las fuerzas que animan la Naturaleza y también las posiciones de los objetos que la componen, si esta inteligencia fuera capaz de analizar esos datos y condensar en una fórmula el movimiento tanto de los objetos más grandes del universo así como del átomo más modesto, para esta inteligencia, no existiría la incertidumbre, y tanto el futuro como el pasado desfilarían ante sus ojos.”
10. Poincaré no se refería a la forma de la trayectoria de la partícula, sino a una sección de Poincaré del espacio fase. Consultar el libro citado de Ian Steward.
11. Ver Ciencias, abril-junio de 1997, páginas 30-40.
12. James Gleick, Chaos, Penguin Books, 1987.
13. Por ejemplo, ver Deterministic Chaos, de Peter Schuster, Vch Publications, 1995, o bien, First Course in Dynamical Systems, de Robert L. Devaney, Addison-Wesley, 1992.
Pedro Miramontes Vidal
 
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Miramontes Vidal, Pedro. (1998). Predecir el clima es una cosa, predecirlo correctamente es otra. Ciencias 51, julio-septiembre, 4-11. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
El fenómeno del El Niño y la oscilación
del sur. Sus impactos en México
 
Víctor Magaña Rueda, José Luis Pérez
y Cecilia Conde
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Uno de los mayores retos en las ciencias atmosféricas ha sido entender los cambios que anualmente se producen en el clima. Condiciones extremas son, por ejemplo, los periodos de secas, que en ocasiones han producido cosechas pobres, hambruna y migraciones masivas. Hoy en día, no sólo la agricultura se ve afectada por la variabilidad en el clima, sino también otras actividades económicas —generación de energía eléctrica, pesca e incluso la salud.
 
En las últimas tres décadas se ha encontrado que la variabilidad interanual en el clima está relacionada en gran medida con el fenómeno de El Niño. Es común escuchar que la sequía es consecuencia de El Niño, que el huracán Paulina se debió a que estamos en año de Niño, las lluvias en Tijuana y otras. Pero, ¿hasta qué punto realmente El Niño es culpable de tales fenómenos? ¿Las tragedias descritas en los noticiarios pudieron haber sido previstas y, consecuentemente, prevenidas? Para contestar es necesario analizar qué sabemos sobre el sistema climático en general, y sobre el fenómeno de El Niño y sus impactos en México en par­ticular.
 
 
Ya desde el siglo pasado, científicos y adivinos intentaban pronosticar. Por ejemplo, el monzón de verano en la India ha sido parte de la vida misma de ese país; por ello los ingleses —con grandes intereses en la zona— iniciaron estudios sobre su predicción. Utilizando los datos disponibles en ese tiempo, como la presión atmosférica en superficie, el científico Gilbert Walker encontró que cuando la presión en superficie en Darwin, Australia, era en promedio más baja de lo normal, en el océano Pacífico central era más alta que normalmente (en Tahití, por ejemplo). Esta especie de sube y baja en la presión, con periodos de dos a cuatro años, se denominó Oscilación del Sur (Figura 1).
 
 
Figura1
Figura 1. Esquema de las condiciones en la atmósfera y el océano Pacífico tropical, A) Normal, y B) Durante años de Niño.

 
 
Por su parte, los pescadores de las costas del Perú encontraron que en ciertos años las aguas donde trabajaban estaban más calientes de lo normal, lo que ocasionaba que la pesca fuera pobre. Como la anomalía en la temperatura del océano alcanzaba un máximo hacia finales de año, los hombres de mar asociaron esta especie de corriente de agua caliente con la llegada del niño Jesús, por estar próxima la Navidad.
 
 
En los años 50 y 60, el meteorólogo Jacob Bjerknes estableció que la llamada Oscilación del Sur y la corriente de El Niño eran parte de un mismo fenómeno climático, que involucraba interacciones de la atmósfera y el océano Pacífico tropical. Desde entonces se han desarrollado muchas teorías para explicar el origen del ahora llamado fenómeno de El Niño/Oscilación del Sur. Aquellas que parecen física y dinámicamente más plausibles son las que involucran formas de inestabilidad en la interacción del océano y la atmós­fera, que corresponden a ondas ecuatoriales. Sin embargo, existen otras teorías menos posibles, las cuales proponen que El Niño puede ocurrir debido a fluctuaciones en la actividad solar o en la actividad volcánica terrestre. Aunque tienen menor aceptación en la comunidad meteorológica, mientras no contemos con una teoría completa que permita explicar a El Niño, éstas deben ser consideradas.
 
 
En el Pacífico tropical, los vientos dominantes cerca de la superficie provienen del este y se denominan alisios, y tienden a acumular el agua más caliente ­hacia el lado oeste, alrededor de la región de Australia e Indonesia (Fig. 1a). Por ser elevada la temperatura de superficie del mar (>28°C), el aire es más ligero y forma una atmósfera inestable en la que hay gran formación de nubes y lluvias intensas. En cambio, el Pacífico tropical del este es más frío (<25°C), por presentarse surgencias de agua del fondo del océano. Sus aguas son ricas en nutrimentos, razón por la cual algunas de las pesquerías más ricas en el mundo se encuentran frente a las costas de Perú. Sin embargo, la presencia de aguas relativamente frías inhibe la formación de nubes profundas, por lo que se tiene poca lluvia en las costas de Perú y Chile.
 
 
Durante años de Niño, los vientos alisios en el Pacífico se debilitan; así, las aguas más calientes del Pacífico tropical se esparcen a lo largo del ecuador (Fig. 1b). Aunque no parece un gran aumento en la temperatura del Pacífico del este (~2°C), la cantidad de energía (calor) involucrada sí aumenta, y de ahí los cambios que se dan en el clima global.
 
 
Con la aparición de una zona de agua caliente en el Pacífico central y del este, aparecen nubes cumulunimbus profundas y precipitaciones intensas sobre esta parte de los trópicos. Tal corrimiento en los patrones de lluvia no se debe a mayor evaporación in situ, sino a mayor convergencia de humedad en la región. Con tales cambios, donde antes llovía poco (por ejemplo, en las islas del Pacífico del este o Perú) ahora se producen lluvias intensas e incluso inundaciones, mientras que donde antes llovía mucho lloverá menos y habrá sequías, como en el Pacífico del oeste (Indonesia, norte de Australia...).
 
 
En los últimos años se ha encontrado que El Niño puede alterar el clima de regiones tan distantes como Estados Unidos o Sudáfrica. Por ejemplo, la influencia de El Niño se siente en el nordeste del Brasil, donde se producen sequías intensas, con el consecuente impacto en la agricultura. En Australia, la agricultura y ganadería también resultan afectadas por la sequía, mientras que en California se establecen planes de prevención de desastres ante las fuertes lluvias de invierno y las inundaciones que provocan. Los costos se calculan en cientos de millones de dólares.
 
 
Pero no se piense que el fenómeno de El Niño es una amenaza apocalíptica que va a terminar con la humanidad. En realidad tal tipo de variabilidad en el clima ha existido desde siempre. Los seres humanos y los ecosistemas se han adaptado a tales extremos en el clima. Quizá hoy estos fenómenos causen más preocupación por afectar a más personas. Es natural; el desmedido aumento de la población ha obligado a establecer asentamientos en zonas que pueden ser muy afectadas por fenómenos naturales; así, la posibilidad de que un huracán cause daños a un núcleo de población es mayor si existe más gente viviendo en laderas de cerros o en lechos de ríos.
 
 
Además de El Niño, también se habla de su contraparte, La Niña, que corresponde a anomalías negativas en la temperatura superficial del Pacífico tropical del este. Al parecer, La Niña provoca eventos climáticos contrarios a los experimentados durante El Niño. Por ejemplo, en Australia o Indonesia en vez de sequía durante El Niño, lloverá más de lo normal. Sin embargo, aún no es claro que los efectos en el clima de otras regiones sean “simétricos” entre periodos de El Niño y La Niña. Al parecer, esta última resulta en un regreso a lo que consideramos las condiciones climáticas normales.
 
 
Se sabe que aunque el clima durante años de Niño tiende a ser anómalo en cierta dirección (más o menos lluvias, huracanes y otros), hay grandes variantes en las respuestas climáticas de un año de Niño a otro, por lo que se habla de la no linearidad del sistema océano-atmósfera. Por otra parte, a un evento de El Niño no siempre sigue uno de La Niña, mostrando la no periodicidad de este fenómeno. Esto resulta en serias complicaciones para la predicción del clima.
 
Los impactos en México
 
Fenómenos meteorológicos
 
En nuestro país el fenómeno de El Niño tiene grandes repercusiones. De manera general podemos decir que las lluvias de invierno en años de Niño se intensifican —como ocurrió durante los inviernos de 1982-1983, 1986-1987 y 1991-1992 (ver tabla)— y se debilitan durante los correspondientes veranos. Lo opuesto ocurre aproximadamente durante años de La Niña.
 
En inviernos de El Niño, la corriente en chorro de latitudes medias se desplaza hacia el sur, provocando una mayor incidencia de frentes fríos y lluvias en las zonas norte y centro de México. El impacto de El Niño en las lluvias de invierno no es siempre el mismo, principalmente cuando se analizan los cambios a nivel regional. Eventos como el de 1986-1987 parecen haber resultado en sólo un ligero aumento de las lluvias del centro del país. Incluso El Niño de 1982-1983, aunque produjo lluvias invernales por encima de lo normal, tuvo un impacto aparentemente menor al del invierno de 1991-1992. Regiones como Baja California Norte o Sinaloa han experimentado algunas de las mayores inundaciones durante años de Niño. La intensidad del más reciente permitió que las lluvias torrenciales de invierno en Baja California fueran pronosticadas desde mediados de 1997.
 
 
Tabla. Porcentajes de Anomalías de Precipitación
  Invierno Verano
Región
Niño Niña Niño Niña
Baja California S.
50% –25% 70% –10%
Baja California N. 50% –25% 0% – 5%
Coahuila 150% –50% 20% 10%
Chiapas 40% –50% –30% 20%
Chihuahua
70% –30% –10% 0%
Durango
90% –80% –20% 0%
Guerrero
110% –90% –30% 10%
Jalisco
150% –50% –30% 10%
Michoacán              
260% –90% –30% 10%
Nuevo León
130% –20% –20% 30%
Oaxaca
10% 10% –50% 10%
Sinaloa
50% – 5% –10% 5%
Sonora
40% 0% –20% 0%
Tabasco
0%
0%
-10%
0%
Tamaulipas
190% 30% –10% 30%
Veracruz
20% –10% –10% 10%
Yucatán
50% –40% –20% 10%
 
 
 
Durante veranos de El Niño, las lluvias en la mayor parte de México disminuyen (ver tabla), por lo que la sequía aparece. En este periodo, la zona intertropical de convergencia del Pacífico del este —donde existe gran cantidad de nubes profundas y lluvia— tiende a permanecer más cercana del ecuador, por lo que la fuente de humedad para las lluvias en la costa oeste de México permanece alejada y las lluvias de verano no ocurren como se espera. Por el contrario, en años de Niña las lluvias parecen estar por encima de lo normal en la mayor parte de México, pero especialmente en la costa del Pacífico.
 
 
En verano, el país se ve afectado por huracanes; en años de El Niño aumenta su número en el Pacífico, mientras que disminuye en el Atlántico, Mar Caribe y Golfo de México. Tal relación tiende a revertirse durante años de Niña. Pero no es claro en qué parte del océano se formarán los huracanes y si tenderán a seguir trayectorias cercanas o alejadas de las costas mexicanas. Al parecer, la anomalía de agua caliente que ocurre en el Pacífico del este resulta en una mayor dispersión en la génesis y trayectorias de huracanes. Dicha anomalía puede alcanzar las costas mexicanas, aumentando la intensidad de los huracanes como parece haber sucedido con Paulina. Sin embargo, no se puede afirmar que la trayectoria seguida por éste a lo largo de Oaxaca y Guerrero se debió a El Niño o sea algo anómalo. Durante cada verano existe la posibilidad de huracanes entrando por las costas de nuestro país.
 
Los impactos económicos
 
En los años 1982-1983 los efectos de El Niño fueron severos, provocaron sequías, incendios y pérdidas estimadas en cerca 600 millones de dólares en las economías de México y Centroamérica. Durante los años 1991-1995 se estableció un periodo de Niño que, si bien no fue tan intenso como el mencionado, coincidió con una de las sequías más prolongadas en el norte de México. Ésta produjo problemas internos y externos por el uso de agua en las presas. Los reclamos por agua en la Presa de El Cuchillo o los conflictos con Estados Unidos por el líquido del Río Bravo fueron noticias de primera plana durante varios días.
 
El Niño más reciente provocó una disminución en las lluvias y, de acuerdo a cifras oficiales, se perdieron más de dos millones de toneladas de granos básicos y se produjeron daños por cerca de ocho mil millones de pesos. Lo anterior no incluye los efectos de las lluvias de Tijuana.
 
Un mayor conocimiento de los impactos del fenómeno de El Niño en las lluvias y, por tanto, en la disponibilidad de agua permitiría un mejor manejo de este recurso. Así, el hecho de que en inviernos de Niño haya más precipitación —principalmente en la región norte de nuestro país— permitiría administrar el agua de las presas. Existen también impactos de El Niño en pesquerías, salud y otras áreas, que apenas comienzan a ser estudiados. Condiciones de mayor humedad y calor en ciertas partes de Sudamérica y Centroamérica parecen ser propicias para que surjan epidemias de cólera o paludismo.
 
 
Para este 1997 y 1998 se ha detectado el desarrollo de uno de los eventos de El Niño más intensos de que se tiene registro. Muchos países han tomado acciones preventivas ante los posibles impactos negativos, pero también para aprovechar los positivos.
 
Además de un constante monitoreo sobre el clima, se ha comenzado a emitir pronósticos sobre la ocurrencia y evolución de El Niño, utilizando modelos de circulación del océano o técnicas estadísticas que toman en cuenta los cambios de temperatura superficial del mar que se dan en los últimos meses. Aunque al principio existía cierta discrepancia entre los resultados que los modelos entregaban, poco a poco parecen comenzar a mejorar y a volverse más precisos. Se ha desarrollado incluso un Instituto Mundial para Estudios de El Niño (International ­Research Institute) que coordina investigaciones de predicción, no sólo en lo que se refiere a la temperatura superficial del mar, sino también a los impactos que tendrá el fenómeno en otras regiones del planeta, tanto en temperatura como en precipitación.
 
La demanda de productos climáticos ha aumentado considerablemente. Productores agrícolas, aseguradoras, consorcios pesqueros, compañías genera­doras de energía, etcétera, tienen gran interés en conocer cuáles serán las condi­ciones climáticas probables, para considerarlas como elemento adicional de planeación.
 
Predictibilidad
 
Los límites en la predictibilidad del tiempo están impuestos por la naturaleza no lineal y a veces caótica del sistema atmosférico. El límite de dos semanas para pronósticos explícitos globales —como lo sugirió Edward Lorenz— es un valor generalmente aceptado.
 
En principio sólo sería posible pro­nosticar de manera determinística las condiciones de la atmósfera a menos de 15 días, lo cual hace imposible efectuar predicciones climáticas del tipo de las que se hacen para el tiempo atmosférico. Es por ello que el problema del pronóstico del clima debe ser analizado en su dimensión real. Por ejemplo, en predicciones a corto plazo (uno o dos días) se desea conocer en qué regiones del país lloverá o hará frío, dando valores a cada una de estas variables de manera precisa en el espacio y tiempo. Entre más corto sea el plazo de pronóstico, mayor es la precisión alcanzada.
 
El de largo plazo (climático) sólo trata de determinar en qué porcentaje se verán afectadas la condiciones en una cierta región del planeta. Así, en predicciones del clima se habla de anomalías, ya sea en lluvia, temperatura, etcétera. Tal información resulta de gran valor. En la mayoría de los casos se trabaja en un sentido probabilístico, a partir de la historia del clima de los últimos 50 años. Sin embargo, también se trabaja en comprender la circulación de la atmósfera y los mecanismos que la controlan, para de esta manera entender —desde el punto de vista físico— lo que la estadística sugiere. La naturaleza no lineal del sistema climático nos obliga a utilizar modelos numéricos para estudiar el clima.
 
En México estamos comenzando a trabajar en el desarrollo de esquemas de pronóstico a largo plazo. Para ello se realizan investigaciones con datos históricos, modelos dinámicos y campañas de observación que permiten definir de manera más adecuada los impactos de El Niño en el país. El mayor interés radica en explicar por qué no todos los fenómenos de este tipo resultan en las mismas anomalías climáticas. No es necesario esperar a conocer perfectamente todos los detalles de algún proceso climático para realizar pronósticos y hacer uso de ellos. Sí es importante conocer cuáles son las limitaciones de tales pronósticos, para no crear falsas expectativas.
 
Aunque existe una gran necesidad de saber con suficiente anticipación si habrá más huracanes afectando las costas mexicanas, lo más que podremos decir es si se esperan más sistemas de este tipo en esta parte del mundo, pero de ninguna manera si Acapulco sufrirá de nuevo el embate de un huracán como Paulina. Lo más importante es aplicar el principio de precautoriedad, aumentando las medidas de protección.
 
Acciones de mitigación y adaptación
 
La vulnerabilidad del país ante eventos muy fuertes de El Niño está en relación inversa con:
 
1. La difusión y comprensión de los pronósticos climáticos,
2. La capacidad técnica para aplicar medidas preventivas, y
3. La disponibilidad de recursos financieros para aplicar esas medidas
 
Brasil y Australia son ejemplos en cuanto a acciones estratégicas para mitigar y/o adaptarse a este evento. En ­Estados Unidos ya se han integrado comi­siones de prevención de desastres ante los potenciales impactos de El Niño.
 
En México ya pueden considerarse algunas acciones preventivas. Por ejemplo:
En la planeación de actividades de agricultura, contemplar como elemento de juicio los pronósticos de lluvias basados en información de El Niño.
 
Con la recarga de las presas en invierno se puede sugerir su administración en función de las prioridades productivas de la región (irrigación y ganadería, por ejemplo). Las presas de capacidad media tienen que permanecer en estado de alerta ante un posible desbordamiento. Con la recarga de las presas en invierno se debe evaluar la perspectiva de condiciones de sequía en verano (de prevalecer El Niño), revisando la posibilidad del uso racional del agua almacenada.
 
En las regiones urbanas es importante prever para el invierno las posibles inundaciones por lluvias intensas, dependientes del estado del alcantarillado. Si en el verano se presentan condiciones de sequía, será importante educar a la población y a las industrias para un uso racional del agua.
 
Durante los veranos bajo condiciones de fuerte Niño, es fundamental prevenir los incendios forestales. Además de difundir las medidas de seguridad entre los grupos de productores agrícolas que queman parte de los bosques, es también necesario difundir las medidas de alerta por la posibilidad de incendios naturales.Chivi51
Agradecimientos.
Expresamos nuestro agradecimiento al señor Rodolfo Meza, por su apoyo en la búsqueda de información sobre El Niño y sus impactos. Este trabajo ha sido apoyado financieramente por el proyecto PAPIIT-IN100697.
Víctor Magaña Rueda, José Luis Pérez y Cecilia Conde
Centro de Ciencias de la Atmósfera,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Magaña Rueda, Víctor y Pérez José Luis, Conde Cecilia. (1998). El fenómeno de El Niño y la oscilación del sur. Sus impactos en México. Ciencias 51, julio-septiembre, 14-18. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
El clima en la historia  
Gustavo Garza Merodio y
Mariano Barriendos Vallvé
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La climatología histórica es una especialidad de la paleoclimatología, que emplea como fuente básica de datos la información meteorológica/climática contenida en fuentes documentales históricas. Su introducción es relativamente reciente en el ámbito geográfico iberoamericano, pero tiene un potencial si se considera la enorme disponibilidad de documentación histórica que constituye, en definitiva, la fuente de información de tipo meteorológico-climático en la que se basan sus análisis paleoclimáticos.
 
En Hispanoamérica esta especialidad tiene una trayectoria limitada, con algunas iniciativas realmente interesantes pero carentes de la suficiente continuidad. Destaca el físico Manuel Rico Sinobas, que a mediados del siglo xix propuso un método de recopilación de informaciones meteorológicas obtenidas en fuentes documentales en forma de fichas estandarizadas.
 
Durante más de un siglo casi no se generaron estudios específicos de climatología histórica en España. Hubo que esperar hasta la década de  1960 para apreciar cierto interés en algunos investigadores. José María Fontana Tarrats inició, a título particular, una recopilación de informaciones de archivos de toda España. Sin establecer un criterio de trabajo específico que le permitiera después la producción de series de datos utilizables a efectos climáticos, este investigador fue el primero en percibir las inmensas posibilidades de la climatología histórica dentro del patrimonio documental generado por el conjunto de instituciones y particulares en la monarquía hispánica. Por otro lado, en esa misma época el profesor Emili Giralt Raventós advirtió la utilidad que podría tener para la climatología histórica el empleo de las referencias documentales sobre ceremonias de rogativas por motivaciones ambientales.
 
 
El primer trabajo dentro del ámbito universitario, con características óptimas tanto en los planteamientos metodológicos como en sus resultados, se produce dos décadas después. Es un trabajo realizado por C.M. Albentosa sobre el régimen pluviométrico en  ciudad de Tarragona durante el siglo xviii a través de registros documentales. Pero es hasta 1994 cuando se presentan dos tesis doctorales sobre esta especialidad; la primera, escrita por Barrientos, trata sobre Catalunya entre los siglos xv-xix y la segunda, de Sánchez Rodrigo, sobre Andalucía en los mismos siglos.
 
El sistema de rogativas
 
La disponibilidad de documentos históricos con información interesante a efectos climáticos es tan abundante en cualquier archivo de cualquier ámbito geográfico o institucional que desde el inicio de cualquier investigación en climatología histórica debe establecerse una serie de criterios de selección de las fuentes a consultar.
 
 
Como el objetivo final es obtener series de datos climáticos lo más prolongadas y continuas posible, el resultado de la selección suele dirigirse hacia series documentales también largas, como los libros de actas administrativas de instituciones municipales y eclesiásticas. Allí, además de aparecer un sinnúmero de hechos cotidianos de la propia institución, suelen registrarse sucesos memorables o que rompen la rutina cotidiana en la localidad, tanto de origen humano (guerras, accidentes, visitas de personalidades) como de origen físico (episodios meteorológicos extremos, epidemias, terremotos, hambrunas). En las localidades más importantes tampoco es infrecuente encontrar —siempre que se hayan conservado en algún archivo privado o público— documentos específicos con informaciones de carácter extraordinario que llevaban personas a título particular, como médicos, abogados, funcionarios eclesiásticos o de los gobiernos municipales, que generaban libros de memorias o dietarios.
 
La información que puede recuperarse de los documentos históricos no es despreciable, ni por la cantidad ni por su calidad de detalle: inundaciones, sequías, heladas, nevadas catastróficas, temporales de mar, huracanes, grandes tempestades, episodios de lluvias persistentes, olas de calor y de frío.
 
 
La información meteorológica/climática directa es difícil de encontrar en fuentes documentales manuscritas. Sin embargo, lo más abundante son las informaciones indirectas sobre condiciones atmosféricas, conocidas como proxy-data. Entre los diferentes tipos de proxy-data, el que ha ofrecido mayores perspectivas de investigación hasta ahora en la Península Ibérica es el registro de ceremonias religiosas de rogativas por motivaciones ambientales. Las rogativas son motivadas por diferentes variaciones o anomalías, en este caso climáticas, que ponen en tensión las limitadas disponibilidades tecnológicas de las comunidades preindustriales. Ante los problemas directos sufridos por las actividades agrarias, se ponía en marcha un complejo mecanismo institucional hasta llegar a la realización de una ceremonia de rogativas.
 
 
Cada rogativa tenía las siguientes etapas de preparación:
 
 
1) Indicaciones de las autoridades gremiales de labradores con los problemas detectados,
2) Deliberación de las autoridades municipales competentes en la materia,
3) Comunicación de su decisión a las autoridades eclesiásticas para la introducción de la ceremonia en el calendario de actividades de la Iglesia Católica,
4) Pregón o anuncio público de la ceremonia de rogativas.
 
El mecanismo institucional transmite, en consecuencia, un alto grado de fiabilidad y objetividad, y la disponibilidad de informaciones detalladas sobre las rogativas, ya que el procedimiento deja un rastro documental. En definitiva, la homogeneidad con que se generaron durante siglos, la datación exacta y la continuidad de los registros conservados en archivos municipales y eclesiásticos, impulsó el empleo de esta información para la obtención de series con información climática a escala pluisecular. Estos materiales, por otra parte, ofrecen la posibilidad de cuantificar en diferentes niveles de intensidad el tipo de fenómeno por el que se está rogando. Así, las sequías —el azote más habitual y más perjudicial— llegaron a generar cinco niveles de rogativas según la intensidad y duración del episodio. En breves términos, el primer nivel consistía en oraciones durante las celebraciones religiosas, como las misas. El segundo preveía la exposición de reliquias o imágenes de advocaciones especializadas durante un número de días variable. El tercero consistía en procesiones por las calles de la población. El cuarto contemplaba la inmersión en agua de reliquias o imágenes, hasta su prohibición a principios del siglo xvii, momento en que hubo de sustituirse por ceremonias de similar importancia. Finalmente, en el nivel máximo se realizaba una peregrinación a santuarios de ámbito regional de gran devoción entre la población.
 
 
En el caso de la cuenca de México, los datos utilizados para lograr la serie climática sobre sequías extremas proceden de tres tipos de  fondos: documentos administrativos, religiosos y diarios privados.
 
 
El tipo de información obtenida corresponde al de las denominadas rogativas “pro pluvia” de nivel crítico. Éstas tenían lugar al presentarse una sequía prolongada que pusiera en peligro los cultivos de temporal o la salud pública. Tales rogativas se concentraban en las dos imágenes más veneradas de la región, la virgen de Los Remedios y la de Guadalupe. El santuario de la primera se encontraba bajo la administración directa del cabildo colonial de la ciudad de México, y se le consideró desde fines del siglo xvi la advocación más efectiva contra la amenaza de las sequías.
 
 
Todos los registros de las rogativas asentadas para el logro de esta serie climática mencionan las fechas en que se llevaron a cabo, las características de los traslados de la virgen de su santuario (15 kilómetros al noroeste de la capital), el tipo de ceremonias realizadas, la duración de su estancia, así como su regreso a Los Remedios, por lo general después de un pomposo novenario.
 
Un estudio comparativo
 
En una primera aproximación a la obtención de datos referentes a la realidad climática de la cuenca de México durante el periodo colonial, se apreció que la información relacionada con sequías extremas era la más asequible y fácil de lograr durante un lapso corto de investigación.
Al no tener disponible la totalidad de la información en los registros del Archivo del Antiguo Ayuntamiento de la Ciudad de México, se procedió a completar los datos con fuentes bibliográficas fiables, obtenidas primordialmente en el Fondo Reservado de la Biblioteca Nacional.
 
Una vez comprobado que se contaba con la totalidad de las rogativas “pro pluvia” críticas, se ejecutó la cuantificación de los datos, los cuales en periodos de 30 años permiten reconocer los lapsos con mayor número de sequías durante poco más de 200 años (1601-1810).
 
 
De acuerdo con la serie obtenida, el comportamiento climático de la cuenca de México  muestra una oscilación que comienza en la primera mitad del siglo xvii, caracterizada por la escasez de sequías extremas. A partir de la séptima década del siglo xvii la frecuencia de sequías se hace más notable, y se prolonga hasta cerca de 1720. Durante los siguientes 60 años las sequías volvieron a presentarse con menos frecuencia. Por último, la oscilación de esta serie conduce a un periodo en el que la presencia de sequías críticas se vuelve extrema: el ciclo 1781-1810 duplica en número al de los periodos graves anteriores.
 
En el caso español, el comportamiento es casi inverso al registrado en la ciudad de México: las sequías graves son frecuentes al inicio y al final del periodo estudiado, mientras que desde mediados del siglo xvii hasta principios del siglo xviii se observa un acusado descenso en la aparición de las sequías. La coincidencia de esta baja ocurrencia con el desarrollo del mínimo Maunder (“Late Maunder Minimum”, 1675-1715) lo que parece indicar una probable relación entre ambos fenómenos. Una excepción en España ofrece,  un comportamiento similar al de la ciudad de México. La ciudad de Murcia, en el sector sudoriental más árido de la península Ibérica, presenta un régimen de sequías graves completamente diferentes de las otras localizadas a pocos cientos de kilómetros, mientras que su patrón para este fenómeno es más similar al de la capital mexicana.
 
De lo observado, y comparándolo con series obtenidas en España, es de llamar la atención que el punto álgido de la llamada “Pequeña Edad de Hielo” (siglos xv al xix), el mínimo Maunder significa en general para la península Ibérica una época de precipitaciones abundantes y regulares, mientras que en México da lugar a un periodo de sequías recurrentes y graves. También resalta la extrema sequedad que se produce a fines del siglo xviii y principios del xix, la cual ya ha sido insinuada en la historiografía mexicana como una de las causas del aumento en el descontento popular que precedieron a la guerra de Independencia. En el caso concreto de la cuenca de México, puede sugerir cambios topoclimáticos derivados de la constante y paulatina desecación de los lagos.
 
Las posibilidades para las investigaciones que busquen reconstruir la realidad climática durante el virreinato y parte del siglo xix por medio de la cuantificación de los datos proporcionados por las ceremonias de rogativas son muy amplios, no sólo en la cuenca de México, sino en buena parte del territorio nacional. Una vez que la totalidad de la información referente al centro de México haya sido consultada y procesada —lo cual podría tomar años— se proponen otras dos áreas de estudio, cuyas características climáticas difieren de las del antiplano central.
 
Por un lado, se puede llegar a comprender la frecuencia, el comportamiento y la intensidad de los huracanes tropicales al consultar y cuantificar la documentación de los cabildos coloniales de Mérida, Campeche, San Cristóbal de Las Casas, Oaxaca, Veracruz o Xalapa. Asimismo, la información proporcionada por los archivos de ciudades coloniales como Zacatecas, Durango, San Luis Potosí, Saltillo, Monterrey, Chihuahua o Santa Fe de Nuevo México podrán ser
útiles para el reconocimiento de la frecuencia de sequías en las regiones secas de la América
del Norte.Chivi51
Agradecimientos
Conacyt (México) CLI95-1928-CO2-02, cicyt (España)
Referencias bibliográficas
 
Fuentes documentales y bibliográficas. Caso de la ciudad de México.
Archivo del Antiguo Ayuntamiento de la Ciudad de México. Ramo del Santuario de Los Remedios.
Archivo General de la Nación. Ramo de Desagüe.
Bustamante, Carlos María de. 1810. Miscelánea. Fondo Reservado de la Biblioteca Nacional.
Carrillo Pérez, Ignacio. 1808. Lo máximo en lo mínimo Fondo Reservado de la Biblioteca Nacional.
Díaz Calvillo, Juan Bautista. 1812. Noticias para la Historia de Nuestra Señora de los Remedios desde el año de 1808, hasta el corriente de 1812. Fondo Reservado de la Biblioteca Nacional.
Guijo, Gregorio de. 1952. Diario 1648-1664 (2 tomos). Editorial Porrúa, México.
Historia de las Imágenes del Pueblito, Los Remedios y Ocotlán. 1745. Fondo Reservado de la Biblioteca Nacional.
Robles, Antonio de. 1946. Diario de Sucesos Notables 1665-1703 (3 tomos). Editorial Porrúa, México.
Sermón Panegírico. Fondo Reservado de la Biblioteca Nacional.
 
Bibliografía general
 
Albentosa, L.M. (1981-1982). “La importancia del conocimiento de las fluctuaciones climáticas en los estudios históricos. Aproximación al clima de Tarragona durante el siglo XVIII”, Universitas Tarraconensis, Facultad de Filosofía i Lletres. Divisió Geografía i Historia, Tarragona, 4, 73-90.
Barriendos, M. (1994). Climatología histórica de Catalunya. Aproximación a sus características generales (ss. XV-XIX), Departamento de Geografía, Física y Análisis Geográfico Regional, Universidad de Barcelona. Tesis doctoral inédita.
Barriendos, M. (1997). “Climatic variations in the Iberian Peninsula during the late Maunder Minimum (AD 1675-1715): an analysis of data from rogation ceremonies”, The Holocene, 7, 1, E. Arnold, pp. 105-111.
Giralt, El. (1958). “En torno al precio del trigo en Barcelona durante el siglo XVI”, Hispania, Madrid, 18, 38-61.
Martin Vide, J. y Barriendos, M. 1995. “The use of rogation ceremony records in climatic reconstruction: a case study from Catalonia (Spain)”, Climatic Change, 30, Kluwer Academic Publishers, pp. 201-221.
Sánchez Rodrigo, F. 1994. Cambio climático natural. La Pequeña Edad de Hielo en Andalucía. Reconstrucción del clima histórico a partir de fuentes documentales, Departamento de Física Aplicada, Universidad de Granada. Tesis doctoral inédita.
Gustavo Garza Merodio y Mariano Barriendos Vallvé
Grupo de Climatología,
Universidad de Barcelona, España
_______________________________________________________________
como citar este artículo
Garza Merodio, Gustavo y Barriendos Vallvé, Mariano. (1998). El clima en la historia. Ciencias 51, julio-septiembre, 22-25. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Virus emergentes: ficción y realidad
 
Fernando Ontiveros Llamás
conoce más del autor

   
 
 
HTML ↓
PDF regresar al índice artículo siguiente
     
Un grave problema en nuestra sociedad es la falta de información, particularmente en cuanto a ciencia. Más allá de la simple ignorancia, los conocimientos falsos o severamente tergiversados toman carácter de verdad conforme pasan de boca en boca o son difundidos en publicaciones de alcances pseudocientíficos. Como es de suponerse, el tema de los virus emergentes no es la excepción, lo que dificulta el efectivo combate de las enfermedades producidas por éstos.
 
Decimos que una enfermedad es emergente si ha sido identificada en fechas recientes —últimos 20 años—, o bien si su incidencia en seres humanos se ha incrementado significativamente en el mismo periodo. Estas enfermedades pueden ser causadas por diferentes agentes como bacterias (cólera), protistas (malaria) o virus (sida).
 
 
En particular, los virus han sido objeto de interés y controversia. La emergencia del Virus de Inmunodeficiencia Humana (vih) y otros potencialmente letales, como los de las fiebres hemorrágicas, han incrementado la inquietud entre virólogos y expertos en enfermedades infecciosas, dando lugar a versiones falsas y en ocasiones alarmistas. ¿Cuál es la realidad?
 
Los virus “nuevos”
 
Llamar “nuevos” a los virus emergentes es un error; éstos no aparecen de repente o de la nada para infectarnos. La mayoría ya existe en la naturaleza y durante mucho tiempo permaneció “escondida” en sus hospederos naturales (roedores, aves, insectos...), hasta que una persona, por alguna razón, entró en contacto con ellos. Con frecuencia las actividades humanas son causantes del desequilibrio ambiental en las zonas más apartadas del globo, lo que implica un importante factor social en la aparición de las enfermedades emergentes.
 
Sabemos que la expansión de la población así como la explotación intensiva y a gran escala de recursos naturales antes no usados, perturban ecosistemas que fueron estables hasta décadas atrás. Las grandes migraciones, la urbanización desenfrenada, las prácticas agrícolas inadecuadas y las deficientes medidas higiénicas favorecen el contacto humano con agentes patógenos desconocidos, que ocupaban áreas limitadas o de difícil acceso. El caso particular de virus como el Guanarito, Machupo y Junin —surgidos en Sudamérica en las décadas más recientes, cuando la gente modificó el ambiente con prácticas agrícolas invasivas— es un buen ejemplo de lo que sucede cuando la relación dinámica y fluctuante entre la gente y su medio se ve rota.
 
Incluso pequeños cambios en el clima puede afectar esta relación. Durante el invierno de 1992-93, la humedad y las fuertes nevadas registradas en Nuevo México provocaron un exceso de alimento para roedores, lo que se reflejó en el aumento del número de ratones reservorios del “sin nombre”, hantavirus de fiebre hemorrágica, que contagiaron a 114 personas, causando la muerte de 58 de ellas.
 
El avance de la biotecnología también ha favorecido la percepción de que las enfermedades virales hoy son más frecuentes, pues las nuevas técnicas permiten reconocer agentes que podrían haber pasado inadvertidos utilizando métodos anteriores. Así, hace poco más de una década no se tenía una prueba para diagnosticar el Hanta; ni qué decir de la total ignorancia acerca de la existencia del vih a principios de los años 80. Actualmente se han puesto a punto diferentes técnicas (elisa, Blot) que facilitan enormemente el diagnóstico temprano y colabo­ran para reconocer el origen de distintos padecimientos.
 
Por otro lado está la publicidad. Virus como los de las fiebres hemorrágicas focalizan la atención, pues son considerados entre los más peligrosos agentes biológicos conocidos, debido a la alta tasa de mortandad que pueden provocar. Entre ellos, los miembros de la familia Filoviridae (filovirus) son los mejores ejemplos de patógenos emergentes, y también de los que menos se sabe.
 
Aquí es conveniente hacer un alto para responder puntualmente a una pregunta que flota en el aire. Además de los avances en las técnicas de diagnóstico, del impacto de la publicidad y del encuentro con virus hasta hace poco desconocidos —producto del desequilibrio ecológico causado por la raza humana— ¿es posible que aparezcan virus totalmente nuevos?
 
Los virus pueden cambiar...
 
Hablamos de entidades altamente desarrolladas, económicas y eficientes, que pueden cambiar a través del tiempo. Estos cambios no implican necesariamente el surgimiento de nuevas especies, sino variaciones dentro de éstas, que pueden dar lugar a cambios en el comportamiento del virus.
 
La continua generación de variantes es la que da lugar a las cuasiespecies víricas. Según Manfred Eigen —premio Nobel de Química 1967—, por cuasiespecie entendemos la distribución de genomas relacionados no idénticos, que constituyen un espectro dinámico de mutantes para una población de virus.
 
Esto significa que en una población de un mismo virus constantemente surgen variantes, debido a mecanismos que explicaremos adelante. Todas estas variantes, diferentes unas de otras, existen en una “nube” alrededor del genoma original, que es el dominante. Normalmente la mayoría de las variantes será mantenida en bajas frecuencias (o eliminada completamente), por selección negativa. Esto pasará mientras el am- biente permanezca sin cambios. Pero si el virus se re­pro­duce en un ambiente diferen­te al que sus genomas “padres” usaban para replicarse, la probabilidad de que nuevas variantes surjan para ser dominantes será mayor. El mutante que responda mejor al cambio se convertirá en dominante y la “nube” de mutantes alrededor del genoma original se desplazará, toman­do como centro al nuevo genoma dominante.
 
Es así como se explica el cambio o “evolución” viral en nuestros días.
 
Ahora bien, los cambios en el genoma viral se pueden dar de diferentes formas. Los virus, especialmente aquellos cuyo material genético es ácido ribonucléico (retrovirus, entre otros), tienen tasas de mutación muy altas. A esto se suma que los virus “viven” a través de muchas generaciones en poco tiempo (hasta 17 en una sola infección). Las pequeñas mutaciones causadas por los errores en la replicación pueden acumularse a través del tiempo y producir nuevos genomas. La mayoría de las veces los errores introducidos a la secuencia serán neutrales o letales para los virus mutados, en cuyo caso son rápidamente borrados del competitivo entorno de la reproducción viral.
 
Así tenemos un catálogo de genomas alterados que capacita a la población de virus —cuasiespecies— para responder rápidamente a las situaciones cambiantes del ambiente.
Como podemos ver, mientras más imperfecta sea la replicación de un virus, mayor será la cantidad de mutaciones que se puedan acumular. Desde luego, esto tiene un límite, pues los errores no deben afectar las partes esenciales del genoma o el resultado será simplemente un conjunto de macromoléculas que jamás formarán una copia viable del virus. Esta imperfección en la replicación es evidente principalmente en los retrovirus, virus de arn que, con la ayuda de una enzima (reversa transcriptasa), transcriben su información genética a adn una vez dentro de la célula huésped. Esta enzima no tiene un mecanismo de reparación de los errores cometidos al copiar, lo cual genera una tasa de mutación muy alta.
 
A las mutaciones se deben sumar los eventos de recombinación. Algunos tipos de virus pueden portar secuencias genómicas de dos tipos de “padres”. Otros pueden recombinar sus genes al momento de la replicación y hasta adquirir genes de la célula huésped.
 
Pero el evento quizá más impactante es el rearreglo (reassortment). De un rearreglo viral resulta una nueva progenie de virus, formada por la asociación y envoltura de segmentos de genoma de virus diferentes durante la infección mixta de una célula por virus de arn (de doble cadena).
 
Esto quiere decir que al infectar al mismo tiempo dos virus diferentes una misma célula, fragmentos del genoma de cada uno forman un nuevo genoma, que a su vez dará lugar a un virus diferente. En particular, los genomas de doble cadena de arn muestran una cierta frecuencia de rearreglo. Como es de esperar, muchas veces resultan entidades no viables, que son eliminadas. Pero a veces funciona. Se cree que ésta es la base de los dramáticos cambios antigénicos en el virus de la influenza, que hace unos 60 años provocara una mortal pandemia.
 
Estos mecanismos pueden propiciar el surgimiento de poblaciones de virus potencialmente patógenos. Sin embargo, debemos señalar que dichos eventos son, hasta donde sabemos, azarosos y se dan con baja frecuencia en la naturaleza.
 
Virus y ficción
 
El profundo miedo del ser humano a las enfermedades desconocidas y mortales ha sido explotado no sólo por gobiernos en conflicto y grupos terroristas, sino por la industria del entretenimiento, colaborando a la psicosis general.
 
Desde novelas como La amenaza de Andrómeda de M. Crichton, La plaga que viene de L. Garret, Zona caliente de Preston, y la película Epidemia de W. Petersen, el tema de los virus se ha hecho del dominio popular. Se habla de manipulaciones genéticas y creación de virus letales para ser utilizados como armas biológicas que destruyen al mundo. En los medios de información se maneja que un país pobre y atrasado podría preparar virus capaces de destruir las cosechas, desatar hambrunas y epidemias.
 
Mientras la influenza mata 20 mil personas al año sólo en Estados Unidos, y en América Latina se dan más de 150 mil casos de hepatitis B al año, algunos únicamente se preocupan por virus asesinos ficticios y desconocen cómo protegerse de los reales.
 
¿Pueden los científicos crear virus mortíferos? Algunos investigadores piensan que se pueden hacer “muchas cosas” con las técnicas y herramientas disponibles.
 
Es cierto que hay trabajos experimentales “secretos”, de los cuales probablemente nunca llegaremos a saber. Y también es verdad que en diferentes partes del mundo existen intereses en el desarrollo de armas biológicas. Sabemos que integrantes de “Verdad Suprema” —el grupo responsable del ataque con gas sarin al metro de Tokio— visitaron instalaciones médicas en Zaire, donde se atendieron casos de ébola en octubre de 1992; se presume que su objetivo era obtener muestras del virus para utilizarlo más tarde en algún atentado.
 
Quienes han investigado a fondo el desarrollo de armas biológicas, saben que el peligro reside en el uso de agentes virales ya conocidos, no en la creación de nuevas cepas.
 
En la actualidad es fácil llevar a cabo rearreglos de virus en el laboratorio; incluso esta técnica se usa frecuentemente para el mapeo de caracteres. Pero de eso a “crear” virus nuevos y letales hay gran diferencia. En palabras de una viróloga: “No se trata sólo de ‘pegar’ genes virulentos y tratar de infectar a una célula. Las combinaciones raras pueden dar lugar a virus incapaces de replicarse. Los virus son máquinas exquisitamente autorregulables y adaptadas a ciertos tipos celulares. La preocupación actual no debe ser la probabilidad de que alguien prepare un bicho que acabe con la especie humana, sino la evolución de virus ya existentes. Que pueden aparecer virus ‘nuevos’, sí; pero su tipo y momento son totalmente impredecibles.”
 
Virus y sociedad
 
El virus más estudiado de la historia, el vih —originado probablemente entre 50 y 100 años atrás a partir del vis (Virus de Inmunodeficiencia en Simios)— fue conocido hasta 1981. Pero no tardaron mucho en surgir los rumores sobre su “creación”, por manos de científicos estadunidenses, como un arma biológica que escapó a su control.
 
Por desgracia, hay numerosas publicaciones pseudocientíficas que transmiten información equivocada, tergiversada, alarmista y a veces totalmente falsa, influyendo en grandes capas sociales, mientras que el conocimiento científico queda remitido a pequeños círculos académicos. Tales publicaciones difunden rumores y noticias alarmistas sobre virus peligrosísimos que “escapan” de laboratorios para exterminar a la humanidad.
 
Así, la ignorancia y el infundado temor a la investigación científica atacan a la sociedad, cuando lo que ésta necesita es poseer y manejar una de las mejores armas contra la diseminación de las enfermedades infecciosas: la educación.
 
Volviendo al ejemplo del sida: en África, la miseria provee de condiciones ideales para la proliferación del vih, pues al no contar con medidas de protección adecuadas se han generado focos masivos de infección. Mientras que en países desarrollados hay una disminución en el porcentaje de incremento debido en parte a las campañas de prevención, en África el sida es la principal causa de muerte en adultos citadinos. En algunos lugares, de 20 a 30% de las mujeres embarazadas están infectadas.
 
Hasta las autoridades de salud pueden ser víctimas de la falta de información. Recordemos que ante el brote de ébola en Zaire en 1995, la incertidumbre de los médicos mexicanos frente a la probabilidad de que esta enfermedad llegara a México se manifestó en diferentes comunicados tanto del issste como del imss. El común denominador fue que no se sabía gran cosa acerca de la enfermedad. Es preciso estar conscientes del peligro que representan los virus emergentes. Los científicos, entre ellos un premio Nobel, han prevenido contra la probable aparición de nuevas plagas; creen que en la naturaleza puede haber un vasto reservorio de virus potencialmente peligrosos.
 
Salud y educación
 
La educación es de fundamental importancia para la salud pública. La información científica básica debe ser accesible a todas las personas; en la medida que conozcan más y mejor, serán más críticas respecto a lo que leen y confiarán menos en publicaciones de dudoso rigor científico. Ello representa un compromiso a cumplir constantemente por todos los profesionales, académicos y estudiantes de ciencias biológicas y de la salud. Sólo una sociedad bien informada y practicante de medidas higiénicas adecuadas puede hacer frente de manera eficaz a las enfermedades emergentes.
 
Los virus siempre han fascinado a los investigadores; su aparente sencillez esconde procesos biológicos complejos capaces de afectar a la especie humana. Aquellos responsables de la explotación inadecuada de nuestros recursos deben saber que cuando se rompe la armonía en la naturaleza, haciendo caso omiso del orden de las cosas, se obtendrá una respuesta de ésta contraria a la sobrevivencia humana.Chivi51
Agradecimientos:
A Isabel Novella por su amable colaboración, y al profesor Ernesto Vega por todo el apoyo y ánimo brindados durante la realización de esta revisión.
Referencias bibliográficas
 
Sable, C.A. y Mandell, G.L. 1996. The role of molecular techniques in the understanding of emerging infections. Mol Med Today 2 (3).
Peters, C.J. et al. 1994. Filoviruses as emerging pathogens. Sem. Virol. 5, núm 2.
Cullinton, B.J. 1990. Emerging Viruses, Emerging Threat. Research News. Science 247.
Jaret, P. Viruses. 1994. National Geographic, July. • Strauss, E.G. et al. 1996.Virus Evolution. En: Fundamental Virology. Third Edition. Raven ­Publishers, Philadelphia.
Domingo, E. y Holland, J. J. 1994. Mutation Rates and Rapid Evolution of rna Viruses. En: The Evolutionary Biology of Viruses. Raven Press, Ltd, New York.
Anderson, R.M. y May, R.M. 1992. Understanding the Aids Pandemic. Scientific American, May.
Le Guenno, B. 1995. Emerging Viruses. Scientific American, October.
Ewald, P. 1993. The Evolution of Virulence. Scientific American, April.
Eigen, M. 1993. Viral Quasispecies. Scientific American. July.
Novella, I.S., Domingo, E. y Holland, J.J. 1995. Rapid viral quiasispecies evolution: Implications for vaccine and drug strategies. Mol. Med. Today 1.
Biotecnología militar. Muy Interesante. Año VII, núm 3.
Fay, O. H. 1990. Hepatitis B in Latin America: Epidemiological patterns and eradication strategy. The Latin American regional study group. Vaccine 8: Suppl: S100-S106.
Diario de Querétaro. Miércoles 17 de mayo de 1995. Sección B-p. 5.
Cole, L.A. 1996. The Specter of Biological Weapons. Scientific American, December.
Fernando Ontiveros Llamás
Estudiante de la Licenciatura en Biología. Facultad de Ciencias. Laboratorio de Inmunología,
Instituto de Investigaciones Biomédicas, Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Ontiveros Llamás, Fernando. (1998). Virus emergentes: ficción y realidad. Ciencias 51, julio-septiembre, 30-34. [En línea]
    regresar al índice artículo siguiente
  P01 P02  
 
 
     
Ecología y economía en tiempos de globalización
 
Yamel Rubio Rocha
conoce más del autor

   
 
 
HTML ↓
PDF regresar al índice artículo siguiente
     
Cuando hablamos de globalización en el contexto económico y ambiental, aludimos a las tendencias de aprovechamiento homogeneizante de los recursos a nivel mundial. En términos ideales, tal aprovechamiento debería ser equitativo, permitiendo a todos contar con las mismas oportunidades para vivir con mayores “comodidades” en términos de productos de consumo. Pero la realidad es otra. Así, en una misma región geográfica, por ejemplo Norteamérica (Canadá, Estados Unidos y México), existen polaridades de formas de vida y necesidades y, por lo tanto, de satisfactores, todas derivadas de una historia que no inicia con la revolución industrial del siglo xviii sino cientos de años atrás.
 
Veamos el caso de México. Los antiguos concebían a la naturaleza como un orden que debía perpetuarse, respetándola y aprovechando animales y plantas en forma planeada, buscando sólo lo necesario para vivir y disfrutarla. Aun en la sociedad mexicana de principios y mediados de este siglo no dominaba tanto el consumismo como lo vivimos hoy, expresado en necesidades fabricadas (por ejemplo, las modas en ropa o juguetes electrónicos). ¿A qué responden estas “necesidades” que obligan a extraer una mayor cantidad de materia prima del ambiente (recursos naturales o biodiversidad), aun por encima de su capacidad sustentadora? Un factor determinante es la globalización económica en sus relaciones de libre mercado.
 
 
Ecología y economía han sido disciplinas que divergen en intereses y propósitos. No obstante, hoy ambas parecen compartir intereses y hasta modelos previsores.
 
 
El objetivo de la economía es la manipulación de los recursos económicos (naturales e infraestructura material y humana) dirigida hacia una mayor producción a bajos costos y en tiempos mínimos, rescatando la vieja fórmula: “mayor producción en menor tiempo”. Los ecólogos pretenden la preservación del ambiente, y sugieren un aprovechamiento racional, sustentable, considerando los principios ecológicos de la naturaleza y no los mecanismos del mercado durante los procesos de producción.
 
A simple vista parecerían posiciones encontradas, pero si observamos con cuidado la actitud de ecólogos y economistas contemporáneos se perfila un fin común: la preservación de la materia prima (económica o evolutiva, según el caso); la biodiversidad (ambientes, flora, fauna) en bien de la humanidad. Entendiendo esta finalidad como la capacidad de satisfacer una necesidad, desde estética hasta de alimentación.
 
El valor de la biodiversidad
 
El paisaje de una selva tropical o un bosque templado conservados, representa la combinación de diversas formas animadas (flora, fauna, microorganismos) e inanimadas (relieve y clima), que en conjunto constituyen la biodiversidad. ¿Qué valor o utilidad puede ofrecer ésta a la sociedad? La respuesta es relativa, dependiendo de quién la aprecie: un economista verá con buenos ojos la aplicación del progreso tecnológico y la lógica del mercado, la de la racionalidad de la ganancia a corto plazo para extraer y transformar los recursos económicos (recursos naturales), poniendo en último lugar la preservación a largo plazo —que seguramente no le genera la misma ganancia. Baste citar el sistema que rige en México, donde el Estado confía más el destino del país a los mecanismos del mercado que a los principios de la gestión ambiental. Un ejemplo manifiesto de esta postura es la apertura de industrias en zonas naturales protegidas. Recientemente el ine (Instituto Nacional de Ecología) aprobó la construcción de una planta de nitrógeno de Pemex dentro de Laguna de Términos, área de reserva natural, pese a la oposición de organizaciones ambientalistas locales.
 
La biodiversidad tiene dos tipos de valores: el extrínseco (utilitario) y el intrínseco o inherente. El primero es asignado por la gente a los recursos, de acuerdo a su capacidad para satisfacer necesidades como alimento, vestido, medicina, etcétera, y también está en función de la economía y de los mecanismos mercantiles. El valor inherente es el que reconocen los ecólogos, biólogos y ambientalistas, para quienes cada especie es única y forma parte del patrimonio biológico. Este principio es de vital importancia, pues busca la protección de la naturaleza a través de un uso racional.
 
El término “valor” tiene significado distinto para diferentes individuos o grupos. Una de las discusiones gira en torno al valor de uso de la biodiversidad. Podríamos dividir éste en económico —conferido por los mercados—, y el pasivo, otorgado a las especies por el simple hecho de ser únicas, y por la necesidad de conservarlas a fin de contar con ambientes diversos para las futuras generaciones, quienes tienen el derecho de admirarlas y utilizarlas.
 
El precio que ostenta en el mercado algún recurso natural —materia prima o producto manufacturado— nunca ha reflejado el costo social y ambiental, es decir, lo que los economistas denominan externalidades o fallas de mercado. Por ejemplo, el precio del carbón vegetal no refleja (o informa) a los consumidores el impacto ambiental que ocasiona producirlo. Como sabemos, su proceso consiste en talar árboles para quemarlos y convertirlos en carbón, así como limpiar un terreno para hornear la madera, lo que implica talar otro tanto de terreno que queda expuesto más fácilmente al fenómeno de la erosión, situación muy común en nuestro país. No olvidemos el “efecto cascada” de los procesos de extracción de los recursos naturales. En este caso, la tala de árboles conduce a € pérdida de flora € pérdida de fauna € pérdida de la biodiversidad \deterioro ambiental.
 
Comúnmente se utilizan especies de árboles consideradas en peligro de extinción o amenazadas, por ejemplo el palo de Brasil, Haematoxilum brasiletto (leguminosa). Si el carbón comercializado contemplara el costo ambiental, sería mucho más caro. Un saco con 25 kilos de carbón es ofrecido por los productores en 20 o 30 pesos a los comerciantes, quienes lo revenderán, pero aun así el carbón es un combustible barato y de tradición en gran parte del país, así como en las zonas rurales y urbanas de Sinaloa, por citar un caso específico.
 
Revisemos otro ejemplo. Si se contemplan las externalidades —costos sociales y ambientales— durante la producción de carne de res dirigida a empresas trasnacionales, el precio se elevaría y sería poco atractivo para los inversionistas nacionales y para los extranjeros interesados en establecerse en México; ello los llevaría a buscar otros sitios donde las condiciones les fueran más favorecedoras. Por desgracia, en México quienes aplican las leyes ambientales son poco exigentes; la ignorancia y la desinformación de la sociedad al respecto, así como la falta de apoyo técnico, promueven la apertura de industrias no conservacionistas o con poco interés en la preservación de la naturaleza. Si el costo ambiental se contemplara dentro de los esquemas económicos, de se guro se tendrían más apoyos monetarios, técnicos e informativos para proteger mejor al ambiente.
 
Efecto globalizante
 
La globalización puede entenderse como la mundialización de las culturas, la política, la economía, es decir: su integración en el plano internacional, apoyada por la rapidez con que funcionan las telecomunicaciones y la informática. Los factores que moldean o catalizan las transformaciones de un país, en el sentido social, económico, político y ambiental, se derivan de este fenómeno y de las constantes tendencias a homogeneizar los patrones de conducta a nivel regional (América del Norte) o mundial. Por lo mismo, la globalización tiene impactos inmediatos; así, la crisis de un país afecta a otros geográficamente lejanos (pensemos en el efecto dragón de las crisis económicas).
 
El concepto de globalidad es aplicable en varios sentidos. Tan alarmante puede ser reconocerlo dentro del mismo discurso económico como en cualquier otro. No olvidemos que cada grupo social tiene una concepción y un discurso definido hacia la naturaleza y su valor de uso.
La globalización de la economía es fácilmente apreciable en los tratados comerciales. Para el caso de México pensemos en el tlc con Estados Unidos y Canadá, cuya tendencia principal es el consumo de masas, ya que pretende la estandarización en los diversos sectores de la sociedad a fin de ofrecer, vender y adquirir bienes de consumo en común.
 
Pero, ¿acaso todos los pueblos son iguales, consumen o viven de la misma forma? El asunto es obligado tema de análisis en foros ad hoc, como en la sexta Reunión Nacional de Destrucción del Hábitat 1997, organizada por el Programa Universitario del Medio Ambiente de la unam.
La respuesta a la interrogante es: no. Basta observar la forma tradicional de vivir en los países del norte y los del sur, o simplemente en Estados Unidos y México. Sin embargo, bajo el paradigma de la globalización, se pretende “mejorar” la economía del país, proveyendo más y mejores oportunidades de acceso a bienes de consumo, la mayoría de estos superfluos o extraños a nuestra cultura, y que día a día se afincan en diversos estratos poblacionales, sobre todo en los más frágiles cultural y económicamente, que oponen poca resistencia al influjo de los ofrecimientos publicitarios.
 
Así pues, la integración económica tiene repercusiones culturales y ambientales. Afortunadamente México aún posee una riqueza cultural admirable, resistente a ser absorbida por el fenómeno globalizante. Las manifestaciones que datan de tiempos precolombinos, como el culto a los muertos y los rituales que de ello se derivan; el respeto, la adoración y la utilización de la naturaleza a través de la herbolaria, entre otros, pueden ejemplificar tal resistencia.
 
El imperio global de tendencia capitalista al que pertenece nuestro país, implica la desrregulación de las barreras que limitan los flujos de mercado, de tecnología y de cultura extranjeras, con la consecuente interdependencia de las naciones firmantes de los tratados internacionales. Pero ¿qué pasa cuando los niveles económicos, tecnológicos y de materia prima (recursos naturales) contrastan enormemente —como es el caso de México frente a los vecinos del Norte?
 
El tlc ha derivado en un saqueo de los recursos naturales. La materia prima que se extrae del país es comprada a precios irrisorios; una vez manufacturada o industrializada la consumimos a costos comparativamente muy altos. Por ejemplo, ¿cuánto gana el país —por no decir cuánto le cuesta económica y ambientalmente— con la producción de carne de res para empresas trasnacionales, que posteriormente nos la ofrecerán transformada en productos para consumo, a precios que no contemplan las externalidades? Generalmente estos productos no son de primera necesidad; responden más bien a aspiraciones económicas, pero nos hacen la vida “más fácil”. Un ejemplo son las conocidas hamburguesas que ofrecen algunas trasnacionales asentadas en el país.
 
Asimismo, las políticas de desarrollo de la nación han favorecido una explotación depredadora de los recursos naturales, con altos beneficios económicos a corto plazo, pero serias afectaciones a la base de conservación, sustentación y regeneración de los mismos. Esta política también ha deteriorado la economía de los estratos más pobres. En 1984, 20% de la población mexicana más rica recibía 47% del ingreso monetario para sufragar sus gastos, y 40% —los más pobres— recibía tan sólo 17%. Para 1994 las distancias entre estos polos sociales se extremaron: 20% más rico percibía 52% del ingreso, y 40% más pobre disminuyó a 10.9% en la percepción del ingreso.
 
Otro impacto negativo de la globalización sobre el ambiente se dio a través de la modernización del agro mexicano. Ésta implicó importación de insumos y el uso de grandes cantidades de agroquímicos prohibidos en el mercado internacional, o de no circulación en el país de origen por sus efectos devastadores sobre la redes tróficas. En el mismo sector productivo habría que sumar la tendencia mundial dominante para limitar el espectro de plantas cultivadas a un pequeño grupo formado por las 15 o 30 especies de mayor importancia económica: maíz, trigo, soya, y otras, reduciendo con ello la diversidad biológica.
 
Recordemos que durante el pasado sexenio mexicano, el tlc representó la tabla de salvación para una economía golpeada y en decremento. Los criterios de la nueva política eran estabilizar y poner la mesa para la iniciativa empresarial interna y externa. Un tratado con Estados Unidos proveería de nuevas oportunidades mercantiles, tecnológicas y productivas, se dijo. Sin embargo, economistas y biólogos reconocidos, como Fernando Noriega e Irene Pisanty, afirman que México no estuvo ni está preparado para trabajar y/o competir —mercantil y tecnológicamente— con países del primer mundo. El objetivo de éstos es penetrar en países en vías de desarrollo, aún ricos en biodiversidad, para obtener mano de obra barata, materia prima a precios sumamente bajos y legislación ambiental flexible, lo que les permite gigantescos beneficios económicos y ambientales. Se puede visualizar que la interdependencia se convierte en dependencia obligada. Los países desarrollados dependen de la materia prima de los subdesarrollados, y éstos de los avances científicos, tecnológicos y de las divisas económicas de los primeros. Así, la economía del país está bajo el juego de la economía norteamericana.
 
Cambio global
 
Después de la globalización económica debemos esperar, y ya se presenta con toda seguridad, un cambio global ecológico como resultante del fenómeno. Para algunas autoras como Arizpe y Carabias, “consiste en aquellas transformaciones biogeoquímicas que afectan a todos los hábitats del mundo”. Ambas hacen referencia a la naturaleza; habría que agregar las transformaciones en las actitudes individuales, pues el fenómeno de la globalización incide sobre la riqueza cultural. De hecho, podemos percibir una pérdida constante de valores sociales y éticos hacia el entorno natural. Por ejemplo, los grupos étnicos se reducen rápidamente, aun antes de agotar los recursos naturales de los que dependen; las consecuencias de esta pérdida cultural son visibles en la desaparición de conocimientos y tecnologías apropiadas para las actividades cotidianas y de subsistencia rural. Este sector, dominante en los países latinoamericanos, es heredero de tal sabiduría; su reducción conlleva un empobrecimiento cultural del campesinado, diluyendo sentimientos y valores respecto a los recursos naturales.
 
Los problemas ambientales de México han derivado principalmente del subdesarrollo económico; aquí la pobreza ha sido una constante. Quizá para las comunidades no existan mejores opciones que aprovechar de manera racional sus recursos para sobrevivir; desgraciadamente, es común observar en ellas el tráfico de plantas y animales considerados exóticos o con algún grado de amenaza, así como el cultivo en terrenos no aptos y susceptibles de erosión. Sin duda el problema es complejo y no admite soluciones simples, habida cuenta que está de por medio la subsistencia familiar.
 
La globalización nos está llevando a un consumismo casi incontrolable, en buena medida impulsado por los medios de comunicación. La naturaleza es saqueada para satisfacer a una sociedad cada vez más numerosa y que demanda bienes de consumo de primer o tercer orden; sus desechos cargan el ambiente con toneladas de contaminantes sólidos, líquidos y gaseosos que superan la capacidad de degradación y reciclaje natural.
 
Entre los problemas ambientales globales que compartimos están la deforestación y la pérdida de biodiversidad. La transformación de los ecosistemas forestales en agropecuarios, áreas industriales y de asentamientos humanos ha sido el común denominador de todos los países. Hablamos del problema que más ha dañado a nuestra naturaleza; simplemente comparemos el valle de México antes y después de la conquista. Durante la Colonia se talaron zonas extensas y ricas en madera con el fin de construir los palacios de los nuevos dueños de estas tierras. Por supuesto, también grandes cantidades de madera fueron saqueadas por el mercado europeo.
Es cierto que la deforestación fue un fenómeno común en el México precolombino —tanto la madera para la construcción, como la leña y el carbón eran necesarios para producir cal, estuco y barro cocido—; sin embargo, el impacto negativo sobre el ambiente fue relativamente poco hasta antes de la conquista, comparado con las tasas de extracción posteriores y actuales.
 
La deforestación va en aumento; de seguir la tendencia tendremos un país cuya diversidad biológica será bastante pobre. Las tasas han disminuido el bosque tropical; de 12 millones de hectáreas originales hoy sólo existen 800 mil, concentradas en la selva Lacandona, los Tuxtlas, Uxpanapa, el este de la Huasteca y Tuxtepec. Al igual que en otros países de América Latina, la deforestación está en relación directa con la apertura de más zonas agropecuarias.
Las consecuencias se reflejan en la pérdida de un potencial de recursos económicos, traducida en el paulatino agotamiento de materias primas, la erosión de suelos —que afecta a 80% del país—, la sedimentación de cuerpos de agua naturales y, al extinguirse poblaciones de flora y fauna local y regional, la desaparición de germoplasma.
 
La deforestación es sólo un ejemplo de las actividades antropogénicas que conducen al empobrecimiento ambiental, y por consiguiente, al económico. Existen otros fenómenos de igual impacto, como el saqueo de la flora y fauna terrestre y marítima, el uso de tecnología no apta a las condiciones naturales del país, la pérdida de valores éticos y otros.
 
Conclusiones
 
El fenómeno de la globalización ha repercutido negativamente sobre nuestra sociedad. No es incorrecto buscar nuevas tecnologías para mejorar los niveles de vida nacional, pero sí lo es cuando no somos capaces de discernir cuáles pueden coadyuvar al desarrollo, sin perjudicar las bases sociales y ecológicas de nuestro país. Negativo es también pretender dejar de lado las raíces y los valores culturales que nos dan identidad. Es preciso reforzar nuestra relación con la naturaleza como la madre de toda forma de vida y proceso evolutivo, recomponer el dúo armónico que formamos con ella, reconociéndonos en sus procesos y asumiendo la responsabilidad de conservarla y manejarla adecuadamente.
 
La globalización debería desembocar no sólo en la obtención de mejoría económica sino ambiental, de bienestar común. Claramente existe —al menos así lo manifiestan las reuniones cumbres— un conjunto de intereses que comparten los países a fin de lograr una calidad de vida aceptable para la humanidad y, ello pasa por la conservación, protección y aprovechamiento del ambiente que garantice la supervivencia humana y la biodiversidad. Creo que desde este punto de convergencia se puede construir una nueva visión sobre el uso y reciclaje de los recursos naturales. Sin embargo, las heterogeneidades de los distintos grupos al interior de las naciones, y entre éstas, hacen necesario un largo y complejo proceso de negociación. Mayormente cuando se sobreponen intereses particulares sobre los comunes. He aquí la responsabilidad de los políticos, y sobre todo de la sociedad, que debe estar atenta a las negociaciones en materia económica y ambiental.
 
Es prioritario que México desarrolle conocimiento científico y tecnológico acorde a nuestro ambiente, formulando pactos políticos que permitan armonizar las demandas de grupos internos con el interés nacional y con los intereses comunes a nivel mundial.Chivi51
Agradecimientos
Agradezco a Rodrigo Medellín Legorreta su asesoría.
Referencias bibliográficas
 
Arizpe, L. y J. Carabias. 1992. México ante el cambio global. Antropológicas 3:12-18.
De la Peña, S. 1994. “El tlc: una larga historia”. En A. Dabat (coord.). México y la globalización. Centro Regional de Investigaciones Multidisciplinarias. unam. Cuernavaca, Morelos.
Leff, E. 1990. Introducción a una visión global de los problemas ambientales de México. En E. Leff (coordinador). Medio ambiente y desarrollo en México, vol. 1. Centro de Investigaciones Interdisciplinarias en Humanidades UNAM. Miguel Angel Porrúa Grupo Editorial.
McClung de Tapia, E. 1992. Cambio global y globalización: retos contradictorios para el siglo XXI. Antropológicas 3:8-11.
Perrings, C. 1994. The economic value of biodiversity. En V. H. Heywood (edit.). Global biodiversity assessment. UNEP. Cambridge University Press.
Yamel Guadalupe Rubio Rocha
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Rubio Rocha, Yamel Guadalupe. (1998). Ecología y economía en tiempos de globalización. Ciencias 51, julio-septiembre, 38-43. [En línea]
    regresar al índice artículo siguiente
  P01 P02  
 
     
Desarrollo sustentable y globalización
 
Martha Pérez García y Gilberto Hernández Cárdenas
conoce más del autor
 
 
 
HTML ↓
PDF Regresar al índiceartículo siguiente
     
Todos los seres vivos dependen de la obtención y utilización de otros organismos para su sobrevivencia, manipulando los ecosistemas en que éstos viven. No hablamos de una colección de elementos sin relación entre sí; por el contrario, los componentes de los ecosistemas —tanto bióticos como abióticos— están estrechamente relacionados por procesos naturales que también son parte de ellos; muchos constituyen mecanismos estabilizadores del ecosistema. Al estabilizarlo, permiten su permanencia en el tiempo; con un buen manejo proporcionan múltiples beneficios a la especie humana.
El acelerado deterioro de los ecosistemas naturales se inició de manera sistemática con la revolución industrial; los avances logrados en la ciencia, la tecnología de transformación y el proceso capitalista condujeron a cambios y efectos de contaminación, así como al agotamiento de recursos naturales. Tal crisis resulta de imponer un modelo de desarrollo económico fundamentado en la maximización de las ganancias y del excedente económico en el corto plazo, con sus efectos en la concentración del poder económico y político, el cual sólo ha aumentado los niveles de deterioro ambiental, profundizando la brecha entre pobres y ricos13.
También es de considerar el acelerado aumento de la población mundial, que ejerce una mayor presión sobre los recursos naturales. Strong señaló que a mediados de 1991, la población llegó a ser de 5 mil 400 millones de personas. De éstas, 77% vivía en países en desarrollo y 23% en países desarrollados. Se estima que para el año 2000 la población mundial será de casi 6 mil 300 millones de habitantes, y de 8 mil 500 para el 2025. Más de 90% del incremento poblacional ocurre en los países en desarrollo, en donde la población ha crecido de mil 700 millones en 1950 a 4 mil 200 millones en 1991; se espera que esta cifra llegue a ser de aproximadamente 5 mil millones en el año 2000. El mayor crecimiento poblacional en los países en desarrollo ha sido utilizado por algunos gobiernos y ciertos grupos de países avanzados como argumento para “culpar” a los primeros de ser los principales responsables del deterioro ambiental y, al mismo tiempo, causa básica para que no puedan salir del subdesarrollo.
En la última década se ha dado un intenso debate sobre el desarrollo sustentable (muchas veces mal entendido); el término ha formado parte de todos los discursos y publicaciones, desde las periodísticas, políticas, económicas y ecologistas, hasta las estrictamente académicas. Por otro lado, el exacerbado fenómeno globalizador que estamos viviendo ha conducido a la formación de grandes monopolios de acceso a los recursos naturales del planeta: los peligros de la explotación indiscriminada adquieren ahora visos planetarios.
Desarrollo sustentable
La idea del desarrollo sustentable se registra desde los años 70, cuando surgen algunas líneas de pensamiento que posteriormente servirán de base a la noción de una nueva economía del desarrollo. Una de ellas es la del “ecodesarrollo”, concepto acuñado y expuesto por el economista polaco Ignacy Sachs, quien fue de los primeros en buscar una conciliación entre las nociones del desarrollo y la necesidad de ejercer al mismo tiempo una política ambiental. Es a mediados de la década de los 80 cuando, con la entrega del Informe Final (Nuestro futuro común o Reporte Brundtland) que realizó la Comisión Mundial del Medio Ambiente y del Desarrollo (cmmad), se presenta un análisis del estado mundial del medio ambiente y se proponen estrategias medioambientales a largo plazo, hacia un desarrollo sustentable para el año 2000. Este informe incluye la definición de desarrollo sustentable: “es el que satisface las necesidades de la generación presente, sin comprometer la capacidad de las generaciones futuras para satisfacer sus propias necesidades”.
Se trata de un proceso que no tiene bien identificados los pasos a seguir; no hay fórmulas mágicas que señalen caminos definidos, sólo hay propuestas de diversa índole y algunos estudios que pueden ser útiles como base para perfilar ciertas estrategias. Además implica, entre otros aspectos, la reorientación de la evolución tecnológica y el marco institucional, el avance en el crecimiento económico —sobre todo en los países en desarrollo—, la modificación de patrones de consumo —en especial en países desarrollados—, así como la realización de proyectos serios y responsables para disminuir y/o erradicar la extrema pobreza.
Globalización
La globalización de la economía mundial en las últimas décadas de este siglo ha vinculado aún más la realidad interna de las naciones con su contexto externo. Este fenómeno coexiste con el peso decisivo de la cultura, los mercados y los recursos naturales de cada nación. La articulación de esta dimensión endógena de la realidad con su contexto externo determina el desarrollo o el atraso de los países.
No es algo nuevo; tiene una antigüedad de cinco siglos. Comienza en la última década del siglo xv con el lento pero constante desarrollo del capitalismo en la Edad Media europea. El incipiente desarrollo económico de Europa planteó, por primera vez, una de las dos condiciones fundamentales (aumento de la productividad y un orden mundial global) del dilema dimensión endógena/contexto externo. Sin embargo, hasta fines del siglo XV la cuestión era sólo de carácter intraeuropeo; pero el descubrimiento, conquista y colonización del llamado nuevo mundo —América— incorporó un espacio gigantesco que cumplió un papel decisivo en la formación del orden económico mundial. En ese periodo también comenzó a gestarse la distinción entre el poder tangible y el intangible. El tamaño de su población y los recursos naturales constituyen el poder tangible de cada país, pero la respuesta al contrapunto entre el ámbito interno y el contexto externo condiciona la gestación de los factores intangibles, representados en la tecnología y la acumulación de capital. En ausencia de estos últimos componentes, el poder tangible se disuelve en el subdesarrollo. Así, desde el despegue del Primer Orden Económico Mundial comenzó a tejerse la trama sobre la cual se articuló el sistema internacional y la distribución del poder entre las naciones.
La globalización se refiere a la condición en la cual la información y el impacto de los sucesos que ocurren en alguna parte del mundo se comunican rápidamente a muchos otros puntos, saltando barreras nacionales y ambientales. En estas últimas décadas, el proceso ha vinculado aún más la realidad interna de las naciones con su contexto externo; la expansión del comercio, las operaciones trasnacionales de las empresas, la integración de las plazas financieras con un megamercado de alcance planetario, y el espectacular desarrollo de la información (incluyendo las computadoras) han estrechado los vínculos entre los países.
Tal globalismo, que intenta homogeneizar y controlar la vida y soberanía de todas las naciones con el pretexto de la modernidad, se genera por medios técnicos y económicos, pero sus implicaciones son sociales, políticas, culturales y ambientales, ya que ha promovido un fenómeno compulsivo de destrucción de la cultura y la experiencia tradicional indígena en su relación con la naturaleza y otros muchos aspectos, y su sustitución forzada por formas modernas de expoliación y depredación de enormes recursos naturales de los países en vías de desarrollo.
Difícil panorama internacional
La amplia temática tratada en la conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo —que desembocó en el documento denominado Agenda 21— celebrada en Río de Janeiro, Brasil, en junio de 1992, en su intento por hacer compatible la protección ambiental con el crecimiento y desarrollo económico, atraviesa en su dimensión vertical y horizontal las relaciones humanas, tanto en el interior de las sociedades como entre países. Si bien la conferencia logró avances de importancia en ciertas áreas, otros grandes problemas quedaron sin solución. La conferencia —también conocida como la Cumbre de Río— se tradujo en una lucha entre diversos intereses en el ámbito mundial, los cuales responden a condiciones distintas entre naciones y sociedades, a múltiples necesidades —desde preocupaciones sobre el mejoramiento de las condiciones de vida en la Tierra, hasta llamadas angustiosas y desesperadas frente a los efectos de la pobreza extrema y la hambruna. La situación ha generado gran número de opiniones controversiales. Algunos argumentan que los países desarrollados consumen más de 80% de los recursos disponibles en la Tierra; otros sostienen que la sobrepoblación es el problema principal. En el caso de autores como Hardin sus opiniones llegan a extremos realmente irritantes, por sus connotaciones racistas. Estas aseveraciones neomalthusianas han sido rebatidas por numerosos autores. Otros investigadores sostienen que el consumo suntuario en los países desarrollados es una de las causas más importantes del deterioro ambiental, y tampoco coinciden en el orden de prioridades de los problemas ambientales (los globales), pues consideran que éstos son responsabilidad de los países del Norte.
La alarmante realidad es que la mayor parte de los países en desarrollo no tiene capacidad de participar en los acuerdos globales. Se estima que más de 60 naciones carecen de la experiencia jurídica internacional y la habilidad técnica para tomar decisiones informadas y objetivas sobre asuntos tan complejos; más aún, muchos países ni siquiera pueden afrontar los gastos que significan el envío de representantes a las reuniones internacionales. Por si fuera poco, los voceros estadunidenses advirtieron que reducir el volumen de consumo o cambiar radicalmente los patrones de vida de los países desarrollados significaría recortar las exportaciones de los países en desarrollo, al contraerse sus mercados; ello —aseveran— abatiría los ingresos que los países pobres tendrían para financiar la sustentabilidad del medio ambiente.
Uno de los grandes problemas a resolver es traducir el proceso de desarrollo sustentable a los contextos nacionales, previendo la forma en que deba o pueda transformarse el modelo actual de desarrollo, los plazos y programas para lograrlo, los costos y beneficios, y su relación con todos los aspectos presentes y previsibles de la evolución económica y social.
Otra gran dificultad es la deuda externa de los países en desarrollo, que en el caso de México y Brasil es extraordinariamente alta, lo que implica una transferencia neta de recursos monetarios hacia el exterior por concepto de servicio de tal deuda; para poder cumplir habría que fomentar internamente un excedente de ahorro sobre inversión. Como a corto plazo es muy difícil, se reduce drásticamente la inversión; la consecuencia es dejar de construir y mantener carreteras, represas, viviendas, hospitales, escuelas, con grave deterioro de la infraestructura y la capacidad productiva de los países en desarrollo. Se les obliga a concentrarse en inversiones destinadas a extraer más recursos para aumentar sus exportaciones, la mayoría de las veces vendiéndolos como materia prima a precios  irrisorios. Igualmente se ve afectada la capacidad de proveer servicios sociales a la población, generando con ello enormes aumentos de desempleo y subempleo y peligrosos riesgos de tensión social (en la presente década se han extendido de manera notable en la mayoría de los países en desarrollo), que pudieran alcanzar de alguna manera a los países desarrollados.
Como si no bastara, recientemente se ha establecido la llamada condicionalidad ambiental de los préstamos del Banco Mundial y de diversas agencias de cooperación internacional para los países latinoamericanos. Esto es, que los proyectos de naciones en vías de desarrollo que solicitan financiamiento externo, son sometidos a un estricto análisis para asegurarse de que tales proyectos no deteriorarán ni afectarán negativamente las condiciones ambientales y ecológicas de los países solicitantes, pero pasan por alto los graves impactos y dilapidación de recursos naturales que sus fábricas trasnacionales cometen en nuestros países.
Otro aspecto importante es el acceso al mercado internacional; la principal área de inquietud se relaciona con los productos agrícolas. En muchos países en desarrollo, el proteccionismo agrícola —junto con las exportaciones subsidiadas de estos productos— contribuye a bajar los precios internacionales, limitando severamente la capacidad de diversos países para desarrollar la agricultura en forma sustentable, y colocando a los sectores productivos bajo fuerte tensión.
Es indudable que la globalización ha favorecido cambios determinantes en los últimos años, por ejemplo la concentración y centralización del poder tecnológico, financiero, político y militar en pocas manos y países, provocando una globalización desde arriba. Al mismo tiempo, la pobreza y el desempleo han crecido, excluyendo a grandes masas de población convertidas en población superflua, con mayor fragmentación y polarización de las sociedades, tanto del norte como del sur. La homogeneización del mercado y el control de los medios de comunicación social han facilitado la instauración de un sistema de poder opaco, que busca —aparentando no tener color ideológico– ser la lógica y natural exigencia de la modernidad, la única vía hacia el progreso y el mejoramiento de las condiciones de vida de millones de personas marginadas. La apatía del intelecto y de la voluntad, así como el anonimato y la atomización de buena parte del mundo académico, constituyen notables conquistas del poder opaco.
Para los países en desarrollo
¿Cómo se puede pensar en un desarrollo sustentable en el mundo, cuando el fenómeno globalizador ha generado severas crisis que ya son de civilización? La crisis del medio ambiente es producida tanto por el excesivo consumo de un pequeño número de países y pueblos del norte, como por el empobrecimiento creciente de los países del sur que amenaza fauna, flora y vida en los océanos. Los pueblos indígenas y campesinos —quienes preservaron por siglos el medio— han sido forzados por el modelo de capitalismo neoliberal a convertirse también en depredadores de la naturaleza para poder sobrevivir. Además, los ajustes estructurales para imponer la globalización planetaria han afectado de manera muy inequitativa la carga fiscal, las tasas de interés en los créditos a pequeños propietarios, el costo de bienes y servicios en las zonas marginadas, y dieron pie a medidas legislativas que condujeron a la privatización de las selvas, tierras y aguas comunales que antes eran de los campesinos pobres, quienes se volvieron paupérrimos.
Entre otros efectos negativos, el fenómeno globalizador que estamos viviendo representa un enorme obstáculo para transformar el proceso actual de desarrollo en uno sustentable, adecuado para la conservación de la biodiversidad. Ello puede ser ilustrado con la polémica suscitada en las últimas dos décadas en cuanto a los derechos de propiedad del germoplasma vegetal. La mayor diversidad de recursos genéticos vegetales a nivel mundial se concentra en los países en vías de desarrollo, y es ahí donde se ha efectuado la domesticación y la producción sistemática de cultivos vegetales a lo largo de miles de años. El encuentro del nuevo y viejo mundo condujo a un movimiento generalizado de material vegetal; el “capitalismo mercantil de expansión” europeo que se basaba en la producción agrícola, influyó en la velocidad y extensión del movimiento de material botánico, transformando la agricultura de ambos mundos.
Siglos después, al iniciar su carrera como potencia, Estados Unidos se vio en la necesidad de colectar germoplasma alimentario e industrial, debido a la pobreza genética de su propio territorio. La actividad se realizó de diversas maneras y a través de diferentes instancias; entre ellas se pueden mencionar los centros de investigación establecidos por el cgiar (Grupo Internacional de Consulta e Investigación Agrícola), que se encargaron de extraer y transferir el valioso material a bancos de germoplasma en Europa, Estados Unidos y Japón. Mucho de este material ha servido como base para avances técnicos y científicos de gran relevancia; sin embargo esto no le quita importancia al reconocimiento de los problemas que existen en torno a la creciente escasez de material genético vegetal (denominada “erosión genética”) en sus regiones de origen, debido a la falta de regulación de la extracción e intercambio de los recursos genéticos vegetales entre países desarrollados y en vías de desarrollo, lo cual tiene repercusiones ecológicas, económicas y sociales. Por ello se suscitaron muchas inquietudes sobre el problema de la “erosión genética”, señalando las causas subyacentes a la monopolización por parte de las industrias semilleras privadas; también se generó oposición a la legislación propuesta por países desarrollados sobre los “derechos de reproductores de semillas”. Esto llevó a políticos, diplomáticos y científicos de países en vías de desarrollo a iniciar un cabildeo en la fao/onu en 1980. Para 1983, en su xxii Conferencia bianual, la fao adoptó una resolución acerca de los recursos genéticos vegetales: la 8/83.
La resolución estableció que tanto las semillas híbridas —generadas por los países desarrollados— como las razas locales —ubicadas mayormente en los países en desarrollo— son consideradas herencia común de toda la humanidad, lo que ha provocado fuertes discusiones alrededor de la propiedad e intercambio de los recursos genéticos vegetales. Por un lado, los países desarrollados reconocen al germoplasma original —razas locales y cultivares tradicionales— como un “bien de acceso libre”, y por el otro señalan que las “semillas mejoradas” producidas por la tecnología moderna en países desarrollados son “propiedad privada”, sólo accesibles mediante la compra. Así, no sorprende que los países industrializados rechacen la resolución 8/83, obstaculizando tanto la generación de metodologías y prácticas de desarrollo sustentable como la conservación de la diversidad genética, al sólo reconocer los recursos genéticos vegetales de valor agrícola e industrial y pretender seguir saqueándolos, al tiempo que menosprecian las especies y las prácticas tradicionales valiosas para los habitantes rurales y la naturaleza del planeta.
Los cambios necesarios en el comportamiento de las naciones para dar los primeros pasos seguros hacia un desarrollo sustentable, no sólo tienen que ver con consideraciones de orden económico, sino con aquellas arraigadas en la cultura, con los valores y cualidades morales, éticas y espirituales, motores fundamentales del comportamiento humano. Sin embargo se antoja utópico, pues la mayoría de las naciones consideradas potencias no desean dejar de serlo; es más, ni siquiera aceptan cambiar sus dispendiosos patrones de vida en aras de la conservación de la naturaleza, base de todos los beneficios que han obtenido a costa de la expoliación de los recursos de quienes menos tienen.
A pesar de lo anterior, la sociedad civil está emergiendo a nivel global con una comunidad de nuevos valores, actitudes e intereses, en respuesta a las amenazas en todos los continentes. En esta década una globalización desde abajo, adentro y abierta ha venido cobrando fuerza; la falsa pretensión de la inevitabilidad de una globalización homogénea y neoliberal del mercado mundial se ha topado con propuestas alternativas encarnadas en proyectos participativos y acumulativos a nivel local, regional, nacional y mundial. Tales proyectos son portadores de una visión, propuestas y esperanza transformadoras, en pleno contraste con el temor y la incertidumbre de aquellos cuyas fórmulas de estabilización y ajuste no están funcionando. La rebelión de las culturas frente a la homogeneización que amenaza su identidad, idiosincrasia y recursos naturales, hace que los nuevos sujetos de la sociedad civil sean difícilmente incorporables al paradigma de la globalización desde arriba, en la que sólo participan como consumidores pasivos y con determinado poder adquisitivo. El modelo neoliberal ya está mostrando signos de debilidad; su eficiencia y credibilidad son muy cuestionadas. Un nuevo espacio y un nuevo tiempo se han abierto para redefinir los conceptos de desarrollo —incluyendo el sustentable— para vincular a los sujetos alternativos y comenzar un plan de acción nacional e internacional solidario para una estrategia de cambio global.
Conclusiones
Como se ha visto, razones y presiones económicas, culturales y políticas —tanto nacionales como internacionales— contribuyen a que el desarrollo sustentable no forme parte del futuro inmediato de los países en desarrollo, y menos con esta globalización que genera desequilibrios e impone modelos de desarrollo que resultan asfixiantes. Sin embargo, también se ve difícil que el fenómeno globalizador pueda expanderse totalmente y, más aún, aceptarse como el camino inevitable y único hacia el progreso. Pero es indudable que también pesa mucho el no saber cómo afrontar los retos.
Es preciso incrementar las fuerzas de nuestros países y reducir sus vulnerabilidades con base en el desarrollo de sus recursos humanos y de las capacidades institucionales relacionadas con los campos de la ciencia, la tecnología, la administración y la preparación profesional. La falta de capacitación es un factor limitante del desarrollo sustentable en todo el mundo, y específicamente de nuestras naciones. Es urgente fomentar y formar talentos internos con capacidad de generar conocimiento y tecnología propios, a fin de solucionar los problemas internos de cada país, y a la vez enfrentarse a un mundo globalizado en donde el conocimiento es la materia prima de la competitividad. También se necesita que los gobiernos confíen en la capacidad de las personas bien preparadas y dejen de importar asesorías y paquetes tecnológicos que sólo producen pérdida de recursos naturales y divisas.
En relación con el monopolio de obtención de recursos naturales del planeta, sería más saludable fomentar el acceso tanto a los recursos naturales como a los medios de producción de manera igualitaria y respetuosa, de forma que hubiese cada vez menos desigualdad. También se podría gestar un proceso global de toma de decisiones, con fuerte presencia y participación de los países que detentan los recursos naturales más importantes y abundantes para la humanidad. Aunque es un asunto delicado y complicado, se debería incluir una valoración monetaria de tales recursos, la cual haría obligatorias la reducción de pérdidas y la distribución del valor y del ingreso de esos bienes.
Finalmente, en relación con los recursos genéticos vegetales, se necesita que todos los países participen en la búsqueda de soluciones equitativas y esto incluye, desde luego, a los millones de agricultores de subsistencia, quienes cotidianamente conservan in situ los recursos naturales. Una respuesta humanista al desafío que plantea la globalización puede ser idealista pero no utópica; es urgente reconocer la realidad de cada país o región para realizar el proceso de sustentabilidad.Chivi51
Referencias bibliográficas
Amín, S. 1995. El futuro de la polarización global. CIICH-UNAM. México, D.F.
Carabias, J. y E. Provencio. 1994. “La política ambiental mexicana antes y después de Río”. En: A. Glender y V. Lichtinger (comps.) La diplomacia ambiental. México y la Conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo. Secretaría de Relaciones Exteriores/Fondo de Cultura Económica. México, DF.
Comisión Mundial del Medio Ambiente y del Desarrollo (CMMAD). 1988. Nuestro futuro común. Alianza. Editorial. Madrid.
Ehrlich, P. R., A. H. Ehrlich y J. P. Holdren. 1972. “Population, Resources, Environment. Issues in Human”. Ecology. W. H. Freeman And Co. San Francisco.
Ferrer, A. 1996. Historia de la globalización. FCE/Serie de Economía. Buenos Aires, Argentina.
González, C. P. 1995. Globalidad, neoliberalismo y democracia. CIICH-UNAM, México, DF.
Gorostiaga, X. 1995. El sistema mundial: situación y alternativas. CIICH-UNAM. México, DF.
Hardin, G. 1977. Living on a lifeboat. En W. R. Burch (ed.) Readings in Ecology, Energy and Human Society: Contemporary Perspectives.
Kloppenburg, J. R. Jr. y D. L. Kleinman. 1988. “The plant germplasm controversy. Analyzing empirically the distribution of the world plant genetic resources”. BioScience 37 (3): 190-198.
Quadri, T. G. 1993. “El medio ambiente en la política internacional”. En: A. Azuela, J. Carabias, E. Provencio y G. Quadri (coords.) Desarrollo sustentable. Hacia una política ambiental. UNAM.
Strong, M. F. 1994. “Conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo”. En A. Glender & V. Lichtinger (comps.) La diplomacia ambiental. México y la Conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo. Secretaría de Relaciones Exteriores/Fondo de Cultura Económica. México, DF.
Sunkel, O. 1990. “El difícil contexto internacional para un desarrollo sustentable”. En G. Maihold y V. L. Urquidi (comps.) Diálogo con nuestro futuro común. Perspectivas latinoamericanas del Informe Brundtland. Fundación Friedrich Ebert-México/Editorial Nueva Sociedad. Venezuela.
Toledo, C. 1992. “Polarización económica y desarrollo sustentable”. Revista Latinoamericana de Economía. Problemas de Desarrollo XXIII (91): 31-36.
Toledo, V. M. 1996. “Saberes indígenas y modernización en América Latina: historia de una ignominia tropical”. Etnoecológica III (4-5): 135-147.
Treviño, M. L. 1993. “Las semillas de la discordia”. Etnoecológica I (2): 53-64.
Urquidi, V. L. 1994. “Economía y medio ambiente”. En: A. Glender y V. Lichtinger (comps.) La diplomacia ambiental. México y la Conferencia de las Naciones Unidas sobre Medio Ambiente y Desarrollo. Secretaría de Relaciones Exteriores/Fondo de Cultura Económica. México, DF.
Martha Pérez García y Gilberto Hernández Cárdenas
Universidad Autónoma Metropolitana-Iztapalapa
_______________________________________________________________
como citar este artículo
Pérez García, Martha y Hernández Cárdenas, Gilberto. (1998). Desarrollo sustentable y globalización. Ciencias 51, julio-septiembre, 44-49. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Naturaleza y sociedad. Escalas de espacio
y tiempo
 
Gerardo Bocco
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Por investigación socioambiental entendemos, genéricamente, aquellos procesos de modelamiento acerca de objetos de estudio en los cuales la relación entre naturaleza y sociedad es indisoluble.
 
Naturaleza, en este contexto, se refiere a lo que comúnmente conocemos como ambiente (con una dimensión territorial y en una coordenada temporal), donde se disponen recursos naturales, cuyo aprovechamiento, según diferentes racionalidades, está en la base del desarrollo de comunidades concretas. Incluye tanto lo biótico —cobertura vegetal, hábitats— como lo abiótico —formas del relieve y suelos.
 
Para estos propósitos, el término sociedad describe la actividad antrópica, incluyendo lo social, económico y cultural, en sentido amplio —aprovechamiento de los recursos y modificaciones del paisaje en términos de su antropización, esto es, de los efectos que tiene la actividad humana sobre ellas.
 
La investigación socioambiental que se desarrolla actualmente en México y otros países de América Latina, es resultado de la confrontación de los paradigmas dominantes en ciencias naturales —con el consecuente y paulatino abandono de los conceptos reduccionistas— y la acogida de aquellos relacionados con la complejidad, lo interdisciplinario y posmoderno.
 
En México, esta investigación —que puede considerarse incipiente en algunos ambientes académicos, y marginal en relación con las instituciones científicas oficiales— está buscando una creciente formalización en la estructuración de modelos heterodoxos basados en experiencias concretas, especialmente —aunque no sólo— en el medio rural, en zonas de pobreza y de marcada etnicidad, sin por ello renunciar a su rigurosidad científica.
 
Temas como sustentabilidad, y parámetros para medirla; deforestación, y su monitoreo e implicaciones socioambientales; cambio del uso del suelo, y su causalidad natural y social; dimensiones sociales del cambio global (a nivel regional); impacto ambiental, y modelos para medirlo; ordenamiento territorial y los conceptos y modelos necesarios, están en el centro del interés académico, tanto teórico como en experiencias concretas de manejo de los recursos.
 
A juzgar por recientes textos de Levin, Brown y McLeod, entre otros, la investigación en ecología tendería a establecer vínculos entre los aspectos más “duros” de la ciencia y la toma de decisiones. En este contexto, el tema de las escalas (espacio-tiempo) está recibiendo cada vez mayor importancia, en especial a partir de los años 90. Sin embargo, ha estado presente en los enfoques de los geógrafos de recursos naturales y ecólogos del paisaje como parte integral de sus preocupaciones desde mediados de este siglo.
 
 
El espacio y el tiempo
 
 
 
El concepto de escala denota la resolución dentro del intervalo de una cantidad medida. En otras palabras, se refiere a la dimensión espacial o temporal de un sistema. Esta idea vale para lo espacial y lo temporal; de allí la conveniencia de manejar ambas como componentes inseparables en investigación socioambiental. Lo espacial y lo temporal son inherentes a los temas objeto de la preocupación socioambiental. Por lo tanto, las escalas (o bien las resoluciones espacial y temporal) deben formar parte de las condiciones de contorno de los sistemas en estudio.
 
Los procesos socioambientales ocurren en un territorio específico; buena parte de la comprensión de su naturaleza tiene que ver con los cambios en el tiempo (estacionales, anuales o de largo plazo). La dimensión espacial es básicamente abordada desde la geografía, y la temporal es más bien interés de los ecólogos, pero se trata de una diferenciación artificial y no refleja un concepto profundo.
 
 
Lo temporal es un ingrediente en el modelamiento de situaciones hipotéticas (o bien ocurrencias probables en el futuro), y el proceso de investigación por el cual podemos atacarlo es la detección del cambio y el monitoreo. La diferencia entre uno y otro es que el monitoreo (o seguimiento) supone algún tipo de modelo explicativo. El enfoque suele denominarse globalmente como multitemporal.
 
Una herramienta fundamental para abordar la cuestión temporal es el análisis estadístico de datos temporales. Un simple promedio, acompañado de alguna indicación de la variabilidad de los datos, puede ser una buena indicación del cambio temporal, por ejemplo, de algún parámetro meteorológico. Otras herramientas más complejas incluyen las series y el análisis probabilístico de ocurrencia de eventos extraordinarios.
 
 
Para la cuestión temporal, otra herramienta básica es el uso de imágenes obtenidas mediante la percepción remota, correspondientes a diferentes épocas del año o a diferentes años. Para ello es preciso organizar las imágenes (o mapas) para ser comparadas según el mismo sistema de referenciación espacial, por ejemplo coordenadas geográficas. Además, es preciso considerar el problema de la resolución espacial para poder desarrollar la comparación temporal. La escala, por un lado, debe ser homogénea entre los datos a ser comparados. Por otro, la resolución debe ser la adecuada. De lo contrario, los objetos a ser comparados pueden estar bien generalizados (y por lo tanto agregados en clases inconvenientes), o bien demasiado representados espacialmente.
 
De igual modo se utilizan índices —basados en mediciones de las respuestas espectrales— que describen la variación en el tiempo de la cobertura vegetal o de las características de los océanos o de masas de hielo.
 
Lo espacial es el otro ingrediente relacionado con la resolución de las investigaciones. Es relativamente más estático que el anterior, pero igualmente poderoso en el modelamiento de situaciones donde la distribución de objetos de estudio es relevante en la explicación y predicción de su ocurrencia. Esto es básico en temas relacionados con los recursos naturales y su aprovechamiento y degradación en forma sustentable y no.
 
El enfoque fundamental para abordar lo espacial es el análisis geográfico y su lenguaje, la cartografía. En la actualidad, estos conceptos se ven complementados por los sistemas automatizados de información geográfica. La generación del dato se basa en buena medida en los sistemas de percepción remota: interpretación de fotografías aéreas, imágenes de video o de satélite.
 
Lo espacial supone el manejo de entidades geográficas —puntos, líneas o polígonos— organizados en un sistema de coordenadas conocido, y su utilización en la formulación de modelos espaciales —mapas, en general automatizados— y el análisis espacial: vecindad, proximidad, adyacencia, sobreposición, generalización y clasificación, etcétera. La complejidad de los problemas que se analizan requiere aproximaciones sucesivas, esto es, del trabajo a varias escalas: de lo general a lo particular, de lo macro a lo micro (y viceversa), de la interpolación a la extrapolación. Este enfoque se denomina multiescalar, y en general va acompañado de un conjunto de documentos integrados a lo largo de una dimensión espacial.
 
La definición precisa de las escalas es tan importante como (y una función de) el objeto y los objetivos de estudio. Así, un error es similar a un yerro en la selección de métodos y técnicas. La escala es una proporción (de realidad a modelo), pero también representa un cierto nivel de conceptualización del problema. Buena parte de los problemas en la investigación de paisajes radica en la incorrecta selección de escalas y los documentos (mapas, fotos, censos...) que de ella se desprenden.
 
Una relación integral
 
 
Lo temporal no implica naturalmente cambios graduales, paulatinos y mucho menos lineales. Un promedio puede ser un valor carente de significado. Los cambios espaciales pueden ser casi imperceptibles de año a año, pero responder a algún estímulo que desencadene un proceso en forma exponencial.
 
La relación entre la red de drenaje (es decir, el conjunto de ríos y/o arroyos) de una localidad y los eventos de precipitación-escurrimiento que la generan, puede ser un ejemplo de lo anterior. Esta red hidrográfica resulta de la suma de la actividad que, año con año, el escurrimiento y las corrientes ejercen sobre las laderas y los valles. Cuando se producen eventos extraordinarios, esa red no puede contener ni evacuar la cantidad de agua que se concentra rápidamente, en especial en zonas semi-áridas de alta torrencialidad. En esos casos se producen inundaciones, pues los cauces no pueden transportar el caudal, y consecuentes deslaves.
 
La forma de analizar el problema es manejar la escala temporal desde la perspectiva de eventos de recurrencia muy baja. Es decir, revisar la frecuencia de la ocurrencia de eventos de gran magnitud y, por lo tanto, baja probabilidad de ocurrencia anual. La dimensión espacial, y su resolución, debe ser lo suficientemente detallada para representar la red de drenaje, las formas del relieve correspondientes (lechos menor, mayor, planicies de inundación, terrazas...) y las posibles manifestaciones de los eventos extraordinarios de precipitación en las laderas (remoción en masa, inundaciones).
 
Aunque resulte obvio, este tipo de reflexiones es crítico en el ordenamiento de uso de suelo —tanto urbano como rural—, el aprovechamiento de sus recursos naturales y la planificación de las actividades productivas.
 
 
Los planes de manejo
 
La realización de un plan integral del manejo de los recursos naturales disponibles para una comunidad específica supone el conocimiento de los aspectos espacial y temporal de tales recursos. En otras palabras, se deben conocer su historia, la dinámica de su desarrollo y aprovechamiento, y su arreglo o disposición en el espacio comunitario. Supone también que se contemple tanto el uso como la conservación de la diversidad biológica, paisajística y cultural en el grupo.
 
Para ello, es preciso usar el dato geográfico, un descriptor del objeto en estudio en el espacio y el tiempo. El dato geográfico se mide según rangos, y dentro de ellos, de acuerdo con ciertas resoluciones. Los datos geográficos son de índole tanto biofísica (ecogeográfica) como socioeconómica y cultural. Los datos geográficos nos permiten describir en forma integral los recursos naturales de una comunidad, sus usuarios y el resultado de este aprovechamiento. El análisis se realiza en un eje temporal específico, de manera que el dato geográfico se evalúa en su dinámica de cambio.
 
Los datos geográficos expresan, en forma computarizada, la relación que en toda comunidad existe entre la oferta ambiental y la demanda social en un tiempo y espacio determinados.
Las herramientas disponibles para poder desarrollar planes integrales de manejo son de índole bien conceptual o bien técnica. Las primeras se refieren a las unidades paisajísticas (ecogeográficas) necesarias para: 1) almacenar el conocimiento acerca de la distribución de los recursos naturales; 2) evaluar la aptitud productiva del territorio; 3) evaluar los conflictos potenciales entre aptitud y uso actual. Así, estas unidades permiten organizar espacialmente a la comunidad un proceso que se conoce como ordenamiento territorial, y que opera como elemento fundamental del plan de manejo integral comunitario.
 
Las herramientas técnicas se refieren al conjunto de procedimientos que sirven para observar y monitorear los recursos naturales, así como almacenar y analizar el resultado de estas observaciones. En otras palabras, los Sistemas de Información Geográfica (sig) y los sistemas de percepción remota, en forma integrada, son herramientas para crear y manipular datos geográficos.
 
En este contexto, los sig permiten el manejo de una gran cantidad y variedad de datos abióticos —rocas, formas del relieve y suelos—; bióticos —flora y fauna—; socioeconómicos —capital demográfico, producción, circulación y consumo de bienes—, y culturales —cosmovisión comunitaria, toponimia, etnoconocimientos. Buena parte de los datos existen en formato analógico o digital (mapas, censos, encuestas...) que en México son elaborados por el Instituto Nacional de Estadística, Geografía e Informática. Otros datos deben ser creados especialmente por la comunidad. Para ello se recurre a técnicas de interpretación de fotografías aéreas y/o de imágenes obtenidas desde satélites.
 
Las unidades ecogeográficas tienen por base las unidades de roca, relieve y suelos, que describen los resultados de los cambios topográficos: rupturas de pendiente, cambios de altitud, en términos de las formas de relieve, la hidrología de las laderas y desarrollo de suelos resultantes. A estas unidades geomorfológicas se deben ligar las unidades de vegetación y hábitats de fauna, para así configurar unidades integrales, biofísicas, de paisaje. Estos procesos de integración se realizan en el marco del sig, con apoyo en trabajo de campo y percepción remota.
 
Estas son las unidades básicas que se evalúan en términos de su aptitud. Al proceso lo conocemos como evaluación de tierras, y se realiza para diferentes sistemas productivos (agrosilvopastoriles), seleccionados por la comunidad. Cada unidad tendrá un cierto grado de aptitud para uno o más sistemas productivos. El proceso desemboca en la definición de unidades no sólo biofísicas sino productivas.
 
Estas son las unidades de manejo comunitarias y representan la última etapa del análisis ecogeográfico puesto en práctica en un sig. Son parte básica de la información para la toma de decisiones comunitarias generadas en un sig, y constituyen uno de los ejes fundamentales de los planes integrales de manejo comunitarios.
 
Un ejemplo: la deforestación
 
La deforestación es uno de los temas que mayor atención ha concitado en cuanto a la investigación de índole socioambiental. Es un caso específico del cambio en el uso del suelo, cuestión fundamental que requiere atención especial en lo espacial y temporal. De por sí, en el proceso de deforestación se presupone el uso de lo espacial y lo temporal, ya que el cambio de, por ejemplo, bosque a otro tipo de cobertura se da en ecosistemas que ocupan unidades territoriales específicas (paisajes), y surge de la comparación entre dos tiempos concretos (tiempo 0 y tiempo 1).
 
La explicación de este proceso —que tiene importantes consecuencias en la dinámica de los ecosistemas afectados— es de índole social. Sólo en circunstancias muy específicas puede deberse a procesos de cambio no antrópico (a lo largo de dimensiones geológicas, por ejemplo). Es decir, sólo podemos entender la deforestación si analizamos procesos en tiempos distintos, en un territorio, pero debido a procesos que pueden haberse originado en otros espacios, incluso muy alejados de aquél en estudio. El proceso de ganderización en su conjunto responde a iguales causas. Así, lo espacial-temporal es inherente a este proceso de cambio.
 
En la deforestación, como en otros temas similares, la escala de tiempo que nos interesa es la antrópica o agronómica. Es también la que podemos medir, con cierta confianza, utilizando técnicas convencionales con diferentes grados de precisión. En cuanto a lo espacial, poder relacionar las áreas de cambio con los paisajes a los que corresponden, nos permite entender las repercusiones sobre otros componentes del paisaje (el agua, por ejemplo), predecir patrones futuros, e incluso extrapolar conclusiones a otras regiones ecogeográficamente similares.
 
El manejo del recurso forestal y su cambio en tiempo, puede empezar con la descripción de la zona ecogeográfica (por ejemplo, bosque templado en terrenos volcánicos a nivel regional: la meseta tarasca), para luego describir la problemática a nivel de un municipio o comunidad, y finalmente estudiar el aprovechamiento de bosque en una parcela. El primer nivel requeriría de imágenes de satélite y mapas al 1:250,000 (donde un cm en el mapa representa 2.5 km en la realidad); el segundo de fotos aéreas y mapas al 1:50,000 (donde la relación es de 1 cm a 500 m); finalmente, el tercero requeriría de un plano detallado, con levantamiento topográfico sobre el terreno (1 cm igual a 10 ó 20 m). Este tratamiento puede hacerse doblemente complejo analizando, además, los cambios de la cobertura forestal en el tiempo. En estos casos el uso de sistemas computarizados es casi imprescindible.
 
Consideraciones finales
 
Quedan planteados algunos temas centrales en torno a la cuestión socio-ambiental y sus escalas espacial y temporal. Las herramientas e instrumentos para las mediciones requeridas están bien establecidos técnicamente. Existen diferentes métodos para representar y medir cambios en el tiempo y el espacio. El problema central es más bien qué variables medir, con qué resolución y cuál es la precisión esperable. Ello condicionará las conclusiones que puedan derivarse de los estudios de monitoreo en espacios y tiempos concretos, y la alimentación de modelos relacionados con los cambios planetarios y sus implicaciones en espacios regionales, a corto y mediano plazos.
 
Este artículo se basa en una ponencia presentada ante el Diplomado “Problemáticas ambientales desde la perspectiva del género”, dentro del curso-seminario “La dimensión humana del cambio ambiental global desde la perspectiva del género”. Se agradece la invitación de la maestra María Fernanda Paz para participar en el diplomado.Chivi51

 

 
Referencias bibliográficas
 
Bak, P. 1996. How Nature Works. The Science of Self-Organized Criticality. Springer-Verlag. Nueva York.
Bocco, G., R. Sánchez y H.Riemann (1993). “Evaluación del impacto de las inundaciones en Tijuana” (enero 1993). Uso integrado de percepción remota y sistemas de información geográfica. Revista Frontera Norte. 10(5):53-83.
Brown, J.R. y N.D. MacLeod. 1996. “Integrating Ecology into Natural Resource Management Policy”. Environmental Management. 20(3):289-296.
Funtowicz, S.O. y J.R. Ravetz (1991). “A new scientific methodology for global environmental issues”. En R. Constanza (ed.). Ecological Economics:137-152. Columbia University Press. Nueva York.
Goudie, A. 1994. The Human Impact on the Natural Environment. The MIT Press. Cambridge, Mass.
Huggett, R.J. 1995. Geoecology. An Evolutionary Approach. Routledge. Londres.
Joly, A. 1988. La cartografía. Oikos-Tau. Barcelona.
Leff, E. y J. Carabias (coord.). 1993. Cultura y manejo sustentable de los recursos naturales. Centro de Investigaciones Interdisciplinarias en Humanidades. UNAM. México.
Levin, S.A. 1993. “Science and sustainability”. Ecological Applications. 3(4).
Lira, J. 1987. La percepción remota: nuestros ojos desde el espacio. FCE. México.
Ludwig, D., R. Hilborn y Carl Walters. 1993. “Uncertainty, resource explotation and conservation: lessons from history”. Science. 260:17, 36.
Paz, M.F. (coord.). 1995. De bosques y gente. Aspectos sociales de la deforestación en América Latina. Centro Regional de Investigaciones Multidisciplinarias. UNAM. Cuernavaca.
Toledo, V.M. 1989. Naturaleza, producción, cultura. Ensayos de ecología política. Universidad Veracruzana. Xalapa.
Gerardo Bocco
Instituto de Ecología,
Universidad Nacional Autónoma de México (Unidad Académica Morelia)
_______________________________________________________________
como citar este artículo
Bocco, Gerardo. (1998). Naturaleza y sociedad. Escalas de espacio y tiempo. Ciencias 51, julio-septiembre, 54-59. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  de lo soluble y lo insoluble
 
     
La tercera cultura
 
 
 
Antonio R. Cabral Castañeda
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice / artículo siguiente →
         
En su ahora famoso libro Las dos culturas, C.P. Snow expuso claramente que en la Inglaterra de los años 30, los “intelectuales” literarios y los científicos pertenecían a dos grupos polares que ignoraban sus respectivos campos de experiencia. Tres años más tarde, el físico y novelista inglés agregó un ensayo: Las dos culturas. Un segundo vistazo, en el que habló de una nueva cultura, la tercera, que, según él, se encargaría de cerrar la brecha entre literatos y científicos.
 
Con sus muy honrosas excepciones, esta tercera cultura —en la que se supone los literatos hablan con los científicos— ha brillado por su ausencia. Sin embargo, recientemente apareció un movimiento organizado y llamado La tercera cultura por John Brockman. Tal agrupación está constituida fundamentalmente por científicos que dialogan no con los poetas sino con el público en general. Se trata de un gran acontecimiento, porque la ciencia había estado fuera de los círculos sociales y culturales; el lugar lo había ocupado hasta ahora el arte. Nuestras sociedades lloran cuando un poeta muere, pero no cuando un científico fallece, aunque sea premio Nobel.
 
La tercera cultura es hija legítima de la ciencia pues surge de su sucedánea, la tecnología. Su relación es tan estrecha que a la tercera cultura podría definírsele también como tecnocultura. Kevin Kelly la llama cultura nerd. A quienes hace algunos años llamábamos peyorativamente nerds, hoy son verdaderos héroes: Bill Gates, dueño de la Microsoft Corporation, es el más visible y rico de ellos.
 
Según Kelly, la tercera cultura es algo más que una moda o el clímax de la ingeniería; sus logros —dice Brockman— “no son las disputas marginales de una clase de mandarines pendencieros porque afectan la vida de todos los habitantes de nuestro planeta. La tercera cultura está conformada por científicos y otros pensadores que, a través de su trabajo y escritos, están tomando el lugar del intelectual tradicional al hacer visibles los significados más profundos de nuestras vidas, y al redefinir quiénes y cómo somos”.
 
La ciencia persigue la verdad y el arte la condición humana; la tercera cultura apoya el rigor científico, pero su leitmotiv es la novedad, su esperanza no es la expresión sino la experiencia. El propósito de los miembros de la tercera cultura es crear novedades en ruta hacia la verdad y la experiencia; si los científicos experimentan con la mente y los artistas la contemplan y abstraen, la tercera cultura la produce.
 
A diferencia de los científicos y artistas, los nerds (entiendo que en castellano se llaman ñoños) fabrican más que crean, y no elaboran teorías sino herramientas; las respuestas a cualesquiera de sus preguntas tecnológicas son precisamente nuevos artefactos tecnológicos.
 
El párrafo anterior tiene implícita la idea de que la tercera cultura propone la transformación de la sociedad exclusivamente a través de la tecnología. En muchos casos esto ya es así. Por ejemplo, los comités editoriales de las revistas científicas, las comisiones dictaminadoras de los investigadores y los patrocinadores oficiales de la ciencia la promueven desde hace algún tiempo, toda vez que por encima de los protocolos o artículos conceptuales, favorecen aquellos cuyo principal mérito es, aunque suene tautológico, la tecnología aplicada a la ciencia. Quiérase o no, ello es un signo de nuestro tiempo, puesto que la tecnología ha cambiado y facilitado nuestras vidas: la computadora con la que escribo esto me lo recuerda constantemente.
 
Según lo anotado, la tecnocultura es otra forma de hacer ciencia, con todo y que haya salido de una de sus costillas. Los científicos, digamos clásicos, transitan de las hipótesis a los experimentos y viceversa; su ciencia progresa cuando uno del gremio corrobora o rechaza (refuta, diría Popper) las hipótesis de otro(s); en este contexto, sus verdades son la mayoría de las veces incompletas o incluso temporales. Las verdades, llamémosles cibernéticas, como un modelo de la atmósfera o de la génesis cerebral de las emociones, son también producto de las hipótesis del ciber-investigador que alimentó su computadora con datos generados por la ciencia clásica. De este modo se obtienen modelos observacionales que en otras circunstancias hubiera sido imposible generar. Tales modelos hipotéticos son, desde luego, susceptibles de comprobación científica. Recuérdese con Claude Bernard, que la observación y el experimento son los dos extremos del método experimental.
 
La tercera cultura no es un fenómeno estadunidense; ñoños de la computación hay en todo el mundo. Coloque usted a un(a) muchacho(a) de 18 años con conocimientos de biología frente a una computadora ad hoc, y sin duda tendrá la capacidad de diseñar modelos biológicos precisos de casi cualquier sistema, incluso predictivos. La tercera es la cultura de todas las posibilidades. A pesar de emanar de la ciencia, paradójicamente la está transformando como nunca antes, lo que es afortunado pues ambas se alimentan mutua e inexorablemente. Al final, nosotros y nuestro ambiente seremos los beneficiados.
 
La influencia de la tercera cultura en el arte es un aspecto que aún no ha sido bien explorado, pero la tecnología está transformando la manera como concebimos y percibimos el arte en nuestros días. Sin embargo, me inquieta la siguiente afirmación de Kelly: “para la nueva cultura, un viaje hacia la realidad virtual es más importante que recordar a Proust”. Ojalá que no sea así, pues aunque Marcel Proust sería feliz frente a una computadora con su procesador de textos o viendo un paisaje virtual, si el ser humano —ñoño, científico, poeta o la combinación de los tres— olvida la obra de uno de los escritores más importantes y geniales del siglo XX, estaría privándose de una excelente experiencia estética.
 
Mal usada y peor comprendida, con toda su grandeza y capacidad transformadora de nuestras sociedades, la tecnocultura tiene también la potencialidad de alejarnos de lo poco que nos queda de humanos.Chivi51
Referencias bibliográficas
 
Snow, C.P. 1992. The Two Cultures and a Second Look. Cambridge University Press, New York. Reimpresión. (Snow definió “cultura” desde dos puntos de vista: antropológico, que se refiere a un grupo de personas que viviendo en el mismo entorno, comparten intenciones, motivaciones e intereses y que en las mismas circunstancias responden igual; y el formal, que se refiere al desarrollo armonioso de las cualidades y facultades que caracterizan a nuestra humanidad).
Kelly, K. 1998. “The Third Culture”. Science 279:992.
Brockman, J. 1996. The Third Culture. Disponible Hipervínculo: httpwww. edge.org/3rd culture/index.html
Antonio R. Cabral Castañeda
Instituto Nacional de la Nutrición Salvador Zubirán
_______________________________________________________________
como citar este artículo
Cabral, Antonio R. (1998). La tercera cultura. Ciencias 51, julio-septiembre, 12-13. [En línea]
  P01 P02  
  del bestiario
 
     
En la tierra del ave roc
 
 
 
Héctor T. Arita
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
De entre miles de peligros que Simbad el Marino tuvo que sortear en los siete viajes que describe el libro de Las mil y una noches, pocos eran tan aterradores como los sorpresivos ataques de la gigantesca ave roc, que con sus descomunales garras era capaz de levantar elefantes en vilo para alimentarse de ellos. De hecho, durante el tercer viaje de Simbad, uno de estos portentosos animales provocó el naufragio de su nave al arrojarle enormes rocas desde el aire. El ave roc es mencionada también por Marco Polo en una de sus frecuentes divagaciones dentro de Il Milione, el libro que recapitula sus 26 años de aventuras en el lejano oriente a finales del siglo xiii. La descripción que hace Marco Polo del ave roc en uno de los capítulos de sus memorias ha sido esgrimida por algunos críticos como una evidencia del alto contenido fantasioso del libro del viajero veneciano. De hecho, tal descripción aparece en un capítulo que habla de Madagascar, una tierra que Marco Polo nunca visitó.
 
Irónicamente, si Marco Polo hubiera visitado Madagascar, es muy probable que se habría topado con el animal que originó esas fábulas que le restaron credibilidad a sus narraciones. El ave elefante (Aepyornis maximus), con su altura de casi tres metros y su peso de alrededor de media tonelada, es el ave más grande que ha existido sobre el planeta. Por supuesto, era incapaz de volar y mucho menos de cargar un elefante, pero aún así, su enormidad era realmente asombrosa. Sus descomunales huevos, de unos 90 cm de circunferencia y de casi nueve litros de capacidad, fueron preciados trofeos para los primeros humanos que arribaron a Madagascar. De hecho, se ha especulado que la depredación sobre los huevos del ave, más que la cacería directa de los animales, fue el factor que llevó a la majestuosa ave a su extinción definitiva. Todavía en 1658 el gobernador francés de Madagascar incluyó en su informe anual una mención a las poblaciones del ave elefante en el sur de la isla. Para 1700, sin embargo, el ave más gigantesca del mundo había desaparecido para siempre.
 
El ave elefante es sólo un ejemplo de la extraña fauna típica de Madagascar. Separada del continente africano durante decenas de millones de años, la isla ha sido terreno fértil para la evolución de grupos de plantas y animales que no se encuentran en ningún otro sitio del mundo. En ella han sucedido procesos de evolución paralela y convergente que han producido especies animales muy parecidas —pero no cercanamente emparentadas—, a las de otros sitios del planeta. El equivalente ecológico del ave elefante sería, por ejemplo, la también extinta moa gigante de Nueva Zelanda (Dinornis maximus), un animal un tanto más esbelto que su primo lejano de Madagascar, con sus casi cuatro metros de altura y 275 kg de peso.
 
Otro ejemplo lo constituyen los vángidos, una familia de aves endémicas de Madagascar que ha experimentado un proceso de especiación casi tan vigorosa como la de los clásicos ejemplos de los libros de texto —los pinzones de las Galápagos y los drepánidos de Hawai. En total existen unas 13 especies que se alimentan de insectos y pequeños vertebrados, que usan diversas estrategias para conseguir su comida. Algunas especies de vangas capturan insectos y los empalan en pequeñas ramitas o espinas, en la forma en que lo hacen sus parientes más cercanos, los alcaudones europeos y el llamado pájaro verdugo en México (familia Laniidae). Otros vángidos, sin embargo, han adoptado estrategias diferentes, que incluyen capturar pequeños vertebrados (como lo hacen las aves de presa), acechar presas voladoras desde una percha (a la manera de los papamoscas), hurgar bajo la corteza de los árboles en busca de insectos (al estilo de los pájaros carpinteros) y trepar a lo largo de los troncos (igual que los pájaros del género Sitta).
 
Los ejemplos más sorprendentes de convergencia evolutiva en Madagascar los encontramos entre los mamíferos. En los tenrecs, pequeños mamíferos primitivos que constituyen la familia Tenrecidae, endémica de Madagascar, encontramos especies que se asemejan a musarañas, topos, erizos, puercoespines y hasta ratas acuáticas. Los únicos carnívoros malgaches son varias especies de mangosta (Viverridae). Una de ellas, la dosa (Cryptoprocta ferox), parece mucho más un pequeño gato de selva que una mangosta, y de hecho por un tiempo fue clasificada entre los felinos. Uno de los murciélados de Madagascar, la única especie de la familia Myzopodidae, también endémica de la isla, posee unos discos adhesivos que le ayudan a trepar y ha evolucionado en forma convergente con la de los quirópteros del género Thyroptera de América tropical.
 
Los mamíferos más representativos de Madagascar son los lemures, tanto, que la isla es llamada también Lemuria por algunos naturistas. Los prosimios (grupo que divergió muy temprano en la evolución de los primates y que incluye a los lemures y sus parientes cercanos) encontraron en Madagascar un paraíso libre de competidores, lo que permitió una radiación espectacular de este grupo en la isla. Entre los prosimios de Madasgascar encontramos los lemures ratón y los lemures enanos, apenas mayores a una rata grande y que se asemejan en su físico y en su comportamiento a los dasiúridos, pequeños marsupiales de Australia. Los lemures típicos, sin embargo, son bastantes más grandes y constituyen el equivalente ecológico de los primates más avanzados que se encuentran en las zonas tropicales de otras partes del mundo.
 
Sin duda el primate más estrambótico de Madagascar es el aye-aye (Daubentonia madagascariensis). Se trata de un animalito del tamaño de una ardilla, de aspecto primitivo, con grandes orejas y ojos que evidencian sus hábitos nocturnos. La característica más extraña de este animal es el dedo medio de sus manos. Largo, muy delagado y huesudo, termina en una afilada uña que el animal usa como herramienta para extraer insectos de están bajo la corteza de los árboles, para sacar la pulpa de las frutas y hasta para llevar agua de beber a la boca. El dedo del aye-aye es sin duda una de las adaptaciones más sofisticadas que se puedan encontrar en los mamíferos.
 
El origen de la extraña fauna de Madagascar ha sido siempre un misterio para los biólogos. Es claro que el hecho de que la isla esté separada del continente africano por casi 400 km de mar en el canal de Mozambique, ha contribuido al surgimiento de extrañas especies endémicas en la isla. Sin embargo, según los datos geológicos tradicionales, Madagascar ha sido una isla separada de África desde hace al menos 125 millones de años, y los ancestros de los mamíferos que ahora pueblan Madagascar aparecieron sobre la faz de la tierra hasta hace 40 millones de años. ¿Cómo llegaron a Madagascar? Según una teoría reciente, en el canal de Mozambique existió un puente ancestral que alguna vez (entre 45 y 25 millones de años atrás) unió Madagascar con África. De acuerdo con la teoría, el puente habría emergido como consecuencia del choque de la India con el resto de Asia. Este choque produjo, además de la cordillera del Himalaya, diversos eventos de gran magnitud en todo el Océano Índico. Posteriomente, hace 25 millones de años, el puente se habría hundido a raíz de otros procesos, como los que dieron origen al gran valle del Rift en el este de África.
 
Esta teoría geológica explica razonablemente el origen de la extraordinaria fauna malgache. Así, hace 45 millones de años, los primitivos insectívoros y primates (los ancestros de los tenrecs y de los lemures) así como los ancestros del ave elefante, habrían podido invadir lo que ahora es la isla de Madagascar, para luego quedar atrapados al hundirse el puente del canal de Mozambique. Esto habría dado oportunidad a la radiación de las especies de estos grupos, en una forma análoga a la asombrosa especiación y diversificación de los marsupiales en Australia. Madagascar habría sido de hecho un auténtico laboratorio natural para la evolución de los mamíferos más primitivos.
 
En tiempos mucho más recientes, un factor de gran magnitud amanaza con acabar esta riqueza biológica acumulada en la isla de Madagascar. El hombre ha provocado la extinción del ave elefante y de otras especies malgaches. Muchas otras están bajo seria amenaza de extinción, entre ellas el aye-aye y varias especies de lemures. La depredación directa y, sobre todo, la altísima tasa de pérdida de hábitats naturales en la isla, son amenazas directas para numerosas especies. Si no se toman serias medidas de conservación, varias especies seguirán los pasos del ave elefante hacia la extinción y solamente existirán, como el ave roc, en las leyendas de los viajeros.Chivi51
 
Lecturas adicionales
 
Eisenberg, J. F. 1981. The mammalian radiations. University of Chicago Press. Análisis de la evolución de los mamíferos, incluye un capítulo sobre los mamíferos de Madasgascar.
Eisenberg, J. F. y E. Gould. 1970. The tenrecs. A study in mammalian behavior and evolution. Smithsonian Contributions Zoology 27:137. Monografía sobre los tenrécidos.
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Arita, Héctor T. (1998). En la tierra del ave roc. Ciencias 51, julio-septiembre, 50-52. [En línea]
  P01 P02  
  del herbario
 
     
El mezquite, árbol de gran utilidad
 
 
 
Salvador Meraz Vázquez, Juan Orozco Villafuerte, José Angel Lechuga Corchado, Francisco Cruz Sosa
y Jaime Vernon Carter
conoce más del autor
   
         
HTML ↓ PDF Regresar al índice artículo siguiente
         
El mezquite (Prosopis laevigata) es un árbol importante del árido suroeste de Estados Unidos y norte de México. De acuerdo al sistema de clasificación de Cronquist, pertenece a la familia Mimosaceae del orden Fabales, clase Magnoliopsida (dicotiledóneas).
 
 
México posee una amplia extensión de zonas áridas y semiáridas —56 y 23 millones de hectáreas, respectivamente— que, en conjunto, representan más de 40% de la superficie total del territorio mexicano. Hablamos de zonas apropiadas para el desarrollo agropecuario forestal basado en el cultivo del mezquite. Sin duda, este es un recurso que puede ser aprovechado para mejorar los niveles de vida del sector rural; actualmente se encuentra establecido en más de 3.5 millones de hectáreas en el norte de México.
 
 
Es interesante saber que de las legumbres, algunos pueblos de las regiones secas del país elaboraban bebidas embriagantes. El fruto del mezquite es del agrado de todos los rumiantes domésticos y utilizado para consumo humano, pues tiene propiedades alimenticias. La legumbre es consumida como fruta fresca; una vez seca, se obtiene un polvo farináceo que bien puede comerse así —pinole de mezquite—, o emplearse para elaborar dulces compactos —piloncillo— que se comercian en regiones de San Luis Potosí y Sinaloa.
 
 
El mesocarpio de la legumbre contiene de 13 a 36% de azúcares, mientras que la semilla posee 55-59% de proteínas. El fruto se vende a mayoristas en algunos municipios de Tamaulipas.
 
El mezquite produce hasta 25 toneladas de fruto por hectárea en determinados lugares; se estima que en esa misma superficie se pueden producir hasta 2 mil kilogramos de peso de ganado mayor, en tanto que en la misma extensión sembrada de maíz sólo se obtendrían 563 kg. Una vez transformado en harina, el fruto se emplea en la elaboración de alimentos balanceados para ganado criado en establos. En el municipio de Matehuala, San Luis Potosí, se ha estimado la producción de fruto de mezquite en siete mil toneladas por año. Además, sus flores son productoras importantes de miel.
 
 
La madera de este árbol es muy apreciada tanto para la fabricación de muebles como para la cocción de carnes, a las que confiere un agradable sabor. De la resistente madera se fabrican los cotizados pisos de parquet, así como diversas artesanías. También del árbol se obtienen leña y carbón para uso doméstico, y postes para delimitación de solares.
 
 
El carbón producto de este árbol se distribuye en las principales ciudades de San Luis Potosí y Sinaloa. Sus bajos costos de producción en México han determinado el incremento de las exportaciones a Estados Unidos. Los envíos anuales de carbón al vecino del norte pasaron, de 1982 a 1992, de 2 mil a 20 mil toneladas. Un importante ejemplo de la respuesta a este mercado lo ha dado Sonora, donde la producción de carbón de mezquite fue incrementada de 4 mil toneladas en 1982 a más de 22 mil en 1985, y sus exportaciones se elevaron de 177 toneladas a más de 10 mil anuales en el mismo periodo.
 
 
Ya que la leña y el carbón de mezquite son productos muy apreciados, la no cuantificada sobreexplotación ha causado un serio deterioro, sin que hasta ahora se hayan tomado medidas para reglamentarla. A través de la práctica de la tala selectiva se han destruido muchos mezquitales; así, en Nuevo León estas formaciones vegetales son escasas y pueden encontrarse sólo algunos relictos.
 
 
Sabemos que la producción de leña es uno de los factores causales más importantes de la deforestación en Latinoamérica, donde ya han sido agotadas dos terceras partes de las reservas forestales.
 
 
Del árbol se extraen dos gomas; la que exuda la corteza —de color ámbar y muy parecida a la goma arábiga— se utiliza para afecciones de la garganta; la segunda es negra y exuda de las grietas superiores del tronco, es astringente, por el tanino que contiene, y se utiliza para la fabricación de tintas. La goma secretada por el árbol es una golosina para los niños. En la medicina tradicional se emplea follaje, goma y corteza como antiséptico y emoliente, así como contra la disentería y diarrea.
 
 
Desde el punto de vista ecológico, las diferentes especies de mezquite tienen una gran importancia porque sirven de alimento y sitio de resguardo para la fauna silvestre; además son estabilizadores del suelo y protectores de cuencas hidrogeográficas.
 
 
Estas especies son tolerantes a la salinidad y existen evidencias de que también tienen la capacidad de fijar el nitrógeno. Es por ello que expertos de la fao las recomiendan como productoras de forraje y madera en las zonas áridas y semiáridas del mundo. Y es que se trata de plantas idóneas para la reforestación frente al proceso de desertificación, que no es más que la degradación irreversible —producto de la actividad humana— de grandes extensiones de suelo. De esta manera, diversas especies de mezquite han sido introducidas en más de diez países de todos los continentes, exceptuando Europa.
 
 
Mientras que en México se busca optimizar el aprovechamiento de sus diversas cualidades, en Estados Unidos la investigación se orienta hacia el desarrollo de mejores técnicas para su combate, pues consideran al mezquite una maleza en los sitios donde se practica la ganadería intensiva.
 
 
Sin duda, el árbol de mezquite puede contribuir en la generación de alimento, energía y en
la conservación de los componentes bióticos y abióticos de los ecosistemas de zonas áridas, preservando especies animales y vegetales, al tiempo que protege y rescata suelos de la
erosión.Chivi51
 
Salvador Meraz Vázquez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
Juan Orozco Villafuerte, José Angel Lechuga Corchado, Francisco Cruz Sosa
Departamento de Biotecnología,
Universidad Autónoma Metropolitana-Iztapalapa.
 
 
Jaime Vernon Carter
 
Departamento de IPH,
Universidad Autónoma Metropolitana-Iztapalapa.
_______________________________________________________________
como citar este artículo
Meraz Vázquez, Salvador y et.al. (1998). El mezquite, árbol de gran utilidad. Ciencias 51, julio-septiembre, 20-21. [En línea]
You are here: Inicio Blog (2) revistas revista ciencias 51