![]() |
PDF→
|
||||||
| Carlos Viesca Treviño |
|||||||
|
El reciente regreso a México del Códice de la Cruz-Badiano y su entrega al Museo Nacional de Antropología por parte del Señor Presidente Lic. Carlos Salinas de Gortari, para su resguardo e investigación, han hecho de pronto recobrar actualidad a un texto de singular importancia para la historia de la medicina mexicana. En efecto, el Libellus de Medicinalibus Indorum Herbis, que tal es el título impuesto al Códice por quienes lo elaboraron, es un documento único que testimonia un momento trascendental de nuestra historia: el del inicio del mestizaje que nos caracteriza e identifica. No es el Códice de la Cruz-Badiano el documento esencial que revela los secretos de la medicina mexica prehispánica, como ha querido ser visto por algunos entusiastas autores, ni tampoco es un texto redactado bajo el dictado de los piadosos frailes de Santa Cruz de Tlatelolco, lo que lo haría poco menos que una calca del tan popular Tesoro de Pobres que redactara antes de ser Papa el monje-cirujano Pedro Hispano y tuviera tanta importancia entre los franciscanos. En realidad, el Libellus… es un documento que, dadas las circunstancias particulares que rodearon su composición, debía de llenar los requisitos de ser muestra de la racionalidad de los indios mexicanos en un campo que, como lo es la medicina, se ubicara tanto a nivel de arte, es decir saber hacer, como de ciencia, de saber. Y esta racionalidad, ¿qué mejor que expresarla en latín, en la lengua culta de la época? Es curioso, pero explicable, que este primer documento médico mexicano, una de nuestras fuentes básicas para el estudio de la medicina náhuatl prehispánica, este redactado en latín. El médico indígena, a los ojos de sus simpatizantes, muchos de ellos europeos que habían vivido en carne propia las bondades de sus tratamientos, era una contraparte que competía en igualdad de circunstancias con el médico europeo, y no debe olvidarse que para el año en que se escribió el Códice, 1552, no se había desatado aún esa conciencia epistemológica que dos décadas más tarde llevó a reconocer la existencia de una medicina diferente a la europea de tradición galeno-hipocrática, y a desconocer su validez tachándola de falsa. Al tiempo de la redacción del Libellus… apenas empezaba a entreverse en Europa la posibilidad de utilizar nuevos fármacos, algunos de ellos desconocidos para los autores de la antigüedad clásica y, por lo tanto, ausentes de las páginas de los libros, y esto conducía a la observación de sus efectos clínicos, por una parte, y a considerar, por otra, la unidad del conocimiento médico como un hecho a priori. LA INTENCIÓN DEL MANUSCRITO Es bien conocida la participación de Fray Jacobo de Grado, por ese entonces rector del Colegio de Santa Cruz de Tlatelolco, como la llama Badiano1 y guardián del convento de Santiago al cual estaba anexo el Colegio.2, 3 Según afirmación expresa de Badiano, él recibió de Fray Jacobo el encargo de traducir al latín el texto, lo más probablemente en náhuatl, de Martin de la Cruz, trabajo que realizó “no para hacer alarde de ingenio… sino por pura obediencia” a la que estaba obligado para con su mentor. La participación de Fray Jacobo de Grado en la concepción y ejecución del manuscrito ha llevado a relacionar a éste con la necesidad de hacer patente al Rey las terribles carencias a las que había quedado expuesto el Colegio a raíz del irregular arribo del dinero real, del desinterés creciente de las autoridades novohispanas en relación con él, así como del abandono de que fue objeto por parte de Fray Juan de Zumárraga, su fundador y principal impulsor en sus primeros años. La recomendación a los indios ante su Sacra Majestad que hace Martin de la Cruz en la presentación de la obra,3 ha llevado a centrar exclusivamente en esto la intención del manuscrito. No se expresa abiertamente en ninguna parte del texto, pero tampoco debe dejarse de lado su posible papel, abogando por la racionalidad del indio en el marco de la acre polémica que protagonizaran Fray Bartolomé de las Casas y Ginés de Sepúlveda, defendiéndola el primero y refutándola este último, a lo largo de varias décadas. Sin embargo, un hecho que ha sido poco atendido hasta ahora, es la participación de Don Francisco de Mendoza, hijo de Don Antonio, el que hasta el año anterior a la redacción del Códice fuera Virrey de la Nueva España. En la dedicatoria del Libellus, Martin de la Cruz se dirige expresamente a él dedicándole y encomendándole el libro, pero al mismo tiempo, señalando que es a sus instancias que éste ha sido escrito. Sólo Somolinos d’Ardois ha señalado este hecho, aunque al parecer no le dio más valor que el de ser él mismo el encargado de introducirlo ante el Rey.5 Sin embargo, es de notar que no era habitual el que un distinguido personaje de la corte virreinal se interesara por encargar un libro sobre las formas que los indios tenían para curar, y más aún, porque se redactara a toda prisa, fuera ejecutado lujosamente y se llevara como regalo al Rey. En otro texto hago relación de cómo el interés de Don Francisco de Mendoza por exportar especias y tal vez plantas medicinales de Nueva España al Viejo Mundo lo pusieron en 1553, a poco de su arribo a España con el Códice, con un destacado médico sevillano, Nicolás Monardes, y como poco tiempo después este fundara una compañía destinada al comercio con ultramar y emprendiera lo que habría de ser una larga aventura relacionada con la obtención, estudio y empleo de plantas medicinales americanas.6 Es sabido actualmente que Don Francisco había cultivado algunas especias, entre las cuales el jengibre se logró de muy buena calidad, así como la raíz de la China (Smila pseudochina), una de las plantas más empleadas en el tratamiento de la sífilis, y que precisamente a raíz del viaje en el que llevó al rey el Libellus, había contratado ventajosamente en la corte, probablemente con el príncipe Felipe (más tarde Felipe II) la introducción de ambas a España.7 Quedan muchos puntos obscuros que quizá la búsqueda intencionada en archivos mexicanos y españoles pueda aclarar en el futuro: desde los detalles de los contratos obtenidos por Don Francisco de Mendoza, su posible relación con el doctor Monardes y con los Fueger, esta última directamente en razón de los monopolios para el comercio de algunas plantas medicinales, que, como el guayacán (Guaiacum officinalis), éstos controlaban. El hecho es que el interés de Mendoza por las plantas medicinales que utilizaban los indios novohispanos no era tan desinteresado como parecía a primera vista y que tal vez la premura con que pidió el manuscrito se debió a sus planes comerciales en gran escala. LOS AUTORES Poco es lo que se sabe de las personas que intervinieron en la manufactura del Códice. Martin de la Cruz fue el autor del texto. Que era médico indio del Colegio de Santa Cruz de Tlatelolco, que nunca había estudiado profesionalmente y había adquirido su saber “por puros procedimientos de experiencia”,8 y que había sido beneficiado en diferentes maneras, cuyos detalles se desconocen, por Don Antonio de Mendoza, además de que para la época en que compuso el texto del Códice era ya viejo, es lo único que se sabe a ciencia cierta de él. Ni siquiera la pretensión de que era xochimilca está basada en ninguna evidencia documental genuina.9 Es posible que hubiera aprendido la medicina antes de la conquista, pero esto tampoco es un hecho probado, aunque la otra alternativa es que fuera muy joven al tiempo de ella y que aprendiera la tradición de sus mayores en los años inmediatos. De cualquier manera, puede afirmarse que conocía bien la forma indígena de practicar la medicina y los diagnósticos propios de ella, aún cuando en el Códice hizo todos los esfuerzos por no hablar de aspectos conceptuales y se limitó a enumerar tratamientos, cumpliendo así seguramente con la orden de Mendoza y evitando el riesgo de hablar de las antiguas creencias y caer en entredicho ante sus protectores religiosos. De Juan Badiano sabemos que era oriundo de Xochimilco y muy probablemente alumno del Colegio de Santa Cruz, ya que era esta la única institución de enseñanza superior para indígenas que existía entonces en México y Badiano manejaba con fluidez el latín y, seguramente, el castellano. Además, en las frases que dirige al lector en la última página del Códice, se ostenta como profesor del dicho Colegio.10 En los archivos procedentes del Colegio aparece otro Juan Badiano, lector en él, que murió durante la epidemia de cocoliztle de 1545 y que probablemente fuera padre del que ahora nos ocupa. Fuera de lo anterior, todo lo que se ha dicho de ambos es más producto de la imaginación que de la investigación. EL CONTENIDO DEL MANUSCRITO Dividido en trece capítulos, número que quizá tuviera alguna relación con criterios astrológicos de origen prehispánicos, el Libellus ofrece una relación de buen número de tratamientos contra las enfermedades más comunes entre los indios que habitaban entonces la Ciudad de México. Aunque por el título es un herbario, y de hecho la mayor parte de los remedios prescritos son vegetales, no faltan en las recetas partes de animales o sustancias de origen animal ni minerales de muy diversos géneros. La relación de enfermedades se hace siguiendo un orden de cabeza a pies, como era costumbre en textos europeos (semejantes, aunque debo confesar que no se sabe si este era el mismo orden seguido por los indígenas mexicanos antes de su contacto con los europeos). Llama la atención la aparición de nombres de enfermedades que proceden directamente de fuentes europeas, como son la podagra,11 el mal comicial o epilepsia,12 la micropsiquia13 o la mente de Abdera,14 testimoniando todas y cada una de ellas un conocimiento de textos clásicos, como el de Plinio y Dioscórides, cuyas obras existían en ese tiempo en la biblioteca de Tlatelolco, y tal vez de algunas de las obras de Galeno y Celso. Tampoco se sabe si era Martín de la Cruz quien las conocía, lo cual no es muy probable, o estas denominaciones proceden de mano de Badiano, quien es muy factible que hubiera leído siquiera parcialmente esos textos. Interesantísimo sería el disponer del texto náhuatl original y poderlo comparar con el resultado de la traducción, pero esto queda solamente a nivel de buenos deseos. Es un hecho, sin embargo, que existe una influencia europea perfectamente detectable en el Códice, y que el análisis detallado de ella puede conducir a la identificación de cómo tomaron los médicos indígenas el conocimiento clásico y de cómo lo adaptaron de acuerdo a su propio sistema de pensamiento médico. Esto último no fue posible antes, dado que prácticamente no se sabía nada acerca del pensamiento médico indígena, y los estudios sobre su medicina se habían limitado a enumerar lo que conocían, siempre de acuerdo con una visión moderna de la medicina y no buscando comprender los mínimos accesibles del pensamiento indígena y ver el problema desde la óptica de su propia cosmovisión.15, 16, 17 Es paradójico que ahora hablemos del Códice de la Cruz-Badiano como un documento demostrativo del mestizaje cultural que sufrió la medicina en México en el siglo XVI, y que sólo a partir de esta aseveración se llegue a replantear el problema de la medicina indígena prehispánica. Pero el curso que han tomado las investigaciones sobre el tema explica la situación, ya que la evidencia de que algunos elementos del Códice son de origen europeo llevó primero a dudar acerca de lo genuino de su contenido18 y después a afinar los instrumentos de análisis a fin de separar ambas vertientes del conocimiento médico que se dieron cita, precisamente en México durante el siglo XVI. En este sentido, el Códice, además de seguir siendo un documento fundamental para el conocimiento de la medicina indígena, cobra nuevo valor al manifestarse como representativo de una manera indígena de incorporar a la ciencia médica europea y, por lo tanto, de esa medicina tequitqui cuya existencia había llegado aún a ser puesta en duda.19 Volviendo al tema de la medicina indígena, es indiscutible que el Códice de la Cruz-Badiano es uno de los documentos fundamentales para su estudio y que, contrariamente a lo que ha pretendido recientemente la escuela antropológica norteamericana,20 hay evidencias suficientes para probar y documentar no sólo su existencia sino también muchos de los detalles y criterios que le son propios y a la vez la definen. Está hoy en día fuera de duda el que la medicina náhuatl prehispánica estaba basada en una visión del universo en la que los seres y fuerzas procedentes del inframundo, de los diferentes ciclos y de los rumbos de la superficie de la tierra actuaban sobre el hombre, y en la que todos ellos podían ser conceptualizados de acuerdo con su naturaleza mas o menos fría o caliente. Está también más allá de toda discusión la existencia de un concepto de salud entendida como equilibrio entre las partes constitutivas de cada individuo y entre éste y el universo accesible y con acceso a el. Amén de los múltiples trabajos que se han realizado acerca de diferentes aspectos del Códice, dividiendo su contenido de acuerdo a una visión moderna del cuerpo humano, éste se presta para intentar una interpretación de las enfermedades que busque ubicarlas en el sentido que tenían para los médicos indígenas. Es evidente y se ha discutido bastante, pero no lo suficiente para agotar el tema, sobre las enfermedades por frío y por calor, y prefiero expresarlo así, pues me parece más preciso que hablar de enfermedades frías o calientes en esencia, ya que este concepto era más relacionado con la proveniencia, ubicación y dinámica de la enfermedad que con una propiedad que le fuera intrínseca. Pero además, pueden hacerse notar los elementos existentes para ubicar, fuera de un orden anatómico de cabeza a pies, a las enfermedades mentales, que ahora sabemos, se podían referir a entidades anímicas con centros en el cerebro, la “mollera" y los cabellos de la coronilla la primera, en el corazón y el hígado, la segunda y tercera respectivamente. En el Códice, todas ellas aparecen en el capítulo noveno, en el cual se agrupan enfermedades en las que existe un común denominador de aumento de calor, lo cual nos obliga a revisar el concepto de melancolía que anteriormente habíamos tomado en una forma que resulta ser demasiado próxima al concepto galeno-hipocrático de ella y tal vez no coincida con el que tenía realmente Martin de la Cruz; y en el décimo, cuyo eje parece ubicarse en la presencia de un viento dañino y de cambios en el olor. A estos deben agregarse los dos últimos incisos del capítulo octavo, los cuales parecen estar más en relación con el contenido del noveno, siendo la fatiga definida como caliente y tratando estas dos secciones de la fatiga y del cansancio “del que administra la República”. Baste por ahora con mencionar estos pocos ejemplos que permitirán al lector darse cuenta del proceso de reconstrucción de los sistemas prehispánicos de clasificación de las enfermedades que se está llevando a cabo actualmente. Otro punto importante y complementario del anterior es la posibilidad de desarrollar análisis semánticos bastante completos en relación con los nombres náhuas de algunas de las enfermedades mencionadas en el Códice, y establecer criterios de correlación a partir de ellos y del contraste que se puede realizar con el análisis del mismo género llevado a cabo sobre los elementos terapéuticos citados en el texto. En un sistema de pensamiento dotado de una gran congruencia entre sus elementos, como lo era la medicina náhuatl prehispánica, el análisis de las relaciones entre ellos provee de una inmensa cantidad de datos cuya riqueza apenas se va esbozando. En fin, también la investigación botánica se ha enriquecido al dar cabida al conocimiento etnobotánico y tener la posibilidad de comparar el uso antiguo con el actual de las diferentes plantas, así como el asegurar que la identificación que se ha hecho de éstas sea la correcta. Visto así, el Códice de la Cruz-Badiano reviste otra línea de interés, que es la de, considerado como muestra del saber de un médico indígena del México del siglo XVI, convertirse en modelo para ser comparado con los repertorios terapéuticos de médicos indígenas contemporáneos nuestros y del abrir una posibilidad real de análisis de la extensión real que alcanzó la medicina náhuatl y la medicina de supervivencia. Documento esencial, definitorio de la identidad cultural del mexicano así como lo genuino de nuestra medicina, el Libellus de Medicinalibus Indorum Herbis se constituye actualmente como un reto a la creatividad de los investigadores cuyas interrogantes seguramente abrirán camino a respuestas ricas y novedosas.
|
|
|
|
||||
|
|
|||||||
|
Refrerencias Bibliográficas 11. Códice de la Cruz-Badiano, fo.63r. |
|||||||
|
____________________________________________________________
|
|||||||
|
Carlos Viesen Treviño
como citar este artículo → |
|||||||
![]() |
PDF→
|
||||||||||||||||||||||||
| Alejandro Aguilar Sierra |
|||||||||||||||||||||||||
|
Se presenta un sistema para definición y almacenamiento de gráficas en 2D, que utiliza transformaciones lineales, estructuración jerarquizada, interacciones y recursividad; al tiempo que se introducen algunos conceptos de graficación por computadora. INTRODUCCIÓN Uno de los principales problemas de la graficación por computadora es la representación y almacenamiento de información gráfica. Para empezar conviene distinguir entre el simple archivo de datos (suele llamársele display file), y un lenguaje de graficación propiamente dicho, que tendría que cumplir los requerimientos que cumple cualquier lenguaje computacional. Un display file tiene las siguientes ventajas: • Es un formato de datos para archivar “imágenes” y no tener que reconstruirlas cada vez que se necesiten. Y, abusando un poco de los términos, un “lenguaje” de graficación agregaría las siguientes: • Posibilidad de modificar fácilmente la “imagen”; algo así como “editar” o “depurar”. Muchos paquetes personales de graficación (que pueden usarse en una PC) almacenan la información en forma digital, lo cual reúne todas las desventajas: las líneas no horizontales ni verticales se ven horribles, consumo excesivo de memoria, redundancia, dificultad para cambiar la escala de la imagen, o rotarla, imposibilidad de desplegar en dispositivos vectoriales, (donde la información se da en coordenadas cartesianas) etc. Otros manejan lenguajes especializados, que sólo ellos entienden, lo que limita la flexibilidad y aumenta la dependencia. Los sistemas basados en modelos estandarizados (tipo GKS, PHIGS) tienen la lata adicional de que hay que hacer un programa para cada aplicación específica, y son tan vastos que uno no puede aprovecharlos al límite. Para aplicaciones en que se necesita calidad de trazo de línea, independencia del dispositivo de graficación a emplear, no consumir más memoria de la necesaria, y facilidad de usarse en combinación con un lenguaje de alto nivel, interactivamente, o bien escribiendo un programa fuente, creamos Metagrafic, una primera propuesta en 2D. DESCRIPCIÓN DEL SISTEMA METAGRAFIC MG es algo así como el eslabón perdido entre un display file y un lenguaje de graficación. La definición de los objetos a graficar se hace mediante primitivas simples, transformaciones y atributos. La estructura de datos básica es la lista de puntos (parejas de números reales). Cada primitiva tiene la siguiente sintaxis: nombre primitiva lista de puntos NL un identificador, seguido de una lista de puntos, y al final el indicador de fin de lista NL. Pero hay excepciones: PL x1 y1 … xm ym ng xm + 1 … xnyn NL PL traza una poligonal tomando como vértices los puntos de la lista. La subinstrucción ng interrumpe el trazo de la poligonal, de modo que los puntos m y m 1 1 no son unidos con una línea. CR r x1 y1 … xn yn NL En un policírculo se generan n círculos centrados en cada uno de los puntos xi yi, y radio r, por lo que sólo es necesario definir r una vez (al principio). Las coordenadas se definen en el espacio del objeto. Se llama, ventana a la región del espacio del objeto que deseamos visualizar. En MG la ventana por omisión es [0,1] 3 [0,1]. Las coordenadas normalizadas tienen la ventaja de que mapean cualquier puerto de visión con un mínimo de cálculos. Es posible ajustar la ventana a los datos del usuario. La instrucción es WW Xmin Xmax Ymin Ymax. En el caso de las transformaciones, ya se sabe cuántos datos se necesitan, y no es necesario finalizar con NL. Aquí no se utilizan listas de puntos, sino matrices. Las instrucciones son básicamente: RT theta Rotar un ángulo theta. Las transformaciones se realizan con matrices de 3 x 3 en coordenadas homogéneas (ver recuadro). Es posible que la instrucción no necesite ningún dato, como es el caso de IM que asigna la matriz idéntica a la matriz de transformación. Lo que hace realmente poderoso a MG es el uso de estructuras. Las estructuras son subrutinas gráficas que una vez definidas pueden utilizarse como si fuesen primitivas. La sintaxis es la siguiente: OPST Identificador estructura El identificador de la estructura referirá lo que se encuentre entre OPST y CLST. Funciona, pues, como una referencia (un apuntador, no una copia, como sería el caso de una macroinstrucción). Esto representa un buen ahorro de tiempo y memoria al evitar redundancias. Otras ventajas de utilizar estructuras se enumeran a continuación: • Jerarquía. Como una estructura puede contener otras estructuras, las transformaciones que se apliquen a la estructura “madre” se compondrán a las de la “hija”. Toda estructura lleva asociados un punto de referencia (un “origen” relativo) y una matriz de transformación. Lo más usual es desplegar la estructura en cada punto de una lista: Nombre estructura lista de puntos NL Pero también es posible ajustar una estructura a un área específica del espacio, con las siguientes instrucciones: MKST Identificador estructura Marca la estructura.
Otras matrices de transformación actúan con las estructuras. Una es la matriz de iteración, que multiplica repetidas veces la matriz asociada a la estructura marcada. En la instrucción RPST n se despliega n veces dicha estructura cada vez con una transformación diferente. Otra matriz altera iterativamente el punto de referencia de la estructura. Cada vez que se indica la instrucción DPST nombre estructura cambia la posición, y no es necesario marcar la estructura, pero sólo la despliega una vez. La aplicación de estas transformaciones secundarias puede controlarse con banderas especiales. Mediante la instrucción INPUT nombre archivo [.grf] podemos cargar estructuras definidas en otro archivo. Se vale anidar, es decir, abrir archivos que a su vez abren otros archivos, pero hasta cierto límite. Una aplicación inmediata, dadas las facilidades descritas, es la creación de texto. Cada letra del alfabeto puede definirse en forma muy concisa, y la letra misma puede usarse como identificador de su estructura. El usuario podría, muy fácilmente, crear su propio alfabeto y manejar texto junto con gráficas. MG provee algunas abreviaturas:
Conviene poder desplegar texto junto con las gráficas. Algunos dispositivos de graficación no incluyen esta facilidad. Es útil intercalar comentarios entre las instrucciones de un programa, para su posterior revisión. Esto se hace, en MG, iniciando cada comentario con el caracter %. Por último, cabe recordar que todas las coordenadas están definidas en el espacio del objeto. El espacio imagen depende del dispositivo donde se va a interpretar el archivo. EJEMPLOS En esta sección no se pretende demostrar todas las posibilidades de MG, ya que sólo se usan segmentos de línea y círculos. La idea es obtener figuras aparentemente complejas a partir de diseños simples, aprovechando algún tipo de simetría. En el primer ejemplo (figura 1) se expone una muestra típica de las aplicaciones que motivaron la creación de MG. Se trata de una red neuronal muy sencilla que simula un comportamiento de la mantis religiosa. X y Y representan los estímulos, W y Z las respuestas, y los números dentro del cuerpo de las neuronas, los umbrales. El texto y las neuronas están definidas con splines. En la figura 2 se muestra, en la parte de arriba, la estructura básica, y más abajo, el resultado después de haber aplicado transformaciones reiterativas; rotando la estructura básica (como en SPIRO1 y en SPIRO2) o su origen (como en SPIRo3), o bien cambiando la escala (como en SPIRO1). Con el uso de la recursividad podemos conseguir objetos tan curiosos como los árboles fractales, llamados así por su autosimilitud (simetría escalar: a cualquier escala se observa el mismo patrón). No es difícil concluir que una curva que pasara por todos los puntos de una de las ramas del árbol, tendría longitud infinita. Son aparentemente muy complicados (ver figura 4) pero en realidad la estructura base es una simple línea (el tronco), en uno de cuyos extremos se repite la estructura dos veces, a una escala menor y con ángulos distintos de rotación (dos ramificaciones). Queda como ejercicio al lector la programación, en MG, de las curvas de Hilbert o de Sierpinski. Hasta aquí sólo se han visto curvas. Dejo para otra ocasión los objetos con áreas cerradas. Veremos cómo construir diseños en 2D tales como los de M. C. Escher; o como los mosaicos no periódicos de Roger Penrose. CONCLUSIÓN MG se perfila como algo más que un display file, ya que toda la información grafica está contenida en el archivo; y es un lenguaje de graficación, con instrucciones sencillas y fáciles de memorizar, pero con posibilidades casi infinitas. Está parcialmente inspirado en sistemas de graficación estandarizados (tales como PHIGS) y en el “graphics language” de los plotters, pero con énfasis en la sencillez y en un mínimo de instrucciones. Hay que tomar en cuenta que MG no es un producto acabado. Es más, se aceptan sugerencias. RECONOCIMIENTOS El autor da las gracias a Ana Luisa Solís, Guillermo Correa y Homero Ríos por sus valiosos comentarios. APÉNDICE 1 Algunos listados % Figura basada en la rotación de cuatro líneas % Figura basada en la translación de un círculo % Árbol fractal (figura recursiva) APÉNDICE 2 Algunas instrucciones Las transformaciones para estructuras son similares, cambiando las dos últimas letras por ST para texto igual, con TXT. Operaciones con estructuras. Otras instrucciones como recorte, banderas de iteración, uso de variables dentro de una estructura etc., podrán consultarse en el manual del usuario cuando éste exista.
|
|
|
|
||||||||||||||||||||||
|
|
|||||||||||||||||||||||||
|
Refrerencias Bibliográficas 1. W. Newman, R. Sproull, 1979, Principles of Interactive Computer Graphics, McGraw-Hill. |
|||||||||||||||||||||||||
|
____________________________________________________________
|
|||||||||||||||||||||||||
|
Alejandro Aguilar Sierra
como citar este artículo → |
|||||||||||||||||||||||||
![]() |
PDF→
|
||||||||||||||
| Elisa Bonilla Rius |
|||||||||||||||
|
En este articulo se reseñan tres puntos de vista acerca de la enseñanza y el aprendizaje de las matemáticas, éstos tienen la peculiaridad de haber sido producidos por personas cuya actividad primaria no eran las matemáticas, pero que, sin embargo, las consideraron fundamentales en la formación de los individuos. Estos tres ejemplos distan mucho de ser los únicos de su clase: mucha gente fuera de las matemáticas se ha preocupado por éstas y les ha encontrado un significado relativo a su actividad. Conviene señalar que la selección de los ejemplos no refleja necesariamente su importancia dentro del estudio de la enseñanza y el aprendizaje de las matemáticas y es, hasta cierto punto, una selección arbitraria que responde, más bien, a las preferencias de la autora. INTRODUCCIÓN En vista de la importancia que la sociedad en general otorga a las matemáticas como parte fundamental de una educación integral de los individuos, se ha generado gran interés en torno a, su enseñanza y a las dificultades que parece presentar su aprendizaje. Sin embargo, los matemáticos y los profesores de matemáticas no han sido los únicos interesados en los problemas de enseñar y aprender matemáticas; este interés está tan generalizado, que dentro de campos tan diversos como la filosofía, la psicología o la pedagogía, entre otros, existe también la preocupación por darles solución. Por otra parte, este interés, tampoco es reciente y posiblemente se podrían encontrar referencias a los problemas de la educación matemática, que se sitúan en distintos siglos. Este interés aunque con altibajos, ha persistido a lo largo de la historia. La población en general tiene también diversas opiniones acerca de cómo debe ser la enseñanza de las matemáticas. Entre ellas están los tres trabajos que se presentan a continuación: Primero: el conocimiento se transmite verbalmente y, por lo tanto, la clave de una buena enseñanza está en una presentación, clara y bien articulada, del material de enseñanza. Segundo: el empleo de material didáctico facilita la comprensión de las matemáticas. Tercero: la base de una buena enseñanza está en mecanizar y practicar mucho las matemáticas. Antes de juzgar si estos puntos de vista son o no acertados, se revisarán algunas de las posturas que les dan sustento teórico, en particular las de Platón, Marra Montessori y Edward. L. Thorndike. PLATÓN Y LA TRANSMISIÓN DEL CONOCIMIENTO Entre las citas clásicas sobre el aprendizaje y la enseñanza de las matemáticas se encuentran algunas anotaciones de Platón; quien, en opinión de algunos autores, debe ser considerado como el primer filósofo de la educación1 (Rousseau, por ejemplo, concibe a La República como el tratado más sofisticado de educación que nunca se hubiera escrito),2 así que fue precisamente Platón, el primero en discutir en qué circunstancias una acción educativa es imperativa, además de abocarse al problema de definir qué conocimientos se requieren para cada una de las distintas profesiones: “…si para ser un guerrero espartano —dice Platón— es necesario un duro entrenamiento físico, para ser guardián de la ciudad se requiere de saber matemáticas” (cfr. La República). Platón se destaca entre aquellos que defienden a las matemáticas como una componente fundamental de una formación integral. De acuerdo a su teoría, el estudio delas matemáticas desarrolla el alma en dos sentidos. Por un lado, da lugar a la reflexión, para así externar todas las contradicciones que permanecen ocultas tras los juicios que resultan de la percepción sensible. De este modo, el estudiante nunca habrá de conformarse con su primera impresión de las cosas, preparándose para avanzar del contexto de la imaginación al de la razón. Por otra parte, Platón afirma que el estudio de las matemáticas, conduce al estudiante por el camino del bien, que es el principal objetivo de cualquier tipo de aprendizaje en la vida. Además de preocuparse por el papel de las matemáticas en la formación de los individuos, Platón nos legó su punto de vista sobre la naturaleza de la enseñanza y el aprendizaje (cfr. Menón). Para él, enseñar equivale a “decir” y aprender a “haber escuchado”; postura, por otra parte, tan influyente, que ha perdurado hasta nuestros días: para la mayoría de los maestros de hoy, enseñar consiste, casi exclusivamente, en articular con claridad ciertas ideas, mientras que, por lo tanto, aprender consiste tan solo en escuchar con atención lo que se dice. De ahí, la frase tan frecuentemente oída en aulas de todos los niveles educativos: “…lo repito —dirá el maestro— tantas veces como sea necesario”. O dicho de otro modo, el aprendizaje del alumno sólo depende de que atienda, de que escuche con claridad. En esta concepción no se le reconoce al alumno la actividad de “procesar” o “codificar” la información recibida. El proceso de información, o, como dirían algunos autores, la construcción del conocimiento, se presupone automática; concibiendo al alumno más bien como una “tabla rasa” sobre la que el maestro puede “escribir”. Al respecto una de las citas más claras de Platón, la encontramos en el diálogo de Sócrates con Menón; de hecho, las primeras palabras con las que este último abre el diálogo resumen la concepción platónica sobre el aprendizaje: Menón “¿Podrías tú decirme, Sócrates…?” Menón quiere aprender, para lo cual requiere que Sócrates le diga… Su conocimiento, entonces, depende fundamentalmente de Sócrates; es decir, que éste sea capaz de articular con claridad lo que habrá de enseñarle a Menón. Para Platón el aprendizaje es, entonces, una recepción pasiva de la información.3 Como ya se dijo, esta visión perduró por muchos siglos hasta llegar, con gran vigor, a nuestros días. A continuación se presentarán otros dos enfoques pertenecientes a la primera mitad del siglo XX y, aunque distintos entre sí, ambos se oponen a la visión dada por Platón. Los dos recalcan la actividad del sujeto como promotora del aprendizaje, dando lugar sin embargo, a teorías diametralmente opuestas. En primer lugar, se expondrá el caso de María Montessori, precursora de la escuela activa y, posteriormente, el de Edward L. Thorndike, psicólogo conductista. MARÍA MONTESSORI Y EL EMPLEO DE MATERIAL DIDÁCTICO Entre los pedagogos que en este siglo se han preocupado por la enseñanza y el aprendizaje de las matemáticas, destaca María Montessori, cuyas aportaciones pedagógicas y didácticas influyeron, no sólo sobre la educación de su tiempo, sino también sobre la de épocas muy posteriores. Montessori (1870-1956) dedicó la mayor parte de su vida a la educación pre-escolar, pugnando siempre por un desarrollo integral del individuo desde la más temprana edad; y, desde su punto de vista, las matemáticas juegan un papel fundamental en dicho desarrollo. Montessori concibe la mente humana como una “mente matemática” que está en actividad continua, y explica que, incluso en actos tan cotidianos como bajar escaleras o cruzar una calle, el ser humano emplea medidas visuales o bien aplica relaciones matemáticas. Montessori también hace énfasis en que este hecho no es el resultado del desarrollo de la ciencia moderna, ya que las civilizaciones de todos los tiempos han sido capaces de producir armas u otros instrumentos de precisión (que pueden ser admirados aún hoy en museos de todo el mundo), que requirieron de la aplicación de relaciones matemáticas. Mucho antes del florecimiento de la ciencia moderna, se construyeron edificios de gran calibre y se manufacturaron herramientas e instrumentos de alta precisión, lo que —desde su punto de vista— revela la acción de una mente matemática madura. De ahí, que dicha mente no sea necesariamente el producto de una ocupación específicamente científica. Ella, de hecho, sostiene que esta ocupación incluso puede llegar a ser contraproducente. María Montessori afirma la existencia de esa mente en los niños e, independientemente de reconocer la presencia de diferencias individuales en lo que se refiere a habilidades. Uno de los móviles principales de su teoría consiste, precisamente, en probar que esta mente puede ser desarrollada a muy temprana edad y se apoya para ello en el empleo de material didáctico. Una parte muy importante de la actividad de María Montessori es, por ende, la que se refiere al desarrollo de materiales didácticos; entre los que se cuentan materiales para aprender a contar, a manejar el sistema decimal, a trabajar con fracciones y a comparar magnitudes.4 Materiales didácticos, en cuya aplicación Montessori sustenta, como ya se dijo, el desarrollo de las capacidades del niño, particularmente las relativas al aprendizaje de las matemáticas. Este aprendizaje, apoyado en el empleo de materiales didácticos, ha sido muy bien acogido por distintas secciones del público y su uso se ha ido haciendo cada vez más popular. Lo que por otra parte ha implicado que se le atribuyan a éste potencialidades intrínsecas que parecen no depender de cómo se le utilice. En otras palabras se cree que si la enseñanza incluye el uso de material didáctico, tendrá el éxito asegurado. Por este motivo se han hecho amplias investigaciones sobre los alcances del uso de material didáctico, de distintos tipos y en distintas circunstancias. Los resultados no siempre han sido tan satisfactorios como la creencia popular pareciera indicarnos.5 De ahí que la eficacia de su empleo no sea automática. El cómo se emplea es, por lo general, más importante que el material mismo. EDWARD L. THORNDIKE: LA MECANIZACIÓN Y LA PRÁCTICA Entre los exponentes de la psicología experimental se encuentra Edward L. Thorndike, conocido como el padre fundador de la “psicología para la instrucción matemática”.6 Como psicólogo, Thorndike trabajó en el desarrollo de la teoría del aprendizaje, basada en el “estimulo-respuesta”, además de dedicar gran parte de su tiempo a intentar traducir los resultados de sus experimentos en lineamientos para la instrucción en el aula; publicó, en 1922, un libro con el titulo Psicología de la Aritmética, en el que recogió buena parte de dichos lineamientos. En este libro, Thorndike desarrolla su teoría de las “ligas” o “nexos”, cada uno de ellos resultado de aparejar repetidamente un estímulo y su correspondiente respuesta (donde, por ejemplo: “2 + 2” es el estímulo y “4” la respuesta), y hace énfasis en el beneficio que traen consigo la mecanización y la práctica (drill and practice) para el aprendizaje de la aritmética: “Cada nexo que se forma, debe hacerse considerando la formación de todos los nexos ya formados o que habrán de formarse en el futuro. Asimismo, cada habilidad debe practicarse en una relación, lo más efectiva posible, con las demás habilidades”. (Thorndike, 1922:140.) Desde su punto de vista, la tarea del profesor consiste exclusivamente en proveer y supervisar una mecanización y práctica adecuadas, en cantidad y orden, para cada clase de problemas. El maestro debe identificar los nexos de los que está constituido cada tema a enseñarse, para así ordenarlos de acuerdo a su grado de dificultad, partiendo de los que considere más fáciles. Este enfoque supone que el aprendizaje de los nexos más simples ayuda en los aprendizajes subsiguientes. Una vez hecho esto, es decir, adquirida la mecanización, sólo resta que los alumnos practiquen los nexos para cada clase de problemas. Entre más a menudo se puedan presentar la mecanización y la práctica en el contexto de problemas reales, más fuertes serán los nexos que se establecerán. La recompensa ofrecida para reforzar los nexos aprendidos se obtiene cuando los problemas aritméticos se hacen interesantes, divertidos y con aplicaciones prácticas. Así pues, a Thorndike también le preocupaba el significado intrínseco de los problemas y su relevancia para actividades cotidianas, externas a la escuela. A pesar de su preocupación por la cuestión semántica, muy poco común entre los conductistas, Thorndike tuvo muchos detractores. Entre ellos, otro psicólogo experimental, William Brownell, quien objetó duramente el método de la mecanización y la práctica, afirmando que para asegurar la comprensión y un aprendizaje significativo, a través de la instrucción, era indispensable tomar en cuenta las relaciones matemáticas subyacentes al cómputo y aplicación de algoritmos: “Si se quiere tener éxito en el desarrollo de un pensamiento cuantitativo, éste debe estar fundado en los significados y no en una infinidad de respuestas automáticas… La mecanización no da lugar al significado. La repetición no lleva al entendimiento”. (Brownell, 1935:10). A pesar de críticas tan acérrimas como la anterior, la mecanización de algoritmos a ultranza tiene, hasta la fecha, gran cantidad de seguidores, particularmente entre algunos maestros de nuestras aulas: ¿quién, como alumno, estuvo a salvo de padecer planas y planas de operaciones administradas sin ton ni son? Sin embargo, los defensores de la mecanización están tranquilos, después de todo, su punto de vista tiene ya fundamento en una “teoría científica”, de cuya paternidad es responsable, entre otros, el mismo Thorndike. NOTA FINAL Cabe señalar que, ésta no ha pretendido ser en realidad una exposición crítica, sino una introducción al tema que incite al lector a ahondar en los detalles. Sin embargo, pueden obtenerse algunas conclusiones sobre el material presentado. Como se ha visto, el campo de la enseñanza y el aprendizaje de las matemáticas, cuenta con distintas aportaciones y análisis sobre los problemas y situaciones que hay que enfrentar al enseñar y aprender matemáticas. Los tres casos revisados aquí son una pequeña muestra de posturas que, independientemente de cuándo fueron concebidas, tienen aún vigencia dentro de este campo. Entre las razones que movieron a su inclusión en este trabajo, está principalmente la de que, de alguna manera, representan el sustento de puntos de vista muy arraigados en la población en general sobre lo que es, o debiera ser, la enseñanza y el aprendizaje de las matemáticas. Cada postura tiene, seguramente, algo que ofrecerle a una enseñanza y a un aprendizaje exitoso de las matemáticas, sin embargo, adoptadas como panacea no sólo resultan visiones parciales, sino propuestas proclives al fracaso. Quién puede negar que una buena enseñanza requiere de claridad en la exposición de los temas a enseñarse, pero dicha claridad de exposición no es más que una condición necesaria en la educación. No basta ser claro para que los alumnos aprendan. No es posible olvidar que el sujeto que aprende es un ser activo y que, por ende, su conocimiento no depende exclusivamente de factores externos. De aquí, que los educadores hayan buscado apoyo, por ejemplo, en las teorías del aprendizaje como fundamento de sus estrategias. El reconocimiento de que el sujeto que aprende juega una parte activa en la construcción de dicho aprendizaje, ha dado lugar a grandes esfuerzos intelectuales, dirigidos explícitamente a facilitar dicho aprendizaje. Los dos últimos ejemplos presentados ilustran este hecho. En particular el diseño y la manufactura de material didáctico, cada vez más populares, están guiados por la creencia de que el empleo de material didáctico en la enseñanza es siempre beneficioso: pero, como nos muestran entre otros autores Hart y Sinkinson (1989), la administración de dicho material debe hacerse con cautela, reconociendo que el material, por sí mismo, no provoca la construcción del conocimiento. Asimismo, reconocerle postura activa del sujeto en la producción de su propio conocimiento, se ve muy pobremente caracterizada cuando ésta se interpreta como mera repetición automática. La mecanización y la práctica, como ayudas colaterales al aprendizaje, pueden tener algún sentido, pero éste se esfuma cuando se les considera explícitamente como las mismísimas posibilitadoras del conocimiento. Consideraciones de este tipo dieron lugar a la necesidad de producir un conocimiento sistemático sobre la enseñanza y el aprendizaje de las matemáticas. Con este objeto surgió, hace aproximadamente unos veinte años, una disciplina de investigación conocida como Educación matemática; algunos de cuyos resultados más relevantes e interesantes esperamos reseñar, próximamente, en estas páginas.
|
|
|
|
||||||||||||
|
|
|||||||||||||||
|
Refrerencias Bibliográficas Barker, Ernest, 1959, The Political Thought of Plato and Aristotle, Dover, Nueva York. NOTAS 1 Chateau, et al., 1959, proporciona un análisis bastante detallado de la faceta pedagógica de Platón. Una típica mesa de contar del siglo XVI. Tomado de Swetz, F. J., 1987, Capitalism and Arithmetic, ed. Open Court. Ilustración de 1508 sobre la contienda entre quienes usaban el ábaco y los que usaban algoritmos. El espíritu de la aritmética, en forma femenina, preside la competencia. Tomado de Swetz, F. J., 1987, Capitalism and Arithmetic, ed. Open Court.
|
|||||||||||||||
|
____________________________________________________________
|
|||||||||||||||
|
Elisa Bonilla Rius
como citar este artículo → |
|||||||||||||||
![]() |
PDF→
|
||||||
| Exequiel Ezcurra, Vicente Fuentes, Jorge Legorreta, Juan Manuel Navarro Pineda, Víctor Hugo Páramo y Mari Carmen Serra Puche |
|||||||
|
La cuenca de México es una región en la que las condiciones ambientales para el desarrollo de una gran ciudad son desfavorables por naturaleza. Con velocidades de viento sumamente bajas, sin la presencia de ríos cercanos, en un área de alto riesgo sísmico y ubicada sobre el lecho lodoso de un antiguo lago, la ciudad de México enfrenta riesgos ambientales de gran magnitud. HISTORIA Y PATRIMONIO CULTURAL La cuenca de México es uno de los pocos lugares del mundo con evidencias arqueológicas e históricas registradas y estudiadas, que abarcan un periodo de cerca de treinta mil años, lo que la convierte en un área de altísimo interés arqueológico, cultural y etnobiológico. Sin embargo, el crecimiento de la ciudad ha provocado la destrucción de una parte importante del patrimonio histórico, arqueológico y cultural, y está provocando la rápida desaparición de la cultura lacustre tradicional. La antigua agricultura chinampera de la cuenca de México, es una de las técnicas agrícolas más eficientes y, ambientalmente, de las más benignas que se conocen, pero está desapareciendo rápidamente frente a la expansión de la mancha urbana. EL PROBLEMA DEMOGRÁFICO El problema de la ciudad de México no es sólo un problema de tamaño, es, sobre todo, un problema de crecimiento. El rápido aumento de la población (4.8% anual), la expansión de la mancha urbana (5.2%) y el aumento del parque automotriz (6%), hace muy difícil abastecer de servicios a la ciudad, y mantener al mismo tiempo la calidad del ambiente. La creciente demanda de satisfactores y el consumo que provoca el crecimiento poblacional son de los principales responsables de los grandes problemas ambientales que enfrenta la ciudad. La concepción del país basada en un modelo concentrador es, en gran medida, la responsable de los grandes problemas de la ciudad de México. La concentración de ventajas para la industria en la cuenca ha promovido una muy alta migración proveniente de áreas rurales empobrecidas, provocando, en consecuencia, un desmedido crecimiento de la ciudad. A ello hay que agregar la elevada tasa de crecimiento de la ciudad, que sigue siendo muy alta en comparación a su capacidad para proporcionar nuevos servicios y para controlar el impacto humano sobre el medio ambiente. La migración del campo a la ciudad y su crecimiento demográfico, han generado inmensas áreas periféricas, habitadas por personas marginadas, sin trabajo o con muy bajos ingresos, lo que representa un inmenso problema social. Esta gran desigualdad ha contribuido a aumentar la violencia y la criminalidad en el área urbana. LOS PROBLEMAS AMBIENTALES La acción del hombre en los últimos años ha acelerado los procesos geológicos naturales de la cuenca de México, como el azolve del fondo lacustre y la erosión de las laderas de las montañas. Al mismo tiempo el crecimiento de la ciudad ha provocado que se urbanicen gran parte de los buenos suelos agrícolas de la cuenca, con el consecuente deterioro de la capacidad productiva de la región. Así, la pérdida de la vegetación boscosa en la cuenca alta del valle de México genera erosión de las laderas y un problema cada vez mayor de inundaciones y de grandes avenidas de agua. La proporción de áreas verdes dentro de la ciudad es inaceptablemente baja y sigue disminuyendo. En muchas colonias la población dispone de menos de 1 m2 de área verde por habitante, cantidad ésta diez veces menor que la que marca la norma internacional. Los cuerpos de agua superficiales prácticamente han desaparecido de la cuenca y, principalmente, de la zona metropolitana, debido a que el crecimiento de la ciudad cubre cada día más áreas de suelos con calles y edificios, lo que disminuye la capacidad de recarga de los acuíferos. Al mismo tiempo, la sobrexplotación de los mantos acuíferos está propiciando un rápido hundimiento de la ciudad, lo que lógicamente provoca alzas muy importantes en el bombeo del sistema de drenaje profundo para eliminar el exceso de agua y sacar las aguas negras hacia afuera de la cuenca de México. Este hundimiento propicia también mayores fugas en la red de distribución del agua. Por otra parte, se está extrayendo el agua de los acuíferos en volúmenes mucho mayores a los de su recarga, a lo que debe sumarse la ineficiencia en el uso del vital líquido, ya que, por ejemplo, las industrias consumen una parte excesivamente grande de las cuotas de agua y nunca la tratan ni la reutilizan, mientras que a las zonas habitacionales se les distribuye este elemento de manera poco equitativa. Otro problema de gran importancia lo representa la disposición de los residuos sólidos de la ciudad, que elimina cerca de 12000 toneladas de basura por día y, gran parte de ella, al no eliminarse a través del sistema de recolección domiciliaria, se tira en sitios clandestinos o en la vía pública. Los lixiviados de los antiguos tiradores, y los rellenos sanitarios, están contaminando en muchos casos, los acuíferos subterráneos. Por su parte, la degradación de la calidad del aire básicamente radica en la existencia de cerca de 30000 establecimientos industriales y en la presencia de alrededor de tres millones de vehículos automotores. Las emisiones de estas fuentes y las características geográficas y climáticas de la zona, no permiten, en las condiciones actuales, garantizar una buena calidad de aire. Los combustibles que se usan en la ciudad de México son inadecuados: las gasolinas todavía tienen altos niveles de plomo, mientras que los combustóleos y el diesel lo tienen de azufre. Además las tecnologías de los motores y quemadores son totalmente inadecuadas, y por ello resultan ser responsables, en gran medida, de los altos niveles de contaminación. El ozono, los hidrocarburos, los óxidos de nitrógeno y el monóxido de carbono son contaminantes de gran importancia en el aire de la ciudad. Su concentración sólo podría disminuir si se mejoraran las gasolinas y los procesos de combustión. La cantidad de partículas suspendidas en la atmósfera de la ciudad de México es muy alta y tiene un alto contenido de azufre. La mayor parte de ellas proviene de fuentes que utilizan procesos ineficientes de combustión. La legislación ambiental no se aplica con rigor sobre las industrias privadas, ni sobre las empresas del gobierno. Los empresarios no asumen su responsabilidad como contaminadores y la rectoría del Estado sobre las emisiones de las empresas no se aplica con suficiente firmeza. Dentro del sistema de transporte de la ciudad, los principales contaminadores de la atmósfera son los casi 3 millones de automóviles particulares que circulan en la ciudad. Por otro lado, el transporte colectivo urbano es ineficiente, insuficiente y su uso no se fomenta adecuadamente. El crecimiento desmesurado de la ciudad y de su población, ha generado la presencia de unos 6 millones de personas en cinturones urbanos periféricos que al no contar con los servicios necesarios provocan fenómenos como la falta de agua y el fecalismo al aire libre, lo que conlleva a la contaminación de cuerpos de agua, de acuíferos y de la atmósfera sobre la ciudad, con riesgos graves para la salud humana. Por desgracia la investigación ambiental en México no recibe el apoyo suficiente, por lo que existe un alto grado de incertidumbre sobre los verdaderos riesgos involucrados en el problema ambiental. También prevalece una excesiva parcialización en la toma de decisiones, sin una visión global que las coordine y unifique (por ejemplo, decisiones propuestas por ingenieros hidráulicos, por ingenieros de caminos o por otros especialistas, sin considerar las acciones que emprenderán otras dependencias). El que las autoridades no consulten antes de decidir en materia ambiental, ha llevado con frecuencia a, graves errores, ya que los vecinos y las organizaciones comunales muchas veces tienen un conocimiento muy claro de los problemas ambientales más importantes de su colonia. Sin embargo, este conocimiento, en la práctica, no es utilizado debido a que no existen órganos de consulta ciudadana. La fuerte interrelación de los distintos problemas ambientales de la ciudad hace necesario serios estudios interdisciplinarios (la contaminación del aire, por ejemplo, está fuertemente relacionada con el problema del transporte urbano, el crecimiento poblacional y el suministro de energéticos). Hasta ahora, ha faltado la capacidad para ver el problema desde una perspectiva global y de largo plazo. Las soluciones parciales que se dan a los problemas son, con mucha frecuencia, coyunturales y de corto plazo y no representan respuestas permanentes, lo que en realidad constituye un gasto económico y social muy alto. Los problemas de la ciudad son también problemas de equidad y desigualdad. Por ejemplo, a pesar de los problemas ambientales, la esperanza de vida en la ciudad de México es todavía mucho más alta que en aquellas regiones que funcionan como expulsores de población. LAS POSIBLES SOLUCIONES Es necesario y urgente reducir los volúmenes de extracción de agua del acuífero de la cuenca de México, para evitar que se agudicen los graves problemas que está generando el hundimiento de la ciudad. Para ello, debería explotarse el agua del subsuelo hasta niveles comparables a los caudales de recarga (aproximadamente 24 metros cúbicos por segundo), y aumentar considerablemente los caudales de aguas negras que reciben tratamiento. Las industrias, sobre todo, tienen la responsabilidad de tratar y reusar el agua que emplean en sus procesos. El desarrollo de nuevas áreas verdes, o el mantenimiento de las ya existentes, podría lograrse a través de sistemas de autogestión vecinal y de participación ciudadana. También es urgente que se aumente el transporte no contaminante (trolebuses, tranvías, trenes ligeros y metro) en toda el área urbana y que se fomente el uso del transporte colectivo a todos los niveles, mejorando la calidad y la oferta de los vehículos. Debería impulsarse el desarrollo de un parque de taxis menos contaminante, a través de la fabricación de autos austeros, de bajo precio y con dispositivos anticontaminantes. Por otro lado, debería apoyarse con importantes recursos económicos, el cultivo chinampero tradicional, ya que no es solamente un importante mecanismo de producción agrícola local, sino también representa una contribución a la conservación de la cultura tradicional del valle de México. Es urgente que la legislación actual se aplique con rigor sobre la industria, tanto estatal como privada, y debería ser obligatorio el uso de dispositivos de control en todas las industrias que emitan cantidades significativas de contaminantes. Se deben cerrar definitivamente las fábricas que no cumplan con la legislación ambiental, sin dar ninguna posibilidad para su reapertura en la cuenca de México. Para coadyuvar con esto es imprescindible impulsar la investigación científica ya tecnológica nacional, en aspectos relacionados con el medio ambiente. Así se podría generar el conocimiento adecuado sobre el estado del medio ambiente en la cuenca de México y se contribuiría a desarrollar tecnologías económicamente atractivas y rentables encaminadas a disminuir las emisiones de contaminantes. También habría que hacer que la red de monitorear ambiental se extendiera hacia la evaluación de otros problemas ambientales de gran importancia para la ciudad. Estos nuevos aspectos de monitoreo, incluyen la erosión del suelo, el acarreo de sedimentos por el agua de escorrentía, el estado de conservación y sanidad de las superficies boscosas que rodean a la ciudad, la calidad del agua domiciliaria, el grado de contaminación de las aguas negras que expulsa la ciudad, la contaminación de acuíferos y el destino de los lixiviados de los sitios de disposición de residuos. El aire sobre la ciudad de México es un recurso natural de uso común que debe ser administrado de manera racional y eficiente para satisfacer las necesidades y el bienestar de toda la población, y como tal debe ser considerado. Para evitar la duplicidad o la contradicción en la toma de decisiones, es necesario definir de manera clara y precisa un organismo administrador que tenga un poder de decisión único sobre la gestión ambiental de la zona metropolitana. También sería conveniente crear un órgano de coordinación de las acciones que se tomen en el área metropolitana en materia ambiental, en el que participen los sectores académico, empresarial y organizaciones ambientalistas y de gobierno. De la misma manera que, a otro nivel, también hay que generar órganos de consulta ciudadana que influyan en las decisiones que toman las autoridades en materia ambiental. Dentro de las recomendaciones que también sentimos la obligación de dar, están las siguientes: — Eliminar de manera progresiva, pero firme, todos los subsidios, tanto en recursos económicos como en recursos naturales, con los que se apoya el desarrollo de la ciudad de México y revertir estos subsidios a zonas rurales o hacia ciudades menores que tengan grandes carencias y necesidades. — Imponer restricciones para la expansión de la inversión económica en la ciudad y promover la expansión de la inversión privada en polos alternativos de desarrollo. — Ordenar y confirmar el crecimiento de la ciudad a partir de la creación y el impulso de un cinturón de suelos agrícolas de alta rentabilidad, en los que no se permitan invasiones debidas al crecimiento de la ciudad. — Establecer un programa de regeneración de canales y de ríos en la cuenca de México. — Desarrollar obras de almacenamiento del agua pluvial que cae en la cuenca y de sistemas de reinyección de agua de lluvias a las acuíferos. Asimismo, racionalizar la eficiencia en el uso del agua dentro de la ciudad, que podría incrementarse sustancialmente con solo evitar las pérdidas por fugas en el sistema de distribución. — Mantener la calidad de los sistemas de captación de agua en las partes altas de la cuenca. Para ello es necesario proteger, y en algunas casos reforestar con especies nativas, los bosques que rodean a la ciudad. — Mejorar los sistemas de educación ambiental, sobre todo en las escuelas y universidades. — Lograr una mejor concientización ambiental sobre los problemas de la cuenca de México para lo que es necesario que los niños participen en los proyectos de mejoramiento, recuperación y restauración ambiental. Como la contaminación es un problema común, que debe ser resuelto de manera urgente a través de un acuerdo colectiva, sugerimos que el gobierno tome la iniciativa de crear un pacto contra la contaminación, en el que se involucre a los sectores oficial, empresarial y social, y que tenga un seguimiento a corto, mediano y largo plazo. Cada sector debe comprometerse a tomar medidas concretas contra la contaminación. La recuperación ambiental ha podido resolverse exitosamente en otras ciudades del mundo, como Londres o Tokio. La ciudad de México debe asumir su posición como una de las urbes mas pobladas del planeta y encontrar soluciones a su problemática ambiental, ya que el meollo radica fundamentalmente en un problema de decisión política, de acuerdo social, de organización ciudadana y de recursos para el logro de los objetivos. |
|
|
|
||||
|
|
|||||||
|
____________________________________________________________
|
|||||||
|
Exequiel Ezcurra Vicente Fuentes Facultad de Ingeniería Universidad Nacional Autónoma de México. Jorge Legorreta Centro de Ecodesarrollo. Juan Manuel Navarro Pineda Víctor Hugo Páramo Mari Carmen Serra Puche como citar este artículo → |
|||||||
![]() |
PDF→
|
||||||
| Miguel Altieri, Al Gentry, Arturo Gómez-Pompa, Guillermo Mann, Juan G. Saldarriaga, Javier Trujillo y Rodrigo Medellín |
|||||||
|
En los últimos años se han presentado muchas denuncias en diversos foros nacionales e internacionales alertando sobre los problemas ecológicos y ambientales que amenazan al planeta. En estas denuncias se exhorta a todos los sectores de la sociedad a tomar en consideración las bases ecológicas necesarias para un desarrollo económico adecuado. A pesar de estos esfuerzos, y de las buenas intenciones que conllevan, la situación global de los países en desarrollo ha empeorado. Ello se refleja en la agudización de la crisis ambiental, la insignificancia de los programas de reforestación en relación a la magnitud de la desforestación, el deterioro del ambiente tanto en el campo como en las ciudades y en la disminución de la calidad de vida de los habitantes. Pocos son los ejemplos exitosos de conservación y/o restauración ecológica en estos países. En particular, la aguda crisis ambiental que afecta al continente americano es el resultado de la compleja acción de múltiples factores ecológicos, técnicos, socio-económicos y políticos, condicionados por un estilo de desarrollo que perpetua la degradación de los recursos naturales y el empobrecimiento de la mayor parte de la población. Existe, sin embargo, una creciente sensibilización al respecto, por lo que es el momento justo, en el que los líderes de los países latinoamericanos deben capitalizar esta mayor conciencia y realizar, o empezar al menos, los cambios institucionales y estructurales requeridos para fomentar la conservación de los recursos naturales y el desarrollo coherente de las naciones. Uno de los problemas más importantes en Latinoamérica es la pérdida de la diversidad biológica. América tropical contiene más especies de plantas y animales que cualquier otra región equivalente en el mundo. Sin embargo, esta región es una de las menos estudiadas. La gran mayoría de sus especies no tiene, ni siquiera, un nombre científico. Nuestra ignorancia asusta. La conservación de esta diversidad es una obligación de todos. Debemos proteger nuestro acervo biológico, ya que él representa nuestro futuro mismo. Es a la vez una parte fundamental del patrimonio biótico del mundo. Su conservación es importante, no sólo por razones estéticas o morales, sino también por razones de sobrevivencia de nuestra propia especie. Cada especie es una opción potencial para el futuro. En la riqueza de la flora y la fauna neotropicales, podremos encontrar alimentos, medicinas, especies para el control biológico y genes para el mejoramiento de cultivos y productos naturales, muchos de ellos aún desconocidos para la ciencia. Es muy importante enfatizar sobre la irreversibilidad de la pérdida de diversidad, en contraste con otros problemas ambientales que sí pueden revertirse, como lo son la contaminación, la erosión, la sobrepoblación o la desforestación, que de alguna manera pueden no ser definitivas, mientras que la extinción es para siempre. La información biológica actual nos indica que existen muchas especies de reciente extinción o que están a punto de extinguirse. También de acuerdo a la información existente sobre tasas de desforestación y a la teoría biogeográfica de las islas, podemos predecir que el proceso de extinción será mucho mayor en un futuro cercano. América Latina posee los recursos naturales y el potencial humano necesarios para llevar a cabo, en esta década, los proyectos de investigación, conservación y desarrollo que ayuden no sólo a detener el proceso de degradación y a lograr la restauración de ambientes degradados, sino que ofrezcan a su población un nivel digno de vida. Se necesitara más que voluntad política a nivel nacional y continental; es urgente la solidaridad y la cooperación de las agencias gubernamentales y privadas internacionales, en especial de las de los países industrializados y la de las agencias y empresas financieras multinacionales. La conservación de la diversidad biológica debe abarcar toda una gama de niveles de manejo y de situaciones ambientales, desde los ecosistemas prístinos hasta los sistemas manejados con gran diversidad biológica, y desde los ecosistemas primarios, hasta los secundarios e, incluso, los agroecosistemas. Todos ellos poseen un gran valor como reservorios de biodiversidad. Es evidente que los esquemas actuales de conservación no han funcionado adecuadamente y se necesita un nuevo enfoque mas acorde con la realidad latinoamericana. La opción de tener zonas protegidas sigue siendo válida; sin embargo, ésta no es suficiente. Por lo tanto es necesario implementar una política general para que el manejo de los recursos conlleve una nueva visión de sustentabilidad; para ello se requiere de un enfoque integrado de desarrollo, que involucre a todos los sectores afectados, desde las comunidades indígenas y campesinas más pobres, hasta los más altos niveles de gobierno, al igual que científicos y empresarios. Vislumbramos un esquema que incluya zonas protegidas de todo tipo, zonas manejadas, zonas de agroecosistemas diversificados y, en especial, zonas de producción agropecuaria y silvícola sostenible, que abarque tanto a los sistemas tradicionales como a los sistemas altamente mecanizados. En Latinoamérica existen millones de kilómetros cuadrados de zonas ecológicamente degradadas, por las acciones humanas desordenadas. Estas zonas deben ser el objeto principal de los programas de restauración ambiental, con los que pueda dársele ocupación y tierra a millones de campesinos. Los costos de restauración deberán ser pagados por los culpables de la degradación; esto significa que deberá legislarse al respecto, para poder identificarlos y castigarlos. En tales programas deberán incluirse desde la regeneración de los ecosistemas, similares a los originales, hasta los agroecosistemas productivos, todo ello en beneficio de las comunidades rurales. Es necesario que los programas de conservación, restauración y manejo se planeen y lleven a cabo, en estrecho contacto con los campesinos locales y tomando en cuenta los sistemas tradicionales y las necesidades locales específicas de cada caso. En relación con las zonas protegidas, es indispensable conceder la mayor prioridad al desarrollo de proyectos de manejo de recursos en las zonas de amortiguamiento y de influencia, preservando siempre la integridad de las zonas núcleo. Las áreas protegidas y demás reservas deben convertirse en zonas piloto de conservación, desarrollo, educación y extensión. Estas áreas podrán incluir extracción controlada y sostenida, de los recursos no tradicionales del bosque, en beneficio de las comunidades locales. El valor económico potencial de las selvas naturales, es mayor que el que pueda proporcionar cualquier otro uso convencional. Por ello es primordial buscar los mecanismos para aprovechar este valor sin destruir el recurso, y si se piensa en algún tipo de conversión debe tomarse en cuenta el valor actual de la biodiversidad de los bosques y las selvas naturales. La UNESCO promovió por medio del proyecto MAB, una idea parecida a la aquí expuesta pero fracasó debido a que en la gran mayoría de los casos, faltó apoyo, financiamiento, seguimiento y liderazgo. Esto colocó al programa en el mismo sitio de muchos de los esquemas basados en Parques Nacionales. Por ello creemos importante hacer un llamado para que se cumplan los objetivos básicos, tanto de las Reservas de la Biosfera como los de los Parques Nacionales y demás áreas protegidas. Es vital que se elaboren, de manera inmediata, proyectos que lleven al establecimiento de prototipos de conservación y desarrollo en Latinoamérica, de los cuales sea posible extraer la organización y los principios ecológicos claves, que sirvan de guía para el establecimiento de proyectos similares, y sobre todo, que se adecúen a las realidades ecológicas, socioeconómicas y político-culturales de cada región o país. El respeto a la diversidad cultural debe tener la misma validez e importancia que la protección de la diversidad biológica. El trópico americano ha sido el sitio en donde se han desarrollado importantes culturas prehispánicas, que lograron notables avances en todos los campos y llegaron a tener densidades de población mucho mayores a las actuales, en los mismos sitios. Hasta donde se sabe, esos grupos humanos no causaron extinciones masivas de especies. Por ello exhortamos a todos los gobiernos a facilitar, apoyar y promover investigaciones sobre los sistemas de manejo de recursos de las antiguas culturas tropicales y, en especial, a rescatar los conocimientos de las etnias indígenas latinoamericanas, herederas actuales de esas mismas culturas. Un requisito fundamental para impulsar la conservación de recursos, en especial para frenar la desforestación, la caza y captura de especies de fauna amenazadas y la erosión, es el de resolver el problema de la pobreza en la región. Para ello se deberá atacar la raíz de los factores estructurales e institucionales que la perpetúan, de manera que los pobres tengan acceso a servicios sociales, empleo y una base adecuada de subsistencia. Estamos conscientes de los problemas potenciales asociados al rápido crecimiento demográfico y su relación con la degradación ambiental. Sin embargo, consideramos que el problema del crecimiento poblacional no se debería tratar en forma abstracta, como números totales de gente, sino que hay que examinar la densidad poblacional en relación a la concentración de recursos, la distribución de la riqueza y los patrones de uso y consumo de tales recursos. Ojalá pudiéramos hacer conciencia en todos los países para que le den la más alta prioridad a la promoción de la autosuficiencia alimentaria a través de toda clase de mecanismos de apoyo, distribución de alimentos e ingresos, tecnologías apropiadas, educación, investigación y extensión. El no hacerlo condena a grandes grupos humanos a la miseria y a la marginación. Pero el intentar crear conciencia sobre la problemática ambiental (por ejemplo a través de discursos ecologistas, difusión y publicidad), no la soluciona. Sólo las acciones ejecutivas que se transforman en ejemplos concretos de conservación, forman la base real de la educación y la concientización. Nada podrá lograrse sin una buena educación al alcance de todos, ya que es a través de ella que podremos construir un verdadero futuro aceptable y común para el mundo entero. Sin embargo para lograrlo hay que desarrollar sistemas educativos apropiados que se orienten a satisfacer las necesidades básicas de la población y al mejoramiento de la calidad de vida. Esta capacitación debe incluir tanto al líder comunitario como al profesional universitario, sin discriminación de rangos y, jamás deberá perder de vista las condiciones sociales, económicas y culturales de la región y el aprovechamiento racional de los recursos. Prácticamente no existen instituciones educativas que preparen profesionales en el manejo de los recursos naturales y el desarrollo adecuado de forma apropiada para la realidad latinoamericana. Los programas existentes se concentran en carreras convencionales como la biología, agronomía, etcétera. Sin embargo, es urgente la formación de personal específico para estos fines, ya que las escasas organizaciones que lo hacen, o lo hacían, están en sus inicios o han desaparecido. En la medida que se generen y/o dediquen fondos a actividades de conservación-desarrollo, será prioritario formar un nuevo tipo de profesional latinoamericano: el Gestor de Recursos Naturales. Estos recursos humanos, formados integralmente en todos los aspectos concernientes a la conservación y desarrollo permanente, serán los responsables de implementar proyectos que mejoren la calidad de vida y a la vez promuevan la conservación del patrimonio biótico y ambiental. Paralelamente, también será necesario hacer cambios drásticos a nivel institucional y estructural, que permitan la implementación de tales programas. Con respecto a las unidades de conservación es indispensable desarrollar investigaciones básicas sobre la diversidad biótica, con el propósito de definir políticas basadas en conocimientos científicos, a fin de tomar en cuenta patrones de distribución y endemismo en la conservación de la mayor parte de las especies. De la misma forma es imprescindible promover la comunicación entre los planificadores, científicos y, en general, interesados en la conservación, para poder compartir experiencias e identificar problemas comunes y necesidades en la investigación y enseñanza. Es evidente que un requisito indispensable para desarrollar una política conservacionista, es la investigación científica. Todas las nuevas alternativas: sistemas de manejo, diseños agroecológicos, etc., deberán estar basadas en la investigación científica. Carecemos de inventarios biológicos básicos de la mayoría de las zonas protegidas. Esto equivale a tener una biblioteca casi vacía, desordenada y sin catálogo alguno. La planificación de la conservación de los recursos naturales renovables, y del desarrollo en general, deben cimentarse en una buena información científica. La información sobre la biota de los países en desarrollo es insuficiente en la actualidad y gran parte de ella no se encuentra disponible en los países donde esta se ha generado, sino que se localiza en los países industrializados. Por ello es necesario, por un lado, incrementar los estudios científicos y, por el otro, establecer los mejores mecanismos en el manejo de la información, que permitan sistematizarla y repatriarla y así asegurar una mejor toma de decisiones locales y nacionales. También es indispensable lograr una creciente coordinación y articulación de esfuerzos entre gobiernos, instituciones, científicos, sector privado y población civil, de manera que el uso de los escasos recursos financieros y humanos disponibles sea racional, evitándose al mismo tiempo la duplicación y dispersión de esfuerzos. Con ello también se busca que se cumplan una serie de objetivos sociales, económicos, políticos y culturales, que satisfagan las diversas necesidades de los distintos sectores de la sociedad. En este sentido el intercambio constructivo y la coordinación de acciones entre organismos gubernamentales (OGs) y organizaciones no gubernamentales (ONGs), involucradas en actividades de conservación y desarrollo, es de vital importancia. Todas las barreras políticas, económicas y legales que frenan el desarrollo permanente deberán removerse, si se pretende lograr un escenario de desarrollo ecológicamente armónico, económicamente viable y socialmente justo, para la región. Deben fortalecerse las instituciones, locales de investigación, enseñanza y desarrollo en el área del manejo adecuado de los recursos naturales. Estas instituciones han demostrado ser las únicas que proveen continuidad en el trabajo ideas originales, y seriedad en sus acciones, por lo que los gobiernos deben apoyarse en ellas para asegurar la permanencia, la crítica constructiva y la vigilancia científica de los programas de conservación. Deseamos hacer un reconocimiento público a todas las agrupaciones ecologistas y ambientalistas no gubernamentales, y a los intelectuales y artistas por la intensa labor que están realizando al llevar el mensaje conservacionista a todos los niveles de la sociedad y así servir de voceros para que el público en general este al tanto de los hallazgos científicos en materia ecológica y ambiental. Por ello nos parece importante apoyar su labor e invitarlo a estrechar lazos con la comunidad científica nacional e internacional para lograr que su mensaje no sólo tenga el valor y el calor de la emoción, sino que también este respaldada en datos científicos. También sería muy útil redefinir las responsabilidades referentes a la toma de decisiones sobre conservación: ya que es evidente que tales decisiones deberían ser tomadas por aquellas personas o entidades que posean todos los elementos de juicio necesarios, por lo tanto, la participación de los científicos sería tan importante como la de las bases que se encuentran inmersas en el terreno afectado. Así la agenda de conservación en Latinoamérica debe ser definida por los latinoamericanos, garantizando la participación profunda de científicos de todos los campos inherentes al tema. Al mismo tiempo, los puntos de esta agenda deben ser dialogados y negociados con los países industrializados, sin alterar el espíritu de respeto a la soberanía y las prioridades nacionales. La internacionalización del problema ecológico latinoamericano y su solución deberán ser tratados y discutidos dentro de un marco geopolítica solidario y éticamente correcto. Sería conveniente que se estableciera un compromiso entre los gobiernos, agencias internacionales y fundaciones, para lograr una continuidad en las acciones a mediano y largo plazo. El conflicto actual entre el desarrollo económico tradicional y la conservación de los recursos bióticos, se genera fundamentalmente como consecuencia de una diferencia básica entre los horizontes temporales de planificación que existen entre éstos. Los planes de manejo forestal a corto plazo están destinados al fracaso, ya que la velocidad de respuesta de los programas forestales es más lenta que los horizontes de planificación política y económica tradicionales. También sería interesante que se valoraran las acciones conservacionistas en los países en desarrollo y se cargara su costo a los causantes de los problemas y a los beneficiados por estas acciones. Es injusto y poco práctico que sean los más pobres los que paguen por la conservación. Esto lo decimos en especial por los campesinos y grupos indígenas que viven en las zonas que desean protegerse o en zonas de uso restringido. Aquellos que se benefician de la manutención de la diversidad biológica en Latinoamérica, deberán cubrir los gastos de conservación, independientemente de su situación geográfica. Se deben buscar entonces, los mecanismos legales que establezcan claramente que los países o conglomerados económicos que destruyen o contaminan el ambiente, o que usufructúan desproporcionadamente los recursos naturales o servicios ecológicos inherentes a los ecosistemas locales, deberán pagar por la conservación y/o restauración de éstos. Es aquí donde debe encontrarse un balance entre la deuda económica que los países en desarrollo tienen con los países industrializados y la deuda ecológica que a su vez, estos últimos tienen con los primeros. Un pueblo, y en especial una niñez bien nutrida, sana y educada, es el mejor seguro para un futuro común aceptable por todos. Para lograr esto se requiere un ambiente sano y armónico con la naturaleza. No hay otra opción. |
|
|
|
||||
|
|
|||||||
|
|
|||||||
|
____________________________________________________________
|
|||||||
|
Miguel Altieri Division of Biological Control University of California, Berkeley. Al Gentry Missouri Botanical Garde. Arturo Gómez-Pompa University of California. Gillermo Mann Conservation International. Juan G. Saldarriaga Programa Tropenbos. Javier Trujillo Colegio de Posgraduados. Rodrigo Medellín como citar este artículo → |
|||||||
![]() |
PDF→
|
||||||
| Colectivo |
|||||||
|
“Las ideas son para mí, medios de transformación, y en consecuencia, partes o momentos de algún cambio” Paul Valey
Con motivo del día del ambiente, en el Centro de Ecología de la UNAM, se realizaron tres coloquios sobre los problemas ambientales actuales. El objetivo: analizar y discutir acerca de la problemática ambiental a nivel global, en América Latina en general y en la ciudad de México en especial. Durante los días 7, 8 y 9 de mayo de 1990, científicos de diversos campos, procedentes del extranjero y de México, se dedicaron a esta tarea, con el fin de proponer posibles soluciones inmediatas y delimitar las áreas de investigación necesarias para elaborar planes a largo plazo. De estas sesiones saldrían tres documentos que constituirían la Carta de Anáhuac. “El Cambio Global”, “Conservación y Manejo de Recursos en América Latina”, y “Problemas Ambientales en la ciudad de México”, son los títulos de tales documentos. Hay que destacar el énfasis que se puso en detectar las lagunas que existen en cuanto al conocimiento de los procesos y las áreas específicas que conforman esta problemática. Aspecto éste de gran importancia, ya que ilustra con mucha claridad el papel que puede desempeñar el científico en la resolución de estas cuestiones. Si echamos un vistazo retrospectivo sobre la imagen que ha ido teniendo el científico, podremos observar de que manera fue cambiando a través del tiempo. De aquel artesano, comerciante o viajero renacentista, al manufacturero del siglo XVII y XVIII. Del sabio y guía espiritual del siglo XIX, líder del desarrollo industrial, al genio ermitaño de la primera mitad del siglo XX, cuya única compañía podía ser un lápiz (instrumento que mostrara Einstein cuando alguien le preguntó en dónde estaba su laboratorio), y que cambió a raíz de la Segunda Guerra Mundial, época que demostró, por un lado las maravillas de que eran capaces esos anacoretas de cuya utilidad ya se comenzaba a dudar, y por otro, que los científicos no pueden vivir ya al margen de instituciones, laboratorios, industrias, presupuestos estatales, SNIS y demás Pronasoles académicos. Desgraciadamente en esta última etapa se desarrolló una tan acelerada tecnologización de la investigación misma que lo convirtió en un asalariado más. Todos estos cambios aunados a que no todas las ramas del árbol del saber crecen a la misma velocidad, así como cierta conciencia que de ello tienen algunos científicos, hacen que la definición de lo que es un científico en la actualidad no resulte ser tan sencilla. Las opiniones varían y entre ellas podemos encontrar desde los nostálgicos de la era dorada de la ciencia, anterior al pecado original de la bomba atómica, en la que el científico era generador de luz y progreso, hasta los “realistas” que, acordes con los tiempos, ya tienen un pie en la industria biotecnológica o informática y para quienes la obtención de patentes es el único sentido de la investigación científica; sin dejar a un lado a los seguidores de Platón, que creen que el científico sólo es quien esta en la ya definida “frontera del conocimiento” y que todos los demás no son más que técnicos. Cada época plantea diferentes tareas y desafíos a las diversas áreas de la ciencia. Su variedad es infinita y, como los científicos no son distintos al común de los mortales, hay conciencias para todo, por lo que también es natural que cada una de ellas busque dar su muy particular definición de lo que es un científico. No se puede ser objetivo en todo. Y aunque siempre predomina alguno de los puntos de vista, la pluralidad es, afortunadamente, inevitable y los demás sobreviven, aunque no emerjan tan fácilmente. Los coloquios científicos son un buen ejemplo de ello, ya que allí la preocupación de los participantes es manifiesta. La caracterización de la problemática ambiental no se limita al aspecto meramente científico, sino que logra englobar tanto los aspectos sociales, como los políticos y económicos. Asimismo, las soluciones buscan atacar los problemas desde la misma perspectiva. Obviamente, la complejidad es aterradora. Basta con acercarse al llamado Cambio global, “una alteración a gran escala, en un intervalo muy corto de tiempo”, que está “ocurriendo a una tasa sin precedente en la historia de la humanidad”.* La complejidad de este fenómeno, “producto de la expansión económica, social y política mundial”, que requiere para su solución de “acciones sociales, políticas, económicas, científicas y técnicas”, resulta evidente si observamos los múltiples procesos que en él confluyen. Por un lado se encuentran los cambios climáticos causados por las alteraciones en la composición química de la atmósfera (concentraciones de CO2, ozono, metano, óxidos de nitrógeno y CFC), las cuales son producto, entre otras cosas, de la creciente urbanización y el uso de tecnologías industriales. “Las consecuencias de estos cambios en la química atmosférica, son amplificadas por el sistema de interacciones climáticas con la biota y el ciclo hidrológico”, por lo que contribuyen de manera considerable al cambio global. Por otro lado están los cambios en el uso del suelo, como lo es la transformación de bosques y selvas en pastizales, debido a las prácticas agrícolas y a las condiciones económicas; o bien, la disminución de las tierras disponibles para la agricultura y la ocupación y destrucción de ecosistemas naturales a causa de la urbanización. Los cambios climáticos también pueden provocar desertificación y convertir los pastizales en matorrales. “En la mayoría de los casos, existen complejas interacciones entre todos estos cambios” y “los cambios locales en el uso del suelo pueden tener consecuencias globales, ya sea porque su efecto acumulativo es global en escala, o porque las acciones locales causan reacciones regionales o aun globales”. Aunque cabría aclarar que, “dadas las características ecológicas particulares de cada ecosistema, no todos los cambios en el uso del suelo tienen las mismas consecuencias”. La contaminación es otro factor clave en el cambio global. La industrialización, la agricultura intensiva que requiere una gran cantidad de pesticidas y fertilizantes, la producción de energía y los hábitos de consumo, han generado un enorme depósito de sustancias tóxicas y contaminantes que al acumularse en el suelo y la vegetación, afectan los ecosistemas y al concentrarse en las cadenas alimenticias, se convierten en una amenaza para la salud humana. Finalmente, la extinción de especies ocasionada por la destrucción de sus hábitats, la cacería y la contaminación, están provocando una disminución alarmante de la diversidad biológica. Todos estos cambios y procesos mencionados, interactúan entre sí, amplificando las repercusiones, algunas de las cuales aún no se determinan con precisión. Las consecuencias son, entre otras tantas, las siguientes: a) Alteración de la temperatura y de los patrones de precipitación. En este proceso, como ya se mencionó, “las variables biológicas, sociales, económicas, técnicas y políticas, se combinan tanto de manera vertical (entre distintos niveles), como horizontal (dentro del mismo nivel)”. No está de más aclarar que también existen oscilaciones del medio, de origen completamente natural, como El Niño (ver artículo en este número), fenómeno que produce “alteraciones severas en los ecosistemas”. A causa de la inmensa complejidad que significa la interacción entre todos estos factores, es fundamental la investigación científica en forma interdisciplinaria, para una mejor comprensión y resolución de esta problemática, más, como lo señalan los autores del documento, “las acciones que pueden ser tomadas involucran virtualmente a todas las esferas de la sociedad”. Aunque la investigación científica es necesaria para detectar y entender los procesos del cambio global, las acciones preventivas y las acciones correctivas/adaptativas, dependen de las políticas nacionales y regionales, y éstas, a su vez, tienen importantes implicaciones sociales y económicas. Por ello, no es prudente la recomendación de acciones basadas solamente en la información científica, sin referencia al marco social y económico”. “Es necesario pues, enfatizar las consecuencias y el costo a corto y largo plazo de la inacción. Asimismo, las acciones correctivas/adaptativas pueden resultar más costosas, tanto económica como ecológicamente, que las acciones preventivas tempranas; ya que parece prácticamente imposible evitar el cambio global, deben tomarse paralelamente medidas preventivas y medidas correctivas/adaptativas.” Las medidas preventivas buscarían evitar el deterioro de los ecosistemas, disminuir la concentración de sustancias contaminantes, detener la perdida de la diversidad biológica, etcétera. Pueden ser tanto a corto como a largo plazo, dependiendo del tipo de problema. Mientras que las correctivas/adaptativas estarían orientadas a mitigar los efectos ya muy avanzados del cambio global. En ambas es necesaria la investigación científica y en ambas tiene un papel preponderante el científico. Como lo dice el mismo documento: “El conocimiento y el entendimiento que en la actualidad se tienen sobre el cambio global, son suficientes para recomendar acciones inmediatas. No obstante, aún existe incertidumbre sobre los aspectos cuantitativos de algunos procesos. Con el propósito de poder tomar decisiones racionales e informadas se debe impulsar el monitoreo y la investigación de estos procesos”. “El monitoreo y la investigación permitirán a la vez evaluar los resultados de las acciones tomadas y podrán indicar modificaciones a estos planes”. “El propósito de tal monitoreo incluye la cuantificación de las tendencias de las principales variables involucradas, esto es: i) La concentración de los principales contaminantes en agua, suelo y atmósfera, con referencia especial a los gases implicados en el cambio climático. Los propósitos de los programas de investigación serian: i) La predicción de la dirección de los cambios y de las tasas de cambio, así como el desarrollo de modelos predictivos del cambio climático, los ciclos hidrológicos, las modificaciones a la vegetación y las rutas de los contaminantes. ii) El desarrollo de tecnologías que prevengan o minimicen los cambios ambientales o que permitan la adaptación de la sociedad. En todo este proceso el científico tiene una enorme responsabilidad. Sus opiniones y propuestas deben ser difundidas de tal manera que la población a la que le concierne, tanto a nivel global como local, se entere de que hay posibilidades reales de detener y prevenir el deterioro de nuestro planeta y así exigir que se tomen las medidas necesarias para ello. Pues solamente con la participación y la aportación de la experiencia y los conocimientos de los diferentes grupos involucrados en esta problemática, —como lo mencionan los documentos que siguen— será posible llevar a cabo las propuestas elaboradas y ajustarlas a cada situación en particular. Por esta razón nos parece muy importante la difusión de este tipo de documentos que, como todas las ideas, son medios de transformación. |
|
|
|
||||
|
|
|||||||
|
Refrerencias Bibliográficas * Las citas de este texto son parte del documento El cambio global, elaborado por Luis Bojórquez Tapia, Centro de Ecología, UNAM; Gonzalo Halffter, Instituto de Ecología A. C., Xalapa, Veracruz; Rafael Herrera, Centro de Ecología y Ciencias Ambientales, Caracas, Venezuela; Diana Liverman, Earth System Science Center, The Pennsylvania State University; Imanuel Noy-Meir, the Hebrew University of Jerusalem; Paul Risser, University of New Mexico; Juan G. Saldarriaga, Programa Tropenbos, Bogotá, Colombia; Javier Trujillo, Colegio de Posgraduados Chapingo, México; Rodrigo Medellín, Program for Studies in Tropical Conservation, University of Florida. |
|||||||
|
____________________________________________________________
|
|||||||
|
como citar este artículo → |
|||||||
![]() |
PDF→
|
||||||
| Pedro Ripa |
|||||||
|
En esta época en que el idioma oficial de la mayor potencia económica, militar y científica —aspectos por cierto no independientes— es el inglés, nos vemos inundados de palabras en ese idioma: mientras respiramos el smog, vemos una publicidad sobre software, en nuestro camino al Car Wash. En el mundo académico —que debería ser escudo cultural— es donde esta contaminación es quizás más evidente y penosa: estamos (casi) acostumbrados al pochismo en el lenguaje, y no son pocos los que, sin conmoverse, cometen el bárbaro barbarismo de decir que asumen, cuando a lo sumo suponen. Es muy raro ver el fenómeno inverso: palabras del idioma español que se incorporen al vocabulario de otras lenguas. Hay dos ejemplos recientes. El primero constituye “un triste honor” para el Cono Sur latinoamericano —como dice García Márquez— y es la palabra desaparecidos. El segundo es El Niño: en infinidad de pláticas, artículos científicos e incluso periodísticos del “primer" mundo se habla de El Niño. Claro que también son comunes los barbarismos bilingües como “the El Niño”, “El Niños”, “El Nino”, etc. Para compensar, alguien acuñó otro término científico bien escrito: La Niña. ¿Qué es El Niño y por qué ha tomado tanta notoriedad? En este ensayo trataré de contestar a esta pregunta. Veremos que el nombre es en realidad incorrecto y también que le echan la culpa del mayor fiasco en esta línea de investigación a… ¡México! El fenómeno El Niño debe su nombre a lo que en Ecuador y Perú llaman la corriente de El Niño. Estos países se caracterizan por una “riqueza pesquera muy grande; la temporada más importante de pesca está asociada, por razones que veremos más adelante, a la persistencia de viento y corriente del sudeste (o sea, en la dirección de la costa y hacia el ecuador).1 Cada fin de año la dirección del viento se invierte y la corriente viene entonces del noroeste, señalando el fin de la temporada de pesca. Debido a que la época en que aparece esta corriente es poco después de Navidad, se le llama de El Niño, y por lo tanto se trata de un evento estacional, o sea, que ocurre cada año. Claro que no todos los años ocurre en forma exactamente igual; hay veces en que este cambio del régimen oceánico es particularmente fuerte y duradero. Curiosamente, son sólo a estos casos especiales, a estas anomalías interanuales, a las que ahora se conoce internacionalmente como “fenómeno El Niño”.2 El cambio en el sentido del nombre, se debe a que el fenómeno interanual cobró originalmente notoriedad internacional a partir de sus efectos en la industria pesquera peruana: En la década de los sesenta el Perú se convirtió vertiginosamente en una potencia pesquera, y más rápido de lo que creció, ocurrió un colapso catastrófico. En el año de 1956 la captura anual de anchoveta era inferior al medio millón de toneladas; esta cifra fue creciendo sin parar (salvo un pequeño descenso en 1965; que haya ocurrido en este año, como veremos más adelante, es importante) en casi un millón de toneladas anuales cada año, llegando a mas de 12 millones de toneladas en 1970. Luego ocurrió un colapso vertiginoso: en 1973 la captura fue inferior a los dos millones de toneladas, y prácticamente no se ha recuperado de tal caída. Enseguida les platicaré la razón física de la riqueza pesquera de esta nación, luego diré algo sobre el fenómeno de El Niño, y finalmente regresaré al Perú, comentando las razones físicas y no físicas del colapso de esa industria. Aristóteles decía (dicen) que para todo cuerpo en movimiento, la velocidad es proporcional a la fuerza que éste experimenta: no solo cuanto más vigorosa es ésta, más rápido se mueve el cuerpo, sino que también —y esto es importante— lo hace en la dirección en que actúa la fuerza. Posteriormente Newton, subido en los hombros de Galileo, dijo que no: que no es la velocidad sino la aceleración (el cambio de velocidad) la que es proporcional —en magnitud y orientación a la fuerza. Nosotros sabemos que Newton es el que tiene la razón; aunque los dos sean famosos, Aristóteles vivió mucho antes. Sin embargo, la posición de Aristóteles es bastante intuitiva,3 ¿hay un gato encerrado? Si’, el gato se llama fricción, que se manifiesta en una fuerza que equilibra a la aplicada, de manera que no haya aceleración; si la fuerza de fricción es proporcional a la velocidad final, entonces la fuerza aplicada aparece también proporcional a ésta, dándole mañosamente la razón a Aristóteles. Pues bien, en el océano las cosas son aristotélicamente mucho más locochonas: si el viento empuja al agua en una cierta dirección, en vez de observarse que el mar se acelere más y más en el mismo sentido, como quisiera Newton, se ve que el agua en la superficie eventualmente se mueve con velocidad constante… pero en una dirección diferente a la del viento: hacia la derecha de esta en el hemisferio norte, o hacia su izquierda, en el hemisferio austral (es algo así como esos carritos de supermercado, a los que les gusta ir en una dirección diferente a la que uno los empuja). Y este gato ¿cómo se llama? Este gato no es ni griego ni inglés: es francés y se llama Coriolis. El efecto de Coriolis es un gato encerrado con maldad de carrito de supermercado: mientras un objeto (el agua de alguna parte del océano, en nuestro caso) esté quieto, no actúa, pero en cuanto aquél se mueve, se manifiesta como una fuerza, en magnitud proporcional a la velocidad, pero en dirección perpendicular a ésta: en el hemisferio boreal la fuerza de Coriolis es hacia la derecha de la dirección de movimiento, mientras que al sur del ecuador es hacia la izquierda (sin connotaciones políticas). Este efecto hace que la física del océano y de la atmósfera sea muy diferente a la física de albercas, alambiques y tuberías. Este efecto tan importante, y tan utilizado, es uno de los que se ha explicado de peor manera en cursos y libros de texto; aquí lo tomaremos como algo mágico: un gato mágico que empuja en dirección perpendicular a la del movimiento. Y ¿qué tiene esto que ver con la pesquería peruana? Mucho: el viento sopla normalmente a lo largo de la costa hacia el ecuador, es decir, hacia el noroeste. Debido al efecto de Coriolis, el agua de la superficie tiende a moverse en dirección suroeste, perpendicular a la costa y mar adentro. Ahora viene la parte importante: el agua transportada mar adentro es reemplazada por aguas profundas, cercanas a la costa, que son frías (ya que así son más densas, además de que el calentamiento solar no penetra mucho) y ricas en nutrientes (supongo que porque allí abajo no hay muchos consumidores). El afloramiento de aguas profundas enfría a la superficie y la enriquece en alimentos, haciendo que esta zona sea muy buena para la pesca. Vientos del noroeste, por otra parte, no afloran aguas profundas en el Perú, sino que al contrario acumulan las aguas superficiales contra la costa, eventualmente sumergiéndolas. Las direcciones correctas para levantar o hundir el agua, por el efecto de Coriolis en una costa determinada, son opuestas en el hemisferio norte. Cuando el viento deja de soplar del sudeste cesa el afloramiento, las aguas son más cálidas y finaliza la temporada (buena) de pesca; esto es lo que originalmente se conoció como “Corriente de El Nino”. En ciertos años, inusuales, anómalos, las aguas permanecen cálidas… y la pesca sigue pobre, no se recupera; éstos son los que ahora se conocen como años de “El Niño”: dos ejemplos mencionados más arriba son 1965 y 1972/73. ¿Cuál es la causa de este fenómeno, que tanto daño causó a la pesquería peruana? En un primer momento se pensó, lógicamente, que el origen era local, en el sentido de que en estos años anómalos no se habrían dado los vientos beneficiosos del sudeste, que afloran aguas frías y ricas en nutrientes. Pues no, pronto se vio que no era ésta la explicación correcta: durante los años de El Niño puede seguir habiendo vientos fuertes del sudeste en la costa peruana, sólo que las aguas que traen a la superficie son calientes y pobres en nutrientes. ¿Por qué? La explicación es en cierta forma sorprendente, involucra directamente la física de una enorme porción del océano y la atmósfera tropical, e indirectamente al clima de buena parte del globo terráqueo. Un nombre más correcto de este fenómeno es “El Nino/oscilación austral” porque no sólo tiene una componente oceánica, El Nino, sino además una atmosférica, la oscilación austral. La parte oceánica no se limita a la costa peruana, sino que más bien se manifiesta como un calentamiento de las aguas superficiales en todo el Pacífico ecuatorial; un área de muchos millones de kilómetros cuadrados. La componente atmosférica de este fenómeno, por otra parte, corresponde a una inversión del gradiente de presión atmosférica que existe sobre el Pacífico tropical; la situación “normal” corresponde a mayor presión del lado oriental. Al invertirse este gradiente de presión, se produce un debilitamiento de los alisios del Este y un desplazamiento hacia el oriente de la región de grandes lluvias, que normalmente se encuentra sobre Indonesia. Lo anterior es una descripción, bastante sucinta, del fenómeno; para entender por qué se produce, debemos saber algo sobre la física del océano y la atmósfera, o más bien, de ambos fluidos geofísicos, actuando e interactuando. En la zona ecuatorial el acoplamiento entre la atmósfera y el océano es muy efectivo: en forma algo simplificada, los vientos modifican las corrientes superficiales, éstas distribuyen el calor almacenado en el océano, la temperatura del agua influye en el campo de presión atmosférica, y finalmente el gradiente de esta es el responsable de la existencia de los vientos. Un bello círculo de causas eslabonadas (como los elefantes del circo agarrados, trompas con colas, en una ronda: cada uno sigue a todos los demás y es seguido por ellos). Para entender mejor la respuesta del océano a la acción del viento —y también la influencia de aquél en la atmósfera— es bueno imaginario (al océano) como compuesto de una capa fina de agua cálida, flotando como una nata encima de una capa mucho más gruesa (kilómetros de espesor, en vez de cientos de metros) de agua mas fría (y por lo tanto más pesada), que esta prácticamente inmóvil. La acción principal ocurre cerca de la superficie. En circunstancias “normales” (es decir, en años en que no se presenta el fenómeno de El Niño) los vientos alisios soplan del este sobre el Pacífico, más o menos en una banda centrada en el ecuador. Esto, por un lado arrastra agua hacia el oeste, acumulándola contra la frontera occidental, en Indonesia. Por otra parte, si releen algunos de los párrafos anteriores, se darán cuenta que la dirección de estos poderosos vientos es, en cada hemisferio, la adecuada para aflorar aguas profundas, porque mueven a las aguas superficiales alejándolas del ecuador. Dado que la capa superficial es normalmente mucho mas delgada hacia el oriente, las aguas que afloran son más frías hacia ese extremo que hacia el otro: hay, en circunstancias normales, un gradiente muy notable de temperatura en el Océano Pacífico ecuatorial, con aguas superficiales más calientes hacia el occidente. Siguiendo con la cadena de efectos concatenados, veamos cómo la temperatura oceánica afecta a la atmósfera. Hay un número mágico, 28°C: allí donde la temperatura del agua es superior a este valor, el océano cede una cantidad muy grande de calor a la atmósfera; el aire caliente es más liviano que sus vecinos y por lo tanto sube. A esto se le llama “convección” y ocurre normalmente en el extremo occidental del Pacífico tropical, cerca de Indonesia, región que se caracteriza por tener mucha lluvia: el aire que sube tiene mucha humedad,4 que se condensa en nubes, a causa de la disminución de presión que implica el ascenso. La condensación de agua calienta aún más el aire, por lo que esta parte del proceso tiende a autorreforzarse. Finalmente la fuerte convección en el extremo occidental (del Pacífico ecuatorial) y la presión atmosférica baja, causada por la temperatura mayor, atraen a los alisios hacia el oeste. Esto completa el circulo de viento/circulación oceánica/temperatura del mar/presión atmosférica/viento. Un bello sistema en equilibrio… o casi. Si se aparta suficientemente a alguno de los elementos de esta cadena dinámica (temperatura oceánica, presión atmosférica, vientos, corriente oceánica o espesor de la capa superficial) de la situación antes descrita, todo el sistema se precipita hacia un estado casi opuesto (El Nino): el gradiente de presión atmosférica, los vientos y las corrientes del este se debilitan, o incluso se invierten; la capa superficial del océano se encuentra profunda y caliente aún en la parte occidental, hasta la costa de América. Estos cambios en el océano y la atmósfera tropicales se favorecen unos a otros: es un proceso con retroalimentación positiva, de ahí su espectacularidad y rapidez. Consideremos primero el engrosamiento de la capa superficial: imagínense un recipiente con agua al que se mantiene inclinado por un buen rato (de manera que hay más agua en el “oeste”); si se le pone súbitamente en posición horizontal (símil de que los alisios dejen de soplar), el agua se precipita hacía el “este", en forma de una gran ola. Eso es exactamente lo que ocurre en el Pacífico ecuatorial, sólo que la ola se llama “interna”, porque nos referimos a cambios en el espesor de la capa superficial y no de la elevación de la superficie. La señal de engrosamiento de la capa superficial, al llegar a América sigue su viaje a lo largo de la costa, una parte va hacia Alaska y la otra hacia Chile. Esta ola interna (que se llama “onda de Kelvin”) es la responsable de que en Perú no se reanude normalmente la temporada de pesca de la anchoveta, ya que aunque los vientos locales soplen del sudeste, el agua que afloran es de la capa superficial, caliente y pobre en nutrientes. Regresando a la zona ecuatorial, es fácil ver que la onda de Kelvin está asociada a un aumento de la temperatura superficial en el Pacífico central y oriental, por dos razones: primero, por que trae agua del poniente que, como dije antes, es más caliente. En segundo lugar, porque al engrosar la capa superficial, el agua que puedan hacer aflorar los alisios ya no es la fría del océano profundo, tal y como ocurre a lo largo de la costa americana, luego del paso de la onda de Kelvin. Al calentarse el Pacífico (ecuatorial) central y oriental, la zona de convección atmosférica y grandes lluvias se desplaza al este, esto debilita al gradiente de presión atmosférica y, por consiguiente, a los alisios. De esta forma se cierra la cadena; noten que la explicación podría haber empezado en cualquier eslabón (alguno de los elefantes se cae, y arrastra a los demás). El hecho de que sea un círculo cerrado de causas y efectos, es lo que hace que se autorrefuerce y crezca espectacularmente; la famosa “retroalimentación positiva”. ¿Por qué se detiene entonces? Según algunos investigadores, el debilitamiento de los alisios, además de producir la onda de Kelvin que viaja hacia el este haciendo más profunda a la capa superficial, provoca otro tipo de onda, llamada “de Rossby”, que viaja más lentamente y hacía el oeste. Pues bien, la onda de Rossby al llegar a Indonesia se refleja parcialmente en una onda de Kelvin que hace más somera a la capa superficial, deteniendo el proceso anterior. Toda esta explicación fue elaborada, más o menos colectivamente en los últimos años, basándose en observaciones, modelos de computadora y de lápiz y papel. Como es de esperar, no hay un acuerdo general en cuanto a que ésta sea la explicación “correcta” (para tenerla, no hay más que esperarse un montonal de años, porque en ciencia el juez definitivo de la verdad es el tiempo). Existen otras hipótesis relativas a aspectos parciales del fenómeno, sobre las que hay aún menos acuerdo. Por ejemplo, algunos investigadores creen que es necesario que el sistema océano/atmósfera tropical se vaya un poco en “la otra dirección”, estado que sexistamente llaman La Niña, para que se produzca otro vaivén de este caprichoso péndulo del clima tropical (y mundial). El fenómeno de El Nino afecta el estado del tiempo en regiones muy distantes del globo terráqueo (por ejemplo, en la zona costera peruana, que normalmente es muy seca, puede llover mucho). La “teleconección” se establece tanto por medio del océano, por la onda de Kelvin, como de la atmósfera. Entre las apariciones registradas de El Niño, una de las más fuertes ciertamente la mayor de este siglo es la de 1982/1983, puede servir como ejemplo algo caricaturesco (como la página policial de los periódicos) de los posibles efectos de este fenómeno: como consecuencia de ese evento, desapareció la totalidad de la población adulta de aves marinas de Kirimati, el atolón coralífero más grande del mundo que está ubicado en el Pacífico central. Los ecosistemas marinos, desde Alaska hasta Chile, fueron afectados, aunque no necesariamente en forma negativa (muchas especies emigran hacia lugares donde las temperaturas son a las que están habituadas, dándole la oportunidad de crecimiento a poblaciones de otras especies; además, los animales bentónicos se pueden beneficiar por la llegada de aguas inusualmente ricas en oxigeno). En cuanto al clima, el noroeste del Perú sufrió la mayor precipitación pluvial en por lo menos cuatro siglos y medio (tomó más de un año limpiar el lodo que inundó el puerto de Talara); la Polinesia francesa, donde las tormentas tropicales son poco comunes, sufrió la acción de varios ciclones, algunos con intensidad de huracán; las costas de Baja y Alta California experimentaron grandes marejadas y fuertes vientos, producto de tormentas desviadas de su trayecto normal; finalmente, hubo una sequía muy severa en Australia y en todo el Atlántico ecuatorial, desde el Amazonas hasta el África tropical. Algo interesante ocurrió con el fenómeno que ocurrió en 1982/1983, que antes de que comenzara, un número considerable de investigadores —con una cantidad importante de recursos—, estaban preparados para detectarlo con suficiente antelación, para poder ir al “campo” (es decir, al mar) a medirlo. Sin embargo pasó desapercibido hasta que El Niño estaba totalmente “maduro” (con todo y bigotitos). Esto señala en particular que predecir este fenómeno (proyecto al que me referiré más adelante) resultó ser más difícil de lo que les parecía a algunos optimistas. Pero también influyó una circunstancia particular, a la que hice alusión en el tercer párrafo. Ciertamente la manifestación más clara de El Niño es el calentamiento del Pacífico tropical, al este del meridiano de cambio de fecha. Todavía en 1982 la temperatura de la superficie oceánica se medía directamente sólo por medio de buques (oceanográficos o mercantes), ocasionalmente y en muy pocos lugares, aunque con muy buena precisión. Por otra parte, los satélites especiales, de reciente aparición, proveían de medidas continuas de todo el océano, pero indirectas, de la temperatura y otras variables de la superficie del mar. Los pocos buques que pasaron por la zona reportaron temperaturas inusualmente altas; los satélites aseguraban una aburrida normalidad. ¿A quién creerle? Pues el hecho es que la computadora le cree al satélite, porque aporta más datos, muchísimos más (esa es una de las desventajas de hacer el análisis automáticamente; aunque claro está hay muchas ventajas al hacerlo así). ¿Y por qué los satélites midieron tan mal las temperaturas? Porque los satélites no miden la temperatura sino la radiación que les llega, y de allí infieren la temperatura superficial; en 1982 las observaciones fueron afectadas —en una forma hasta entonces desconocida— por los productos que la erupción de El Chichonal depositó en la atmósfera, éste es el “culpable” al que me refería en el tercer párrafo. En la actualidad, con más experiencia, las observaciones del satélite son más confiables, y, además, se realizan continuamente medidas directas, no sólo de la temperatura superficial y subsuperficial del océano, sino también de la temperatura del aire y de la rapidez y la dirección del viento. Esto se realiza desde plataformas flotantes que están amarradas al piso del océano, en puntos estratégicos del Pacífico tropical. Un aspecto muy interesante es que esos datos son transmitidos inmediatamente (por medio de un satélite de comunicaciones) a los laboratorios de investigación. También se ha progresado mucho en el aspecto de predicción de El Niño/oscilación austral. Pero regresando al planteamiento del comienzo del ensayo: ¿el intentar predecir los futuros eventos, es la respuesta adecuada a la catástrofe de la pesquería peruana, al comienzo de los setenta? En gran parte de la prensa —y como “justificación” de no pocos proyectos de investigación—, el fenómeno El Niño se presenta amarillísticamente, como un monstruo al acecho al que hay que detectar a tiempo para salvarse de sus consecuencias. En realidad, una predicción suficientemente anticipada podría ayudar a tomar medidas preventivas, condicionado todo ello a lo difícil que puede ser tomar esas medidas (sobre todo para un país del tercer mundo) y a lo impreciso de cualquier predicción de este tipo. De todos modos, la idea que se ha creado acerca de las consecuencias del fenómeno —donde la naturaleza aparece como “la culpable”— es injusta: las especies marinas y de aves guaneras, tienen millones de años (o algo así) de adaptarse a la aparición ocasional de Niños y Niñas, como se adaptaron (y beneficiaron) con la existencia de los ciclos día-noche y verano-invierno. El colapso de la pesquería peruana no se debió a un cataclismo digno de la Biblia u otra mitología, sino a la sobrepesca irresponsable antes, durante, e incluso después del evento. Si hiciéramos una caricatura de la situación diríamos que algunos “conservacionistas” del otro lado de la frontera quisieran, convertir al Tercer Mundo en un gran Parque Nacional, donde los pescadores peruanos —por así decirlo— pasarían a ser guías de expediciones fotográficas tipo National Geographic. El desafío que enfrentamos es combinar nuestra necesidad de desarrollo, con la fragilidad del ambiente donde están los recursos. Como científicos, tenemos la oportunidad de contribuir a entender la biología y la física de ese ambiente global, para adecuarnos mejor a él, en vez de alentar falsas esperanzas de que alguna vez podamos predecir su comportamiento, con tanta precisión y anticipación como se quiera. AGRADECIMIENTOS Este trabajo ha sido apoyado por la Secretaria de Programación y Presupuesto, a través del financiamiento normal del CICESE. Es también un gusto agradecer la hospitalidad de Ramón Peralta y de los cuates de la Facultad de Ciencias de la UNAM, donde comencé a escribir este ensayo, así como el apoyo de IBM de México. Manuel Figueroa, Pepe Ochoa y Edgar Pavía me ayudaron gentilmente con la redacción. |
|
|
|
||||
|
|
|||||||
|
Refrerencias Bibliográficas Baumgartner, T. R., and N. Christensen, 1985, “Coupling of the Gulf Of California to large scale interannual climatic variability”, Journal of Marine Research, 43:825-848. 1 Es costumbre indicar la dirección de una corriente oceánica o del viento especificando hacia dónde va el agua y de dónde viene el aire, respectivamente; una costumbre con origen probablemente náutico. Para que no haya confusión, si digo que la corriente y/o el viento son del norte, quiero decir que el movimiento es hacia el sur. |
|||||||
|
____________________________________________________________
|
|||||||
|
Pedro Ripa
como citar este artículo → |
|||||||







