revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
  de lo soluble y lo insoluble
 
     
La tercera cultura
 
 
 
Antonio R. Cabral Castañeda
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice / artículo siguiente →
         
En su ahora famoso libro Las dos culturas, C.P. Snow expuso claramente que en la Inglaterra de los años 30, los “intelectuales” literarios y los científicos pertenecían a dos grupos polares que ignoraban sus respectivos campos de experiencia. Tres años más tarde, el físico y novelista inglés agregó un ensayo: Las dos culturas. Un segundo vistazo, en el que habló de una nueva cultura, la tercera, que, según él, se encargaría de cerrar la brecha entre literatos y científicos.
 
Con sus muy honrosas excepciones, esta tercera cultura —en la que se supone los literatos hablan con los científicos— ha brillado por su ausencia. Sin embargo, recientemente apareció un movimiento organizado y llamado La tercera cultura por John Brockman. Tal agrupación está constituida fundamentalmente por científicos que dialogan no con los poetas sino con el público en general. Se trata de un gran acontecimiento, porque la ciencia había estado fuera de los círculos sociales y culturales; el lugar lo había ocupado hasta ahora el arte. Nuestras sociedades lloran cuando un poeta muere, pero no cuando un científico fallece, aunque sea premio Nobel.
 
La tercera cultura es hija legítima de la ciencia pues surge de su sucedánea, la tecnología. Su relación es tan estrecha que a la tercera cultura podría definírsele también como tecnocultura. Kevin Kelly la llama cultura nerd. A quienes hace algunos años llamábamos peyorativamente nerds, hoy son verdaderos héroes: Bill Gates, dueño de la Microsoft Corporation, es el más visible y rico de ellos.
 
Según Kelly, la tercera cultura es algo más que una moda o el clímax de la ingeniería; sus logros —dice Brockman— “no son las disputas marginales de una clase de mandarines pendencieros porque afectan la vida de todos los habitantes de nuestro planeta. La tercera cultura está conformada por científicos y otros pensadores que, a través de su trabajo y escritos, están tomando el lugar del intelectual tradicional al hacer visibles los significados más profundos de nuestras vidas, y al redefinir quiénes y cómo somos”.
 
La ciencia persigue la verdad y el arte la condición humana; la tercera cultura apoya el rigor científico, pero su leitmotiv es la novedad, su esperanza no es la expresión sino la experiencia. El propósito de los miembros de la tercera cultura es crear novedades en ruta hacia la verdad y la experiencia; si los científicos experimentan con la mente y los artistas la contemplan y abstraen, la tercera cultura la produce.
 
A diferencia de los científicos y artistas, los nerds (entiendo que en castellano se llaman ñoños) fabrican más que crean, y no elaboran teorías sino herramientas; las respuestas a cualesquiera de sus preguntas tecnológicas son precisamente nuevos artefactos tecnológicos.
 
El párrafo anterior tiene implícita la idea de que la tercera cultura propone la transformación de la sociedad exclusivamente a través de la tecnología. En muchos casos esto ya es así. Por ejemplo, los comités editoriales de las revistas científicas, las comisiones dictaminadoras de los investigadores y los patrocinadores oficiales de la ciencia la promueven desde hace algún tiempo, toda vez que por encima de los protocolos o artículos conceptuales, favorecen aquellos cuyo principal mérito es, aunque suene tautológico, la tecnología aplicada a la ciencia. Quiérase o no, ello es un signo de nuestro tiempo, puesto que la tecnología ha cambiado y facilitado nuestras vidas: la computadora con la que escribo esto me lo recuerda constantemente.
 
Según lo anotado, la tecnocultura es otra forma de hacer ciencia, con todo y que haya salido de una de sus costillas. Los científicos, digamos clásicos, transitan de las hipótesis a los experimentos y viceversa; su ciencia progresa cuando uno del gremio corrobora o rechaza (refuta, diría Popper) las hipótesis de otro(s); en este contexto, sus verdades son la mayoría de las veces incompletas o incluso temporales. Las verdades, llamémosles cibernéticas, como un modelo de la atmósfera o de la génesis cerebral de las emociones, son también producto de las hipótesis del ciber-investigador que alimentó su computadora con datos generados por la ciencia clásica. De este modo se obtienen modelos observacionales que en otras circunstancias hubiera sido imposible generar. Tales modelos hipotéticos son, desde luego, susceptibles de comprobación científica. Recuérdese con Claude Bernard, que la observación y el experimento son los dos extremos del método experimental.
 
La tercera cultura no es un fenómeno estadunidense; ñoños de la computación hay en todo el mundo. Coloque usted a un(a) muchacho(a) de 18 años con conocimientos de biología frente a una computadora ad hoc, y sin duda tendrá la capacidad de diseñar modelos biológicos precisos de casi cualquier sistema, incluso predictivos. La tercera es la cultura de todas las posibilidades. A pesar de emanar de la ciencia, paradójicamente la está transformando como nunca antes, lo que es afortunado pues ambas se alimentan mutua e inexorablemente. Al final, nosotros y nuestro ambiente seremos los beneficiados.
 
La influencia de la tercera cultura en el arte es un aspecto que aún no ha sido bien explorado, pero la tecnología está transformando la manera como concebimos y percibimos el arte en nuestros días. Sin embargo, me inquieta la siguiente afirmación de Kelly: “para la nueva cultura, un viaje hacia la realidad virtual es más importante que recordar a Proust”. Ojalá que no sea así, pues aunque Marcel Proust sería feliz frente a una computadora con su procesador de textos o viendo un paisaje virtual, si el ser humano —ñoño, científico, poeta o la combinación de los tres— olvida la obra de uno de los escritores más importantes y geniales del siglo XX, estaría privándose de una excelente experiencia estética.
 
Mal usada y peor comprendida, con toda su grandeza y capacidad transformadora de nuestras sociedades, la tecnocultura tiene también la potencialidad de alejarnos de lo poco que nos queda de humanos.Chivi51
Referencias bibliográficas
 
Snow, C.P. 1992. The Two Cultures and a Second Look. Cambridge University Press, New York. Reimpresión. (Snow definió “cultura” desde dos puntos de vista: antropológico, que se refiere a un grupo de personas que viviendo en el mismo entorno, comparten intenciones, motivaciones e intereses y que en las mismas circunstancias responden igual; y el formal, que se refiere al desarrollo armonioso de las cualidades y facultades que caracterizan a nuestra humanidad).
Kelly, K. 1998. “The Third Culture”. Science 279:992.
Brockman, J. 1996. The Third Culture. Disponible Hipervínculo: httpwww. edge.org/3rd culture/index.html
Antonio R. Cabral Castañeda
Instituto Nacional de la Nutrición Salvador Zubirán
_______________________________________________________________
como citar este artículo
Cabral, Antonio R. (1998). La tercera cultura. Ciencias 51, julio-septiembre, 12-13. [En línea]
  P01 P02  
 
 
     
Naturaleza y sociedad. Escalas de espacio
y tiempo
 
Gerardo Bocco
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Por investigación socioambiental entendemos, genéricamente, aquellos procesos de modelamiento acerca de objetos de estudio en los cuales la relación entre naturaleza y sociedad es indisoluble.
 
Naturaleza, en este contexto, se refiere a lo que comúnmente conocemos como ambiente (con una dimensión territorial y en una coordenada temporal), donde se disponen recursos naturales, cuyo aprovechamiento, según diferentes racionalidades, está en la base del desarrollo de comunidades concretas. Incluye tanto lo biótico —cobertura vegetal, hábitats— como lo abiótico —formas del relieve y suelos.
 
Para estos propósitos, el término sociedad describe la actividad antrópica, incluyendo lo social, económico y cultural, en sentido amplio —aprovechamiento de los recursos y modificaciones del paisaje en términos de su antropización, esto es, de los efectos que tiene la actividad humana sobre ellas.
 
La investigación socioambiental que se desarrolla actualmente en México y otros países de América Latina, es resultado de la confrontación de los paradigmas dominantes en ciencias naturales —con el consecuente y paulatino abandono de los conceptos reduccionistas— y la acogida de aquellos relacionados con la complejidad, lo interdisciplinario y posmoderno.
 
En México, esta investigación —que puede considerarse incipiente en algunos ambientes académicos, y marginal en relación con las instituciones científicas oficiales— está buscando una creciente formalización en la estructuración de modelos heterodoxos basados en experiencias concretas, especialmente —aunque no sólo— en el medio rural, en zonas de pobreza y de marcada etnicidad, sin por ello renunciar a su rigurosidad científica.
 
Temas como sustentabilidad, y parámetros para medirla; deforestación, y su monitoreo e implicaciones socioambientales; cambio del uso del suelo, y su causalidad natural y social; dimensiones sociales del cambio global (a nivel regional); impacto ambiental, y modelos para medirlo; ordenamiento territorial y los conceptos y modelos necesarios, están en el centro del interés académico, tanto teórico como en experiencias concretas de manejo de los recursos.
 
A juzgar por recientes textos de Levin, Brown y McLeod, entre otros, la investigación en ecología tendería a establecer vínculos entre los aspectos más “duros” de la ciencia y la toma de decisiones. En este contexto, el tema de las escalas (espacio-tiempo) está recibiendo cada vez mayor importancia, en especial a partir de los años 90. Sin embargo, ha estado presente en los enfoques de los geógrafos de recursos naturales y ecólogos del paisaje como parte integral de sus preocupaciones desde mediados de este siglo.
 
 
El espacio y el tiempo
 
 
 
El concepto de escala denota la resolución dentro del intervalo de una cantidad medida. En otras palabras, se refiere a la dimensión espacial o temporal de un sistema. Esta idea vale para lo espacial y lo temporal; de allí la conveniencia de manejar ambas como componentes inseparables en investigación socioambiental. Lo espacial y lo temporal son inherentes a los temas objeto de la preocupación socioambiental. Por lo tanto, las escalas (o bien las resoluciones espacial y temporal) deben formar parte de las condiciones de contorno de los sistemas en estudio.
 
Los procesos socioambientales ocurren en un territorio específico; buena parte de la comprensión de su naturaleza tiene que ver con los cambios en el tiempo (estacionales, anuales o de largo plazo). La dimensión espacial es básicamente abordada desde la geografía, y la temporal es más bien interés de los ecólogos, pero se trata de una diferenciación artificial y no refleja un concepto profundo.
 
 
Lo temporal es un ingrediente en el modelamiento de situaciones hipotéticas (o bien ocurrencias probables en el futuro), y el proceso de investigación por el cual podemos atacarlo es la detección del cambio y el monitoreo. La diferencia entre uno y otro es que el monitoreo (o seguimiento) supone algún tipo de modelo explicativo. El enfoque suele denominarse globalmente como multitemporal.
 
Una herramienta fundamental para abordar la cuestión temporal es el análisis estadístico de datos temporales. Un simple promedio, acompañado de alguna indicación de la variabilidad de los datos, puede ser una buena indicación del cambio temporal, por ejemplo, de algún parámetro meteorológico. Otras herramientas más complejas incluyen las series y el análisis probabilístico de ocurrencia de eventos extraordinarios.
 
 
Para la cuestión temporal, otra herramienta básica es el uso de imágenes obtenidas mediante la percepción remota, correspondientes a diferentes épocas del año o a diferentes años. Para ello es preciso organizar las imágenes (o mapas) para ser comparadas según el mismo sistema de referenciación espacial, por ejemplo coordenadas geográficas. Además, es preciso considerar el problema de la resolución espacial para poder desarrollar la comparación temporal. La escala, por un lado, debe ser homogénea entre los datos a ser comparados. Por otro, la resolución debe ser la adecuada. De lo contrario, los objetos a ser comparados pueden estar bien generalizados (y por lo tanto agregados en clases inconvenientes), o bien demasiado representados espacialmente.
 
De igual modo se utilizan índices —basados en mediciones de las respuestas espectrales— que describen la variación en el tiempo de la cobertura vegetal o de las características de los océanos o de masas de hielo.
 
Lo espacial es el otro ingrediente relacionado con la resolución de las investigaciones. Es relativamente más estático que el anterior, pero igualmente poderoso en el modelamiento de situaciones donde la distribución de objetos de estudio es relevante en la explicación y predicción de su ocurrencia. Esto es básico en temas relacionados con los recursos naturales y su aprovechamiento y degradación en forma sustentable y no.
 
El enfoque fundamental para abordar lo espacial es el análisis geográfico y su lenguaje, la cartografía. En la actualidad, estos conceptos se ven complementados por los sistemas automatizados de información geográfica. La generación del dato se basa en buena medida en los sistemas de percepción remota: interpretación de fotografías aéreas, imágenes de video o de satélite.
 
Lo espacial supone el manejo de entidades geográficas —puntos, líneas o polígonos— organizados en un sistema de coordenadas conocido, y su utilización en la formulación de modelos espaciales —mapas, en general automatizados— y el análisis espacial: vecindad, proximidad, adyacencia, sobreposición, generalización y clasificación, etcétera. La complejidad de los problemas que se analizan requiere aproximaciones sucesivas, esto es, del trabajo a varias escalas: de lo general a lo particular, de lo macro a lo micro (y viceversa), de la interpolación a la extrapolación. Este enfoque se denomina multiescalar, y en general va acompañado de un conjunto de documentos integrados a lo largo de una dimensión espacial.
 
La definición precisa de las escalas es tan importante como (y una función de) el objeto y los objetivos de estudio. Así, un error es similar a un yerro en la selección de métodos y técnicas. La escala es una proporción (de realidad a modelo), pero también representa un cierto nivel de conceptualización del problema. Buena parte de los problemas en la investigación de paisajes radica en la incorrecta selección de escalas y los documentos (mapas, fotos, censos...) que de ella se desprenden.
 
Una relación integral
 
 
Lo temporal no implica naturalmente cambios graduales, paulatinos y mucho menos lineales. Un promedio puede ser un valor carente de significado. Los cambios espaciales pueden ser casi imperceptibles de año a año, pero responder a algún estímulo que desencadene un proceso en forma exponencial.
 
La relación entre la red de drenaje (es decir, el conjunto de ríos y/o arroyos) de una localidad y los eventos de precipitación-escurrimiento que la generan, puede ser un ejemplo de lo anterior. Esta red hidrográfica resulta de la suma de la actividad que, año con año, el escurrimiento y las corrientes ejercen sobre las laderas y los valles. Cuando se producen eventos extraordinarios, esa red no puede contener ni evacuar la cantidad de agua que se concentra rápidamente, en especial en zonas semi-áridas de alta torrencialidad. En esos casos se producen inundaciones, pues los cauces no pueden transportar el caudal, y consecuentes deslaves.
 
La forma de analizar el problema es manejar la escala temporal desde la perspectiva de eventos de recurrencia muy baja. Es decir, revisar la frecuencia de la ocurrencia de eventos de gran magnitud y, por lo tanto, baja probabilidad de ocurrencia anual. La dimensión espacial, y su resolución, debe ser lo suficientemente detallada para representar la red de drenaje, las formas del relieve correspondientes (lechos menor, mayor, planicies de inundación, terrazas...) y las posibles manifestaciones de los eventos extraordinarios de precipitación en las laderas (remoción en masa, inundaciones).
 
Aunque resulte obvio, este tipo de reflexiones es crítico en el ordenamiento de uso de suelo —tanto urbano como rural—, el aprovechamiento de sus recursos naturales y la planificación de las actividades productivas.
 
 
Los planes de manejo
 
La realización de un plan integral del manejo de los recursos naturales disponibles para una comunidad específica supone el conocimiento de los aspectos espacial y temporal de tales recursos. En otras palabras, se deben conocer su historia, la dinámica de su desarrollo y aprovechamiento, y su arreglo o disposición en el espacio comunitario. Supone también que se contemple tanto el uso como la conservación de la diversidad biológica, paisajística y cultural en el grupo.
 
Para ello, es preciso usar el dato geográfico, un descriptor del objeto en estudio en el espacio y el tiempo. El dato geográfico se mide según rangos, y dentro de ellos, de acuerdo con ciertas resoluciones. Los datos geográficos son de índole tanto biofísica (ecogeográfica) como socioeconómica y cultural. Los datos geográficos nos permiten describir en forma integral los recursos naturales de una comunidad, sus usuarios y el resultado de este aprovechamiento. El análisis se realiza en un eje temporal específico, de manera que el dato geográfico se evalúa en su dinámica de cambio.
 
Los datos geográficos expresan, en forma computarizada, la relación que en toda comunidad existe entre la oferta ambiental y la demanda social en un tiempo y espacio determinados.
Las herramientas disponibles para poder desarrollar planes integrales de manejo son de índole bien conceptual o bien técnica. Las primeras se refieren a las unidades paisajísticas (ecogeográficas) necesarias para: 1) almacenar el conocimiento acerca de la distribución de los recursos naturales; 2) evaluar la aptitud productiva del territorio; 3) evaluar los conflictos potenciales entre aptitud y uso actual. Así, estas unidades permiten organizar espacialmente a la comunidad un proceso que se conoce como ordenamiento territorial, y que opera como elemento fundamental del plan de manejo integral comunitario.
 
Las herramientas técnicas se refieren al conjunto de procedimientos que sirven para observar y monitorear los recursos naturales, así como almacenar y analizar el resultado de estas observaciones. En otras palabras, los Sistemas de Información Geográfica (sig) y los sistemas de percepción remota, en forma integrada, son herramientas para crear y manipular datos geográficos.
 
En este contexto, los sig permiten el manejo de una gran cantidad y variedad de datos abióticos —rocas, formas del relieve y suelos—; bióticos —flora y fauna—; socioeconómicos —capital demográfico, producción, circulación y consumo de bienes—, y culturales —cosmovisión comunitaria, toponimia, etnoconocimientos. Buena parte de los datos existen en formato analógico o digital (mapas, censos, encuestas...) que en México son elaborados por el Instituto Nacional de Estadística, Geografía e Informática. Otros datos deben ser creados especialmente por la comunidad. Para ello se recurre a técnicas de interpretación de fotografías aéreas y/o de imágenes obtenidas desde satélites.
 
Las unidades ecogeográficas tienen por base las unidades de roca, relieve y suelos, que describen los resultados de los cambios topográficos: rupturas de pendiente, cambios de altitud, en términos de las formas de relieve, la hidrología de las laderas y desarrollo de suelos resultantes. A estas unidades geomorfológicas se deben ligar las unidades de vegetación y hábitats de fauna, para así configurar unidades integrales, biofísicas, de paisaje. Estos procesos de integración se realizan en el marco del sig, con apoyo en trabajo de campo y percepción remota.
 
Estas son las unidades básicas que se evalúan en términos de su aptitud. Al proceso lo conocemos como evaluación de tierras, y se realiza para diferentes sistemas productivos (agrosilvopastoriles), seleccionados por la comunidad. Cada unidad tendrá un cierto grado de aptitud para uno o más sistemas productivos. El proceso desemboca en la definición de unidades no sólo biofísicas sino productivas.
 
Estas son las unidades de manejo comunitarias y representan la última etapa del análisis ecogeográfico puesto en práctica en un sig. Son parte básica de la información para la toma de decisiones comunitarias generadas en un sig, y constituyen uno de los ejes fundamentales de los planes integrales de manejo comunitarios.
 
Un ejemplo: la deforestación
 
La deforestación es uno de los temas que mayor atención ha concitado en cuanto a la investigación de índole socioambiental. Es un caso específico del cambio en el uso del suelo, cuestión fundamental que requiere atención especial en lo espacial y temporal. De por sí, en el proceso de deforestación se presupone el uso de lo espacial y lo temporal, ya que el cambio de, por ejemplo, bosque a otro tipo de cobertura se da en ecosistemas que ocupan unidades territoriales específicas (paisajes), y surge de la comparación entre dos tiempos concretos (tiempo 0 y tiempo 1).
 
La explicación de este proceso —que tiene importantes consecuencias en la dinámica de los ecosistemas afectados— es de índole social. Sólo en circunstancias muy específicas puede deberse a procesos de cambio no antrópico (a lo largo de dimensiones geológicas, por ejemplo). Es decir, sólo podemos entender la deforestación si analizamos procesos en tiempos distintos, en un territorio, pero debido a procesos que pueden haberse originado en otros espacios, incluso muy alejados de aquél en estudio. El proceso de ganderización en su conjunto responde a iguales causas. Así, lo espacial-temporal es inherente a este proceso de cambio.
 
En la deforestación, como en otros temas similares, la escala de tiempo que nos interesa es la antrópica o agronómica. Es también la que podemos medir, con cierta confianza, utilizando técnicas convencionales con diferentes grados de precisión. En cuanto a lo espacial, poder relacionar las áreas de cambio con los paisajes a los que corresponden, nos permite entender las repercusiones sobre otros componentes del paisaje (el agua, por ejemplo), predecir patrones futuros, e incluso extrapolar conclusiones a otras regiones ecogeográficamente similares.
 
El manejo del recurso forestal y su cambio en tiempo, puede empezar con la descripción de la zona ecogeográfica (por ejemplo, bosque templado en terrenos volcánicos a nivel regional: la meseta tarasca), para luego describir la problemática a nivel de un municipio o comunidad, y finalmente estudiar el aprovechamiento de bosque en una parcela. El primer nivel requeriría de imágenes de satélite y mapas al 1:250,000 (donde un cm en el mapa representa 2.5 km en la realidad); el segundo de fotos aéreas y mapas al 1:50,000 (donde la relación es de 1 cm a 500 m); finalmente, el tercero requeriría de un plano detallado, con levantamiento topográfico sobre el terreno (1 cm igual a 10 ó 20 m). Este tratamiento puede hacerse doblemente complejo analizando, además, los cambios de la cobertura forestal en el tiempo. En estos casos el uso de sistemas computarizados es casi imprescindible.
 
Consideraciones finales
 
Quedan planteados algunos temas centrales en torno a la cuestión socio-ambiental y sus escalas espacial y temporal. Las herramientas e instrumentos para las mediciones requeridas están bien establecidos técnicamente. Existen diferentes métodos para representar y medir cambios en el tiempo y el espacio. El problema central es más bien qué variables medir, con qué resolución y cuál es la precisión esperable. Ello condicionará las conclusiones que puedan derivarse de los estudios de monitoreo en espacios y tiempos concretos, y la alimentación de modelos relacionados con los cambios planetarios y sus implicaciones en espacios regionales, a corto y mediano plazos.
 
Este artículo se basa en una ponencia presentada ante el Diplomado “Problemáticas ambientales desde la perspectiva del género”, dentro del curso-seminario “La dimensión humana del cambio ambiental global desde la perspectiva del género”. Se agradece la invitación de la maestra María Fernanda Paz para participar en el diplomado.Chivi51

 

 
Referencias bibliográficas
 
Bak, P. 1996. How Nature Works. The Science of Self-Organized Criticality. Springer-Verlag. Nueva York.
Bocco, G., R. Sánchez y H.Riemann (1993). “Evaluación del impacto de las inundaciones en Tijuana” (enero 1993). Uso integrado de percepción remota y sistemas de información geográfica. Revista Frontera Norte. 10(5):53-83.
Brown, J.R. y N.D. MacLeod. 1996. “Integrating Ecology into Natural Resource Management Policy”. Environmental Management. 20(3):289-296.
Funtowicz, S.O. y J.R. Ravetz (1991). “A new scientific methodology for global environmental issues”. En R. Constanza (ed.). Ecological Economics:137-152. Columbia University Press. Nueva York.
Goudie, A. 1994. The Human Impact on the Natural Environment. The MIT Press. Cambridge, Mass.
Huggett, R.J. 1995. Geoecology. An Evolutionary Approach. Routledge. Londres.
Joly, A. 1988. La cartografía. Oikos-Tau. Barcelona.
Leff, E. y J. Carabias (coord.). 1993. Cultura y manejo sustentable de los recursos naturales. Centro de Investigaciones Interdisciplinarias en Humanidades. UNAM. México.
Levin, S.A. 1993. “Science and sustainability”. Ecological Applications. 3(4).
Lira, J. 1987. La percepción remota: nuestros ojos desde el espacio. FCE. México.
Ludwig, D., R. Hilborn y Carl Walters. 1993. “Uncertainty, resource explotation and conservation: lessons from history”. Science. 260:17, 36.
Paz, M.F. (coord.). 1995. De bosques y gente. Aspectos sociales de la deforestación en América Latina. Centro Regional de Investigaciones Multidisciplinarias. UNAM. Cuernavaca.
Toledo, V.M. 1989. Naturaleza, producción, cultura. Ensayos de ecología política. Universidad Veracruzana. Xalapa.
Gerardo Bocco
Instituto de Ecología,
Universidad Nacional Autónoma de México (Unidad Académica Morelia)
_______________________________________________________________
como citar este artículo
Bocco, Gerardo. (1998). Naturaleza y sociedad. Escalas de espacio y tiempo. Ciencias 51, julio-septiembre, 54-59. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Predecir el clima es una cosa, predecirlo correctamente es otra  
Pedro Miramontes Vidal
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Edward Lorenz es profesor de meteorología en el prestigiado Instituto de Tecnología de Massachusetts. La suya es una profesión de presiones y burlas. La navegación marítima, el tráfico aéreo, la agricultura y muchas actividades de gran importancia económica en las sociedades modernas, en buena medida dependen de la confianza que se pueda tener en los reportes del clima. Y eso genera presiones intensas para que los meteorólogos predigan y lo hagan bien.
 
En su excelente libro The Essence of Chaos, cuenta Lorenz que uno de sus sueños más anhelados es que alguien (de preferencia un periodista) le pregunte:
 
 
—¿Por qué no hacen ustedes mejores previsiones del clima?
 
 
 
Para poder responderle
 
 
 
—¿Y por qué deberíamos hacerlas? Es más, ¿por qué tendríamos que albergar esperanzas con respecto a la posibilidad de prever, aunque fuera parcialmente, el futuro?
 
La humanidad lo ha hecho desde tiempos lejanos: Delfos, Dodona, Tebas, Delos, son unos cuantos de los santuarios otrora dedicados a otear el porvenir. Los oráculos eran parte importante de la vida cotidiana, y consulta obligada ante sucesos extraordinarios. Reyes y gobernantes helénicos comparecían ante la Pitoni sa de Delfos; los emperadores romanos lo hacían ante Fortuna Primigenia, en lo que ahora es la ciudad italiana de Palestrina.
 
No es necesario retroceder tanto en el pasado. Hace unos pocos años, durante el paso de Ronald Reagan por la presidencia de Estados Unidos, en la Casa Blanca había una astróloga de planta; en tiempos recientes, en México, tanto policías como ladrones (que suelen ser los mismos) han sido clientes asiduos de La Paca o de sus colegas.
 
 
El notable profeta hebreo Jeremías sostenía que no hablaba por sí mismo, sino que era vehículo de una fuerza divina, y —muy acorde con la tradición judía— se especializó en predecir calamidades y desgracias como castigo por el desapego de su pueblo a los mandatos de Jehová.
 
 
Casandra también obtuvo el don de la profecía directamente de un dios. Fue Apolo quien, a cambio de la promesa de obtener sus favores amorosos, le otorgó la facultad de mirar en el futuro. Una vez que la tuvo, se negó a cumplir su parte del trato y Apolo se vengó condenándola a que sus predicciones —infortunios, por lo general— nunca fueran creídas.
 
Artemidoro Daldiano escribió en el siglo II de nuestra era un tratado de clarividencia a través del onirismo; su oneirocritica (el tratado de los sueños) allanó el camino para que en el siglo xx otro adivinador genial, Sigmund Freud, nos embelesara con sus tratados modernos de vaticinio.
 
Después de un matrimonio afortunado con una viuda rica, Mahoma pudo dedicarse a la cavilación contemplativa, y a los 40 años de edad fue objeto de la revelación divina por medio de una aparición del arcángel Gabriel. Sus profecías eran en buena parte preceptos morales y estaban dirigidas a proporcionar los fundamentos éticos de una religión que hoy transita por su edad media.
 
En el siglo xvi Nostradamus sentó las bases de la profecía como oficio moderno, al emitir designios que si se cumplían eran aclamados; de lo contrario, se alegaba que “estaban aún por venir”. Tiempo después, Guiseppe Cagliostro ganó el favor de la nobleza francesa por su ingenio de mago, profeta y vidente, virtudes que no le fueron suficientes para predecir la muerte en la guillotina de sus clientes.
 
Pero quizá el designio que ha tenido la más grande influencia en la cultura occidental y que ha cambiado radicalmente la vida de una mayor cantidad de gente es el referido al día del Juicio Final. La religión cristiana enseña que en esa fecha ocurrirá el segundo advenimiento de Jesucristo. Será el último de nuestro mundo; Dios juzgará a sus enemigos, los muertos resucitarán, cada alma será ponderada, los justos serán separados de los malvados y la furia de un Dios Padre colérico e iracundo caerá sobre ellos.1
 
¿Para cuándo se vaticina ese día? Ésta es una de las preguntas más interesantes en la historia de la cristiandad. Según el Libro de las Revelaciones2, la fecha fatal vendrá exactamente siete mil años después de la creación del mundo pues, afirman, Dios fabricó al mundo en seis días y descansó el séptimo. Y dado que su tiempo no es el nuestro “No ignoréis esto que os digo: que un día es para el Señor como mil años y que mil años son su día” (Pedro 3:8).
 
El fin del mundo ocurrirá a la medianoche del último día de una semana de Dios, siete mil años nuestros. Esto implica que para conocer con precisión la fecha del fin del mundo, lo único que se necesita es saber cuándo exactamente fue el principio3 y sumarle siete milenios.
 
Esta tarea ha sido y seguirá siendo emprendida por mucha gente: Sexto Julio Africano (180-250) anunció que el cataclismo sería en el año 500 de nuestra era. Como resulta evidente, le fallaron las cuentas y su revés estimuló a otros a probar suerte. Entre ese cúmulo destaca el monje francés Radulfo Glaber, quien determinó que la fecha fatídica sin lugar a dudas era el año 1000. A diferencia del Africano, Glaber estuvo vivo para soportar la vergüenza de su fracaso, que no fue lo suficientemente grande para inhibirlo e impedir que lo intentase de nuevo. Esta vez alegó que el verdadero fin del mundo vendría en el 1033, el milenio de la pasión de Cristo. Sus fiascos tuvieron como feliz e involuntaria consecuencia el incremento del patrimonio artístico de la humanidad, pues los fieles —agradecidos de no haber sido testigos del día del Juicio Final— se dieron a la explosiva construcción de iglesias góticas por toda Europa.
 
Tiempo después, el arzobispo anglicano primado de Irlanda4, monseñor James Ussher (1561-1656), anunció con absoluta precisión el momento exacto de la creación: las 12:00 horas del 23 de octubre del 4004 antes de Cristo, ni un minuto más ni un minuto menos. Si le sumamos siete mil años a esta fecha para saber cuándo este mundo pecador dejará de existir, ¡resulta que la catástrofe ocurrió el 23 de octubre de 1997 y no nos dimos cuenta!
 
La primera plana del diario La Jornada del 24 de octubre consigna en sus titulares: Caída de 4.5% en la Bolsa, el peso retrocede. ¿Será que Dios usó el índice de valores de la Bolsa como balanza para separar justos de pecadores?
 
Predecir o no predecir...
 
Augures, adivinos, profetas, quirománticos, teólogos, políticos y todo un ejército de profesionales de la adivinación han extasiado a la humanidad durante siglos, y por lo que se ve ninguno ha acertado en sus vaticinios. ¿Por qué diablos los meteorólogos lo han de hacer?
 
—“Porque son científicos y la ciencia predice” —responderían a coro positivistas, empiricistas, estadísticos y seguidores del Círculo de Viena.
 
—“Nada de eso” —exclamaría Karl Popper (1902-1994), filósofo inglés que se inscribió en la escuela del indeterminismo metafísico. —“Pensar que si se tiene el suficiente conocimiento de la física y de la química, usted podría predecir lo que Mozart escribiría mañana, es una hipótesis ridícula.”
 
—“Predecir no es explicar...”, terciaría René Thom.
 
¿Quién tiene la razón? A mi juicio, la discusión sobre el posible papel predictivo de la ciencia es estéril. En todo caso, primero habría que alcanzar un acuerdo sobre qué quiere decir exactamente “predecir”. El determinismo es un concepto importante por la relación que guarda con la noción de predictibilidad. La Enciclopedia Británica define claramente: “Determinismo. Teoría de que todos los eventos, incluyendo las elecciones morales, son totalmente determinados por causas preexistentes. Esta teoría afirma que el universo es completamente racional, puesto que el conocimiento total de una situación dada asegura el conocimiento inequívoco de su futuro.”
 
Si un esquema es predecible, entonces tiene que ser necesariamente determinístico, mientras que lo contrario no es cierto. Diversos autores hacen la distinción entre lo que es la predicción y la predicción estadística. En este ensayo concibo a la primera en el sentido del determinismo laplaciano y no voy a referirme a la segunda (para mí, la afirmación: “la probabilidad de que en el próximo volado caiga águila es del 50 por ciento”, definitivamente, no predice cosa alguna).
 
 
Coincido con la frase de Thom. Desde mi punto de vista, el papel principal de la ciencia es explicar. Si su tarea fuese predecir estaría en un grave aprieto, pues parece ser que los sistemas de la naturaleza que constan de varios elementos interactuantes entre sí de manera no lineal son intrínsecamente impredecibles. Para elaborar esta afirmación tendremos que revisar algunos conceptos clásicos y presentar al protagonista de este ensayo: el Caos.
 
Caos ¿de dónde viene la palabra?
 
En 1580 nació Jan Baptista van Helmont en Bruselas, ciudad que en ese entonces formaba parte de los Países Bajos españoles. Van Helmont descubrió que existen otros gases además del aire, y demostró que los vapores emitidos por combustión de carbón eran los mismos que se producían al fermentar el jugo de las uvas (bióxido de carbono). Fue él quien inventó la palabra “gas” a partir de la voz griega χαοσ(caos).
 
 
Si pensamos por un momento que el fenómeno que estamos estudiando obedece una función periódica, entonces basta con conocer el perfil de la función en uno de sus periodos para poder predecir infinitamente tanto al futuro como el pasado. Si esa función tuviese el doble de información para mantener nuestra capacidad de predicción infinita, si el periodo fuese diez mil, diez mil veces sería la información original. ¿Y si el periodo fuese infinito? Pues requeriríamos una información infinita, o lo que es lo mismo, en este caso la predicción sería imposible.

 
¿Por qué eligió ese término y no otro? Van Helmont era individuo cultivado y con buena educación5, y aprovechó un vocablo griego cuyos varios significados se pueden asociar con las propiedades de un gas.
 
Si nos ubicamos en una época en la que posiblemente era un poco difícil concebir la existencia de algo que no se pudiese ver o tocar, podremos comprender porqué la elección cayó sobre un término que, entre sus múltiples acepciones6, tiene las siguientes: primer estado del universo; materia amorfa; extensión o envergadura del universo; abismo inferior; oscuridad infinita, y oquedad o abismo muy vasto7. Para los antiguos griegos el abismo aludido es el Tártaro, el inframundo, aún más bajo que el Hades, en donde pululaban las almas de los difuntos.
 
El sentido moderno que tiene la palabra caos —como sinónimo de desconcierto, confusión, embrollo, lío, etcétera— fue forjado por Publio Ovidio Nasón (43 ac-17 dC) en sus Metamorfosis, un enorme poema en versos hexámetros que es una colección de mitos y leyendas. Las historias se desenvuelven en orden cronológico; la primera y la última se refieren a la creación del orden a partir del caos. La primera metamorfosis es la transición de un universo amorfo y desordenado a uno ordenado: el Cosmos8. La última metamorfosis, la culminante, es la muerte y deificación de Julio César; la transformación del caos de las guerras civiles romanas en una paz brillante y magnífica: la paz augusta.
 
Los antecedentes
 
Galileo sentó las bases de la ciencia moderna al matematizar algunos fenómenos de la mecánica; él es uno de los “gigantes” en los cuales se apoyó Newton para concebir y producir su obra magnífica, tanto que una vez complementada por pensadores de la talla de los Bernoulli, Laguerre y Laplace, nos heredó una visión de un universo completamente racional y en el que, cual mecanismo de relojería, el conocimiento de la reglas de funcionamiento y de las condiciones en un instante dado, nos garantizan el conocimiento inequívoco de todo el futuro.
 
 
La teoría newtoniana se ganó el respeto y la admiración de todos cuando Halley, en 1705, pudo predecir con gran exactitud el retorno del cometa que ahora lleva su nombre. La posibilidad de predecir los eventos futuros generó un gran entusiasmo que fue formulado por Pierre Simon, Marqués de Laplace (1749-1827)9 y que coincide conceptualmente con el bello canto del poeta persa Omar Jayam (1048-1131) refiriéndose al Creador: “Y la primera mañana de la creación escribió lo que se leería en la cuenta final del último día”.
 
Curiosamente, también fue Laplace uno de los fundadores de la teoría de las probabilidades, aunque el azar para él era una medida del desconocimiento o ignorancia humana de las condiciones de un sistema. A partir del tiempo de Laplace, los fenómenos naturales que cambian al transcurrir el tiempo se encajonaban en dos clases: los llamados sistemas determinísticos —cuyo estado presente determina de manera unívoca y predecible su estado futuro— y los aleatorios, en los cuales el estado futuro puede ser cualquiera y no se puede predecir sino a la luz de una distribución de probabilidad.
 
Hasta tiempos recientes, esta dicotomía ha sido guía de trabajo de la gran mayoría de los científicos; el escenario estaba perfectamente claro: los fenómenos son determinísticos y, en ese caso, predecibles; la única barrera para conocer el futuro es nuestro grado de conocimiento (o ignorancia) de las condiciones iniciales y de las ecuaciones dinámicas del sistema. O bien, son azarosos y tenemos que conformarnos con conocer sus propiedades probabilísticas y renunciar al sueño de la predicción.
 
En pocas palabras: un universo como maquinaria perfecta de relojería, como una película en la cual aunque no hayamos visto los cuadros futuros ya están ahí, esperando que llegue el momento de ser proyectados. O un universo en el que Dios decide todos los detalles y, por lo tanto, es inaccesible al conocimiento humano, dado que Dios es una metapresencia, y entonces para los humanos el transcurso de la historia es ciego y azaroso.
 
Newton resolvió el problema de dos cuerpos afectándose mutuamente debido a su atracción gravitacional: cada uno de ellos viaja en una órbita elíptica en torno al centro de masa común, y el comportamiento es periódico y predecible por siempre. De esta manera se podría concluir que la Tierra girará alrededor del Sol por los siglos de los siglos y que este sistema es completamente estable. Sin embargo, el problema es que la Tierra y el Sol no son los únicos cuerpos del sistema solar, pues se hallan acompañados de otros planetas con sus respectivas lunas.
 
Una serie de notables matemáticos —vale la pena mencionar a Félix Delaunay (1845-1896)— se dieron a la tarea de avanzar un escalón más, resolviendo el problema de tres cuerpos; para estimular estos esfuerzos, en 1887 el rey de Suecia ofreció un premio de 2 mil 500 coronas a quien demostrase que el sistema solar es estable.
 
Henri Poincaré se llevó el premio con su trabajo Acerca del problema de los tres cuerpos y de las ecuaciones de la dinámica. En el camino no sólo desarrolló técnicas matemáticas muy poderosas —la teoría de las expansiones asintóticas y el estudio de ecuaciones diferenciales con singularidades–, sino que inventó la topología, una nueva rama de la matemática que la revolucionó por completo. Sin embargo, su solución sólo es parcialmente correcta.
 
Poincaré trabajó el modelo reducido de Hill. En este modelo se supone que el tercer cuerpo es demasiado pequeño con respecto a los otros dos, y que su existencia no los afecta (pero la de ellos sí afecta al pequeño). Bajo estas premisas, ya sabemos que los dos cuerpos grandes se moverán en órbitas elípticas y, por lo tanto, su movimiento es periódico (ver recuadro página opuesta) y, por ende, estable y predecible.
 
Poincaré se esforzó por demostrar que el movimiento del cuerpo pequeño era también periódico, pero lo que encontró lo llenó de asombro: “...Se queda uno tan pasmado ante la complejidad de esta figura, que ni siquiera intentaré dibujarla...”10
 
El tercer cuerpo seguía una trayectoria aperiódica, irregular e impredecible, pese a estar sujeta a leyes determinísticas. El pasmo no era para menos: Poincaré se encontró de frente con un comportamiento dinámico que desafiaba todo lo que los matemáticos y físicos habían creído hasta ese momento; algo que parecía una criatura mitológica, una mezcla inconcebible de orden con desorden, de determinismo con aleatoriedad, de armonía y confusión. Ese monstruo se llama Caos, y aunque Poincaré lo tuvo en sus manos, no pudo identificarlo cabalmente ni aprovechar todas sus consecuencias científicas y filosóficas. Era un descubrimiento prematuro para su tiempo; por eso Poincaré no pudo —pese a ser un gran filósofo de la ciencia— evaluar su magnitud. No obstante, se dio perfecta cuenta de que la mecánica clásica ya no sería la misma: “...Sucede que pequeñas diferencias en los estados iniciales producen diferencias enormes en el estado final. Un pequeño error en los primeros se traduce en un error enorme en el último. La predicción se vuelve imposible, y entonces decimos que tenemos un fenómeno azaroso.”
 
El mérito de Poincaré es indiscutible; con la invención de la topología abrió un camino alternativo ante el desarrollo exclusivamente analítico del estudio de los sistemas dinámicos que había impulsado Laplace, y devolvió la mecánica a su cuna: la geometría. No estaría de más que los topólogos contemporáneos recordasen que su disciplina —considerada entre las más abstractas— nació de la física.
 
El trabajo de Poincaré fue continuado por una gran serie de luminarias. Desgraciadamente sería imposible contar aquí la historia con detalle. Reconociendo que faltan más que los que están, quiero mencionar al menos a Birkoff, Kolmogorov, Sinaí, Arnold y Smale.
 
El mismo Lorenz
 
En 1963 apareció un artículo titulado “Deterministic Nonperiodic Flow” en The Journal of Atmospheric Sciences, firmado por Edward Lorenz. Hace 35 años éste tuvo la misma visión que Poincaré, pero él sí se percató de la magnitud de su (re)descubrimiento. Veamos algo del resumen del artículo: “...Estados iniciales pueden dar lugar a estados que difieren considerablemente... Todas las soluciones encontradas son inestables y casi todas son aperiódicas... La viabilidad de la predicción climática a largo plazo se discute a la luz de estos resultados.”
 
¿De qué soluciones está hablando? Lorenz describió un sistema de tres ecuaciones diferenciales de primer orden, ordinarias, acopladas y no-lineales, para modelar la convección térmica en la atmósfera. El análisis del sistema lineal asociado en las vecindades de los puntos críticos11 no le proporcionó ningún resultado interesante, pero una vez que puso a su computadora a calcular una solución numérica usando valores cercanos a un punto que el análisis lineal clasificaba como inestable, obtuvo resultados sorprendentes.
 
¡Dos corridas del mismo programa, con los mismos parámetros le daban soluciones distintas!
¿El fin del determinismo? ¡No! ¡Una nueva faceta del determinismo!
 
Descubrió que las dos corridas mencionadas del mismo programa diferían en el número de dígitos decimales en el estado inicial de una variable.
 
Según James Gleick12, “de repente se dio cuenta de lo que había sucedido. No había errores en las cifras que había escrito. En la memoria de la computadora se había guardado la cifra 0.506127 y Lorenz, al día siguiente, para ahorrar tiempo escribió 0.506. Lorenz pensó que la diferencia —una parte en diez mil— no tendría consecuencias”.
 
Lorenz había descubierto el llamado efecto mariposa: una pequeñísima perturbación —el aleteo de una mariposa en el Amazonas— podría desencadenar un efecto mayúsculo —un tornado en Texas. Este efecto es el que menciona en el resumen de su artículo, y es lo que ahora se conoce técnicamente como la sensibilidad de un sistema a sus condiciones iniciales.
 
Esta es una de las características más interesantes del caos; una causa pequeña puede producir efectos enormes; las fluctuaciones se amplifican de manera que el resultado de una perturbación no guarda proporción con la magnitud de ella. ¡Esta es la esencia misma de la no linealidad!
 
Imaginemos ahora que un movimiento insignificante del aire modificó en décimas de milímetro el vuelo de una abeja en el pleistoceno temprano; que gracias a eso la abeja no se vio atrapada en una tela de araña y sobrevivió para fecundar una flor. Que la flor dio lugar a un fruto y que éste cayó del árbol justo en el momento que un homínido pasaba; éste lo tomó y se lo ofreció a una homínida que pasaba; ella se sintió obligada a agradecerle de alguna forma y si no hubiera sido por ello, la humanidad no se hubiera originado jamás. Si la abeja hubiera muerto, la humanidad no existiría... ¡Caray!
 
Este cuento ilustra las nociones de amplificación de las fluctuaciones y de la sensibilidad ante condiciones iniciales, pero no debe tomarse demasiado a la letra; la humanidad hubiera surgido de cualquier modo. Esto se debe a que el caos no es únicamente la sensibilidad ante las condiciones iniciales. Los sistemas caóticos tienen otro rasgo importante que, por falta de espacio, no nos será posible explorar aquí: la existencia de atractores extraños. Con esta noción se entiende por qué los sistemas dinámicos son robustos ante contingencias históricas.
 
Resumamos. Lorenz encontró que un sistema determinístico puede producir resultados aperiódicos e impredecibles, esa paradoja que relaciona dos comportamientos considerados hasta ese momento como incompatibles: determinismo y azar, se llama ahora Caos determinístico. Antes se pensaba que el azar surgía como resultado de nuestra ignorancia acerca de la totalidad de causas que se involucran en la evolución de un sistema; en pocas palabras, que el mundo era impredecible por ser complicado.
 
Recientemente se ha descubierto una serie de sistemas que se comportan de manera impredecible, pese a que las causas que los gobiernan son completamente conocidas, y a que son relativamente simples. Tales sistemas tiene en común la no linealidad y exhiben sensibilidad en las condiciones iniciales.
 
Por ser más complicados que sus contrapartes lineales, los sistemas no lineales habían sido poco estudiados; por lo tanto, la ubicuidad del caos no se había detectado. En su candor, los físicos estaban convencidos de que la predictibilidad era una consecuencia natural de una estructura teórica correctamente establecida, que dadas las ecuaciones de un sistema, únicamente restaría hacer las cuentas para saber cómo se va a comportar.
 
La historia reciente
 
En el medio matemático se atribuye a T.Y. Li y J.A. Yorke la acuñación del término caos para referirse al comportamiento determínistico, pero irregular y aperiódico. En su celebrado artículo “Period Three Implies Chaos” publicado en 1975, en el American Mathematical Monthly, demostraron que si un mapeo continuo de un intervalo a la recta real tiene un punto de periodo tres, entonces ese mapeo exhibe comportamiento caótico. A su vez, Yorke opina que R. May y G. Oster fueron “…los primeros en comprender cabalmente la dinámica caótica de una función de un intervalo en sí mismo”.
 
Es posible que Yorke haya acuñado el término, pero el primer artículo en donde yo pude encontrar en su título la palabra caos fue en el de R. May: “Biological Populations with Nonoverlapping Generations: Stable Points, Stable Cycles and Chaos”, publicado en 1974 en Science, que antecede al de Li y Yorke en un año. La afirmación de Yorke acerca de la primicia en comprender la dinámica de los mapeos unidimensionales es llanamente falsa: en 1964, el matemático soviético A.N. Sharkovsky publicó en la revista ucraniana de matemáticas Ukrainskii Matematicheskii Zhurnal un artículo llamado “Coexistencia de ciclos de un mapeo continuo de la línea en sí misma”, en el cual presenta de manera rigurosa y perfectamente bien fundamentada lo que May y Oster tardaron una década en comprender (Robert May reconoce que desconocía el trabajo de Sharkovsky). De paso, se debe mencionar que el resultado de Li y Yorke es un caso muy particular del teorema de Sharkovsky.
 
 
En 1982, el académico Sharkovsky y yo paseábamos por las ruinas de Xochicalco; yo intentaba explicarle lo que significaba Quetzalcóatl y él me miraba condescendientemente y me decía que ya lo sabía, que en Europa también había dragones. Temas recurrentes durante el paseo fueron la injusticia que Sharkovsky sentía por la apropiación de Yorke del crédito que a él le correspondía, y su disgusto con Guillermo Gómez —de la Facultad de Ciencias de la unam— por haberlo hecho trabajar demasiado sin respetar su edad venerable durante esa misma visita a México.
 
Conclusiones
 
El caos ya es un concepto que ha ganado su legitimidad en la ciencia. Resulta imposible hacer una lista de quienes han contribuido a su fundamentación teórica y a sus aplicaciones en las más diversas áreas del conocimiento. El caos ya existe como especialidad científica por derecho propio, y la mayoría de las universidades e institutos de investigación científica del mundo han abierto centros o departamentos de las disciplinas que explotan y desarrollan el concepto de caos: la dinámica no-lineal y la teoría de los sistemas complejos.
 
El avance de las ideas asociadas con el caos no ha sido fácil: en sus inicios se topó con la resistencia frontal de los científicos del establishment; aún hoy existe oposición y escepticismo en ciertos grupos conservadores a aceptar la ubicuidad de los comportamientos no-lineales en la naturaleza, y al caos como su consecuencia genérica.
 
También es preciso reconocer que ha surgido toda clase de charlatanes quienes han encontrado en este lenguaje novedoso una fuente inagotable de ideas para nutrir modas tipo new age, ecomísticas y esotéricas. Esto no debe constituir una fuente de preocupación: no hay revolución científica que no le resulte atractiva a multitud de oportunistas que intentan justificar sus ideas apoyándose en su muy particular interpretación de leyes naturales o hipótesis científicas. Recordemos el uso indebido, y muchas veces criminal, que ha tenido la teoría de evolución por selección natural por parte de eugenésicos, políticos y, más recientemente, algunos sociobiólogos y psicodarwinistas.
 
Hay definiciones formales del caos y los conceptos que se derivan de él. El lector interesado puede consultar algún texto de sistemas dinámicos13, pero creo que toda teoría científica requiere sus metáforas propias y que, gracias a éstas, cualquier persona podrá darse una idea de la teoría más complicada. En el caso de la teoría del caos, les propongo la de Germinal Cocho, del Instituto de Física de la unam: “El caos es un desmadre armónico”.
 
Esta caracterización me es particularmente grata, no sólo porque Germi es mi maestro —y lo ha sido de generaciones de matemáticos, físicos y biólogos en México—, sino porque es la más fácil de ver. Recuerde usted la mejor fiesta que haya tenido en su vida; la más divertida, en la que más ha gozado; una fiesta en la que se haya bailado y cantado hasta el cansancio. Yo le puedo apostar lo que quiera que no fue una fiesta en la que alguien pretendió que fuera completamente ordenada: todo el mundo bailando ordenada y disciplinadamente “la Macarena” o alguna canción de Bronco en perfecta formación, o cantando partitura en mano bajo la dirección de un espontáneo director de coro. Tampoco fue una fiesta en la cual cada quien, de manera individual, estuvo cantando y bailando simultáneamente canciones y ritmos distintos. Seguramente fue un guateque con la dosis precisa de coherencia y despapaye para hacerla memorable y divertida; es decir, caótica.
 
Karl Popper murió sin comprender —pese a que se jactaba, sin fundamento, de ser su descubridor— lo que es el caos. Si hubiera tenido tiempo para hacerlo, probablemente nunca hubiera afirmado lo que yo cité antes; ahora sabemos que el perfecto conocimiento de las leyes de la física y la química no garantizan el poder de predecir. De hecho, sistemas físicos tan simples como un péndulo en el cual la masa se sustituye por un doble brazo con capacidad de giro, para los cuales se conocen perfectamente sus leyes, son igual o más impredecibles que una ruleta. También da muerte al indeterminismo metafísico y al determinismo laplaciano: el caos determínistico es una síntesis dialéctica de ellos.
 
Para poder hacer predicciones en un sistema caótico sería necesario conocer con infinita precisión las condiciones iniciales de un sistema; es imposible, pues implica una cantidad infinita de información. Esto nos obliga a modificar la idea que tenemos acerca de la definición misma de ciencia, pues una de las premisas más aceptadas de lo que constituye el trabajo científico es que el resultado de un experimento sea reproducible. Ello no es posible en sistemas caóticos. La idea de la reproducibilidad como condición para que algo sea científico o no, tendrá que modificarse; será necesaria una etapa de reflexión y asimilación de todas las consecuencias que trae consigo el concepto de caos. Posiblemente será necesario rescatar las definiciones de ciencia que no la hacen depender del trabajo experimental; habrá que releer las propuestas de P.K. Feyerabend, cuando sugiere una ciencia sin experiencia. No lo sé, pero las cosas tendrán que cambiar.
 
Sin embargo, los meteorólogos no tienen por qué abandonar su trabajo. Dado que es posible conocer con precisión limitada las condiciones iniciales, también lo es hacer predicciones limitadas del futuro de un sistema. Se habla, entonces, del horizonte de predictibilidad de algún fenómeno o modelo.
 
Un sistema azaroso tiene un horizonte nulo de predictibilidad; el sueño de Laplace es un horizonte infinito. Los sistemas caóticos tienen horizontes de magnitudes que dependen de parámetros intrínsecos del fenómeno o modelo, y de la escala temporal de los mismos.
Por ejemplo: el sistema solar es inestable y caótico, pero el que un planeta de repente se fugue de su órbita y se pierda en el universo es perfectamente factible. Sin embargo, el horizonte de predictibilidad del sistema solar se estima en unos 20 millones de años, por lo que no debemos preocuparnos demasiado de que la Tierra se vaya a buscar otra estrella.
 
En el caso de la meteorología, se calcula que el horizonte de predictibilidad es de cuatro a siete días, y esto no depende de los métodos y computadoras empleados en hacer las cuentas. Durante algún tiempo se pensó que con el desarrollo de una vasta red de satélites que proveyeran información de alta calidad, sumado al progreso innegable de computadoras cada vez más poderosas, se podría extender ilimitadamente el horizonte de predictibilidad climática. Esta es otra ilusión perdida. En una visita que Ian Steward hizo al European Medium-Range Weather Forecasting Centre, le dijeron: “Podemos predecir el clima con precisión, siempre y cuando no ocurran cosas inesperadas”.
 
Colofón
 
Tengo que confesar que dejé para el final una buena parte de la historia remota: Antes de que Ovidio le confiriera al caos su sinonimia con desorden y anarquía, un escritor griego, Hesíodo, quien nació en Boecia en el siglo VIII antes de nuestra era, le legó a la humanidad la recopilación más ambiciosa y completa que existe de la mitología griega. En ella aprendemos, como lo referí arriba, que Caos fue el estado primigenio del universo.
 
Lo que no mencioné es que Caos es padre de Eros y, como todos lo sabemos, Eros —el amor— es la máquina que mueve al mundo.Chivi51
El título del artículo fue tomado de una frase de Ian Steward en su bellísimo y altamente recomendable libro Does God Play Dice? (Penguin Books, 1997).
Referencias bibliográficas
 
1. Para aclarar cualquier duda acerca del temperamento del Señor hay que mirar la escena correspondiente al juicio final en la decoración de la Capilla Sixtina de Miguel Ángel
2. También llamado El Apocalipsis de San Juan. Es el último libro del nuevo testamento, se piensa que fue escrito por varios autores anónimos a finales del siglo I de nuestra era y posteriormente atribuido a Juan, el discípulo favorito de Jesús.
3. Para un recuento a la vez gracioso y crítico de las vicisitudes de este cálculo, se recomienda el reciente libro Questioning the Milennium, de Stephen Jay Gould (Random House, 1997).
4. En el citado libro, Gould hace un divertido juego de palabras con la expresión inglesa The primate of Ireland, que lo mismo significa «el arzobispo primado de Irlanda» que «el simio irlandés».
5. Van Helmont estudió en la prestigiada Universidad Católica de Lovaina y necesariamente tuvo que haber aprendido griego clásico. Se graduó como médico en 1599 y trabajó como profesor de la misma universidad hasta que fue echado del cuerpo profesoral en 1622 por adherirse al trabajo de Phlippus Aureolus Theophrastus Bombastus von Honenheim “Paracelso” (¡que nombre!). En 1625 la Santa Inquisición condenó su obra por considerarla “herética, arrogante, imprudente y luterana”. Fue colocado en arresto conventual en 1634 por la Iglesia Católica y posteriormente fue rehabilitado públicamente en 1652, años después de su muerte, ocurrida en 1644.
6. A Greek-English Lexicon. H.G. Lidell. (Clarendon press, 1996).
7. Es interesante notar que la palabra inglesa para abismo es chasm, que se deriva directamente de caos.
8. La oposición dialéctica entre caos y cosmos es fuente generosa de inspiración: «El mundo, para el europeo, es un cosmos, en el que cada cual íntimamente corresponde a la función que ejerce; para el argentino es un caos». J.L. Borges (1899-1986), “A todo caos le corresponde un cosmos, a todo desorden un orden oculto”. Carl Jung (1875-1961).
9. “Una inteligencia que conociese en un momento dado todas las fuerzas que animan la Naturaleza y también las posiciones de los objetos que la componen, si esta inteligencia fuera capaz de analizar esos datos y condensar en una fórmula el movimiento tanto de los objetos más grandes del universo así como del átomo más modesto, para esta inteligencia, no existiría la incertidumbre, y tanto el futuro como el pasado desfilarían ante sus ojos.”
10. Poincaré no se refería a la forma de la trayectoria de la partícula, sino a una sección de Poincaré del espacio fase. Consultar el libro citado de Ian Steward.
11. Ver Ciencias, abril-junio de 1997, páginas 30-40.
12. James Gleick, Chaos, Penguin Books, 1987.
13. Por ejemplo, ver Deterministic Chaos, de Peter Schuster, Vch Publications, 1995, o bien, First Course in Dynamical Systems, de Robert L. Devaney, Addison-Wesley, 1992.
Pedro Miramontes Vidal
 
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Miramontes Vidal, Pedro. (1998). Predecir el clima es una cosa, predecirlo correctamente es otra. Ciencias 51, julio-septiembre, 4-11. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Virus emergentes: ficción y realidad
 
Fernando Ontiveros Llamás
conoce más del autor

   
 
 
HTML ↓
PDF regresar al índice artículo siguiente
     
Un grave problema en nuestra sociedad es la falta de información, particularmente en cuanto a ciencia. Más allá de la simple ignorancia, los conocimientos falsos o severamente tergiversados toman carácter de verdad conforme pasan de boca en boca o son difundidos en publicaciones de alcances pseudocientíficos. Como es de suponerse, el tema de los virus emergentes no es la excepción, lo que dificulta el efectivo combate de las enfermedades producidas por éstos.
 
Decimos que una enfermedad es emergente si ha sido identificada en fechas recientes —últimos 20 años—, o bien si su incidencia en seres humanos se ha incrementado significativamente en el mismo periodo. Estas enfermedades pueden ser causadas por diferentes agentes como bacterias (cólera), protistas (malaria) o virus (sida).
 
 
En particular, los virus han sido objeto de interés y controversia. La emergencia del Virus de Inmunodeficiencia Humana (vih) y otros potencialmente letales, como los de las fiebres hemorrágicas, han incrementado la inquietud entre virólogos y expertos en enfermedades infecciosas, dando lugar a versiones falsas y en ocasiones alarmistas. ¿Cuál es la realidad?
 
Los virus “nuevos”
 
Llamar “nuevos” a los virus emergentes es un error; éstos no aparecen de repente o de la nada para infectarnos. La mayoría ya existe en la naturaleza y durante mucho tiempo permaneció “escondida” en sus hospederos naturales (roedores, aves, insectos...), hasta que una persona, por alguna razón, entró en contacto con ellos. Con frecuencia las actividades humanas son causantes del desequilibrio ambiental en las zonas más apartadas del globo, lo que implica un importante factor social en la aparición de las enfermedades emergentes.
 
Sabemos que la expansión de la población así como la explotación intensiva y a gran escala de recursos naturales antes no usados, perturban ecosistemas que fueron estables hasta décadas atrás. Las grandes migraciones, la urbanización desenfrenada, las prácticas agrícolas inadecuadas y las deficientes medidas higiénicas favorecen el contacto humano con agentes patógenos desconocidos, que ocupaban áreas limitadas o de difícil acceso. El caso particular de virus como el Guanarito, Machupo y Junin —surgidos en Sudamérica en las décadas más recientes, cuando la gente modificó el ambiente con prácticas agrícolas invasivas— es un buen ejemplo de lo que sucede cuando la relación dinámica y fluctuante entre la gente y su medio se ve rota.
 
Incluso pequeños cambios en el clima puede afectar esta relación. Durante el invierno de 1992-93, la humedad y las fuertes nevadas registradas en Nuevo México provocaron un exceso de alimento para roedores, lo que se reflejó en el aumento del número de ratones reservorios del “sin nombre”, hantavirus de fiebre hemorrágica, que contagiaron a 114 personas, causando la muerte de 58 de ellas.
 
El avance de la biotecnología también ha favorecido la percepción de que las enfermedades virales hoy son más frecuentes, pues las nuevas técnicas permiten reconocer agentes que podrían haber pasado inadvertidos utilizando métodos anteriores. Así, hace poco más de una década no se tenía una prueba para diagnosticar el Hanta; ni qué decir de la total ignorancia acerca de la existencia del vih a principios de los años 80. Actualmente se han puesto a punto diferentes técnicas (elisa, Blot) que facilitan enormemente el diagnóstico temprano y colabo­ran para reconocer el origen de distintos padecimientos.
 
Por otro lado está la publicidad. Virus como los de las fiebres hemorrágicas focalizan la atención, pues son considerados entre los más peligrosos agentes biológicos conocidos, debido a la alta tasa de mortandad que pueden provocar. Entre ellos, los miembros de la familia Filoviridae (filovirus) son los mejores ejemplos de patógenos emergentes, y también de los que menos se sabe.
 
Aquí es conveniente hacer un alto para responder puntualmente a una pregunta que flota en el aire. Además de los avances en las técnicas de diagnóstico, del impacto de la publicidad y del encuentro con virus hasta hace poco desconocidos —producto del desequilibrio ecológico causado por la raza humana— ¿es posible que aparezcan virus totalmente nuevos?
 
Los virus pueden cambiar...
 
Hablamos de entidades altamente desarrolladas, económicas y eficientes, que pueden cambiar a través del tiempo. Estos cambios no implican necesariamente el surgimiento de nuevas especies, sino variaciones dentro de éstas, que pueden dar lugar a cambios en el comportamiento del virus.
 
La continua generación de variantes es la que da lugar a las cuasiespecies víricas. Según Manfred Eigen —premio Nobel de Química 1967—, por cuasiespecie entendemos la distribución de genomas relacionados no idénticos, que constituyen un espectro dinámico de mutantes para una población de virus.
 
Esto significa que en una población de un mismo virus constantemente surgen variantes, debido a mecanismos que explicaremos adelante. Todas estas variantes, diferentes unas de otras, existen en una “nube” alrededor del genoma original, que es el dominante. Normalmente la mayoría de las variantes será mantenida en bajas frecuencias (o eliminada completamente), por selección negativa. Esto pasará mientras el am- biente permanezca sin cambios. Pero si el virus se re­pro­duce en un ambiente diferen­te al que sus genomas “padres” usaban para replicarse, la probabilidad de que nuevas variantes surjan para ser dominantes será mayor. El mutante que responda mejor al cambio se convertirá en dominante y la “nube” de mutantes alrededor del genoma original se desplazará, toman­do como centro al nuevo genoma dominante.
 
Es así como se explica el cambio o “evolución” viral en nuestros días.
 
Ahora bien, los cambios en el genoma viral se pueden dar de diferentes formas. Los virus, especialmente aquellos cuyo material genético es ácido ribonucléico (retrovirus, entre otros), tienen tasas de mutación muy altas. A esto se suma que los virus “viven” a través de muchas generaciones en poco tiempo (hasta 17 en una sola infección). Las pequeñas mutaciones causadas por los errores en la replicación pueden acumularse a través del tiempo y producir nuevos genomas. La mayoría de las veces los errores introducidos a la secuencia serán neutrales o letales para los virus mutados, en cuyo caso son rápidamente borrados del competitivo entorno de la reproducción viral.
 
Así tenemos un catálogo de genomas alterados que capacita a la población de virus —cuasiespecies— para responder rápidamente a las situaciones cambiantes del ambiente.
Como podemos ver, mientras más imperfecta sea la replicación de un virus, mayor será la cantidad de mutaciones que se puedan acumular. Desde luego, esto tiene un límite, pues los errores no deben afectar las partes esenciales del genoma o el resultado será simplemente un conjunto de macromoléculas que jamás formarán una copia viable del virus. Esta imperfección en la replicación es evidente principalmente en los retrovirus, virus de arn que, con la ayuda de una enzima (reversa transcriptasa), transcriben su información genética a adn una vez dentro de la célula huésped. Esta enzima no tiene un mecanismo de reparación de los errores cometidos al copiar, lo cual genera una tasa de mutación muy alta.
 
A las mutaciones se deben sumar los eventos de recombinación. Algunos tipos de virus pueden portar secuencias genómicas de dos tipos de “padres”. Otros pueden recombinar sus genes al momento de la replicación y hasta adquirir genes de la célula huésped.
 
Pero el evento quizá más impactante es el rearreglo (reassortment). De un rearreglo viral resulta una nueva progenie de virus, formada por la asociación y envoltura de segmentos de genoma de virus diferentes durante la infección mixta de una célula por virus de arn (de doble cadena).
 
Esto quiere decir que al infectar al mismo tiempo dos virus diferentes una misma célula, fragmentos del genoma de cada uno forman un nuevo genoma, que a su vez dará lugar a un virus diferente. En particular, los genomas de doble cadena de arn muestran una cierta frecuencia de rearreglo. Como es de esperar, muchas veces resultan entidades no viables, que son eliminadas. Pero a veces funciona. Se cree que ésta es la base de los dramáticos cambios antigénicos en el virus de la influenza, que hace unos 60 años provocara una mortal pandemia.
 
Estos mecanismos pueden propiciar el surgimiento de poblaciones de virus potencialmente patógenos. Sin embargo, debemos señalar que dichos eventos son, hasta donde sabemos, azarosos y se dan con baja frecuencia en la naturaleza.
 
Virus y ficción
 
El profundo miedo del ser humano a las enfermedades desconocidas y mortales ha sido explotado no sólo por gobiernos en conflicto y grupos terroristas, sino por la industria del entretenimiento, colaborando a la psicosis general.
 
Desde novelas como La amenaza de Andrómeda de M. Crichton, La plaga que viene de L. Garret, Zona caliente de Preston, y la película Epidemia de W. Petersen, el tema de los virus se ha hecho del dominio popular. Se habla de manipulaciones genéticas y creación de virus letales para ser utilizados como armas biológicas que destruyen al mundo. En los medios de información se maneja que un país pobre y atrasado podría preparar virus capaces de destruir las cosechas, desatar hambrunas y epidemias.
 
Mientras la influenza mata 20 mil personas al año sólo en Estados Unidos, y en América Latina se dan más de 150 mil casos de hepatitis B al año, algunos únicamente se preocupan por virus asesinos ficticios y desconocen cómo protegerse de los reales.
 
¿Pueden los científicos crear virus mortíferos? Algunos investigadores piensan que se pueden hacer “muchas cosas” con las técnicas y herramientas disponibles.
 
Es cierto que hay trabajos experimentales “secretos”, de los cuales probablemente nunca llegaremos a saber. Y también es verdad que en diferentes partes del mundo existen intereses en el desarrollo de armas biológicas. Sabemos que integrantes de “Verdad Suprema” —el grupo responsable del ataque con gas sarin al metro de Tokio— visitaron instalaciones médicas en Zaire, donde se atendieron casos de ébola en octubre de 1992; se presume que su objetivo era obtener muestras del virus para utilizarlo más tarde en algún atentado.
 
Quienes han investigado a fondo el desarrollo de armas biológicas, saben que el peligro reside en el uso de agentes virales ya conocidos, no en la creación de nuevas cepas.
 
En la actualidad es fácil llevar a cabo rearreglos de virus en el laboratorio; incluso esta técnica se usa frecuentemente para el mapeo de caracteres. Pero de eso a “crear” virus nuevos y letales hay gran diferencia. En palabras de una viróloga: “No se trata sólo de ‘pegar’ genes virulentos y tratar de infectar a una célula. Las combinaciones raras pueden dar lugar a virus incapaces de replicarse. Los virus son máquinas exquisitamente autorregulables y adaptadas a ciertos tipos celulares. La preocupación actual no debe ser la probabilidad de que alguien prepare un bicho que acabe con la especie humana, sino la evolución de virus ya existentes. Que pueden aparecer virus ‘nuevos’, sí; pero su tipo y momento son totalmente impredecibles.”
 
Virus y sociedad
 
El virus más estudiado de la historia, el vih —originado probablemente entre 50 y 100 años atrás a partir del vis (Virus de Inmunodeficiencia en Simios)— fue conocido hasta 1981. Pero no tardaron mucho en surgir los rumores sobre su “creación”, por manos de científicos estadunidenses, como un arma biológica que escapó a su control.
 
Por desgracia, hay numerosas publicaciones pseudocientíficas que transmiten información equivocada, tergiversada, alarmista y a veces totalmente falsa, influyendo en grandes capas sociales, mientras que el conocimiento científico queda remitido a pequeños círculos académicos. Tales publicaciones difunden rumores y noticias alarmistas sobre virus peligrosísimos que “escapan” de laboratorios para exterminar a la humanidad.
 
Así, la ignorancia y el infundado temor a la investigación científica atacan a la sociedad, cuando lo que ésta necesita es poseer y manejar una de las mejores armas contra la diseminación de las enfermedades infecciosas: la educación.
 
Volviendo al ejemplo del sida: en África, la miseria provee de condiciones ideales para la proliferación del vih, pues al no contar con medidas de protección adecuadas se han generado focos masivos de infección. Mientras que en países desarrollados hay una disminución en el porcentaje de incremento debido en parte a las campañas de prevención, en África el sida es la principal causa de muerte en adultos citadinos. En algunos lugares, de 20 a 30% de las mujeres embarazadas están infectadas.
 
Hasta las autoridades de salud pueden ser víctimas de la falta de información. Recordemos que ante el brote de ébola en Zaire en 1995, la incertidumbre de los médicos mexicanos frente a la probabilidad de que esta enfermedad llegara a México se manifestó en diferentes comunicados tanto del issste como del imss. El común denominador fue que no se sabía gran cosa acerca de la enfermedad. Es preciso estar conscientes del peligro que representan los virus emergentes. Los científicos, entre ellos un premio Nobel, han prevenido contra la probable aparición de nuevas plagas; creen que en la naturaleza puede haber un vasto reservorio de virus potencialmente peligrosos.
 
Salud y educación
 
La educación es de fundamental importancia para la salud pública. La información científica básica debe ser accesible a todas las personas; en la medida que conozcan más y mejor, serán más críticas respecto a lo que leen y confiarán menos en publicaciones de dudoso rigor científico. Ello representa un compromiso a cumplir constantemente por todos los profesionales, académicos y estudiantes de ciencias biológicas y de la salud. Sólo una sociedad bien informada y practicante de medidas higiénicas adecuadas puede hacer frente de manera eficaz a las enfermedades emergentes.
 
Los virus siempre han fascinado a los investigadores; su aparente sencillez esconde procesos biológicos complejos capaces de afectar a la especie humana. Aquellos responsables de la explotación inadecuada de nuestros recursos deben saber que cuando se rompe la armonía en la naturaleza, haciendo caso omiso del orden de las cosas, se obtendrá una respuesta de ésta contraria a la sobrevivencia humana.Chivi51
Agradecimientos:
A Isabel Novella por su amable colaboración, y al profesor Ernesto Vega por todo el apoyo y ánimo brindados durante la realización de esta revisión.
Referencias bibliográficas
 
Sable, C.A. y Mandell, G.L. 1996. The role of molecular techniques in the understanding of emerging infections. Mol Med Today 2 (3).
Peters, C.J. et al. 1994. Filoviruses as emerging pathogens. Sem. Virol. 5, núm 2.
Cullinton, B.J. 1990. Emerging Viruses, Emerging Threat. Research News. Science 247.
Jaret, P. Viruses. 1994. National Geographic, July. • Strauss, E.G. et al. 1996.Virus Evolution. En: Fundamental Virology. Third Edition. Raven ­Publishers, Philadelphia.
Domingo, E. y Holland, J. J. 1994. Mutation Rates and Rapid Evolution of rna Viruses. En: The Evolutionary Biology of Viruses. Raven Press, Ltd, New York.
Anderson, R.M. y May, R.M. 1992. Understanding the Aids Pandemic. Scientific American, May.
Le Guenno, B. 1995. Emerging Viruses. Scientific American, October.
Ewald, P. 1993. The Evolution of Virulence. Scientific American, April.
Eigen, M. 1993. Viral Quasispecies. Scientific American. July.
Novella, I.S., Domingo, E. y Holland, J.J. 1995. Rapid viral quiasispecies evolution: Implications for vaccine and drug strategies. Mol. Med. Today 1.
Biotecnología militar. Muy Interesante. Año VII, núm 3.
Fay, O. H. 1990. Hepatitis B in Latin America: Epidemiological patterns and eradication strategy. The Latin American regional study group. Vaccine 8: Suppl: S100-S106.
Diario de Querétaro. Miércoles 17 de mayo de 1995. Sección B-p. 5.
Cole, L.A. 1996. The Specter of Biological Weapons. Scientific American, December.
Fernando Ontiveros Llamás
Estudiante de la Licenciatura en Biología. Facultad de Ciencias. Laboratorio de Inmunología,
Instituto de Investigaciones Biomédicas, Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo
Ontiveros Llamás, Fernando. (1998). Virus emergentes: ficción y realidad. Ciencias 51, julio-septiembre, 30-34. [En línea]
    regresar al índice artículo siguiente
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 51