![]() |
![]() |
índice 13 → siguiente → anterior → PDF → |
|||||||||||||
Pedro Ripa A. | |||||||||||||||
Una verdad científica nueva no triunfa porque convenza a sus detractores y les haga ver la luz, sino porque éstos acaban por morir y sube una generación que está familiarizada con ella. (Max Plank) La historia del hombre está enlazada con la de sus creaciones: la ciencia entre ellas, es la tarea de entender la naturaleza con orientación predictiva. La ciencia ha sido deshumanizada, para adorarla como a un nuevo dios o para atacarla como a un nuevo demonio; hasta los mismos científicos dan muchas veces la impresión, a priori curiosa, de no entender bien de que se trata. Estoy distinguiendo a la ciencia de sus aplicaciones; consciente de que esta separación es en muchos casos difícil y, a veces hasta incorrecta metodológicamente. Las aplicaciones de la ciencia están íntimamente ligadas a su evolución y abarcan desde el invento de la máquina dc vapor o del desarrollo de la penicilina hasta, por supuesto, la fabricación de armamentos. El vínculo de la ciencia con la guerra, el “arte” de matar, es por cierto, el mas importante desde el punto de vista de inversiones a escala global; esta realidad —de la que no se escapa la oceanología física— tiene una influencia muy grande en el desarrollo científico, más allá del juicio moral de los individuos. Los primeros hombres, se especula, prestaron su atención inicial a las plantas y a los animales, de quienes se alimentaban y se defendían; luego observarán con asombro el firmamento.1 Es en este mismo orden que evolucionan las religiones y los mitos; así también progresan los conocimientos sistematizados. Luego de los griegos y de más de mil años de oscurantismo en occidente, durante los cuales el desarrollo y la conservación del conocimiento estuvo en manos de los árabes, se terminan de sistematizar las observaciones del cielo en el siglo diecisiete, no sin pocos problemas políticos y religiosos, y finalmente nace la mecánica —por así decirlo—, con los “Principia Mathematica” de Isaac Newton, publicados hace tres siglos, en 1687. Es tal la belleza y la fuerza de esta nueva obra euclidiana que para muchos la física resultó ser el modelo para las otras ramas de la ciencia, en detrimento de las que —como la biología— pagaron con un desarrollo más lento o menos espectacular el pecado de dedicarse a estudiar objetos mucho más complicados que los que interesan a los físicos. Es común glorificar a físicos, químicos y matemáticos, aún en nuestros días, como puede observarse en un atlas de la cara oculta de la Luna, para cuyos accidentes nadie de otro siglo tuvo el privilegio de elegir un nombre. Los que aparecen corresponden en su gran mayoría a científicos y en grado bastante menor, a los artistas y escritores; entre aquéllos prevalecen los nombres de estudiosos en “ciencias exactas”. Son, además, casi exclusivamente masculinos, con la excepción clásica e infaltable de Mme. Curie. Este déficit femenil en las filas de los científicos predomina aún en nuestros tiempos y en nuestro país: de los cien primeros maestros en ciencia recibidos en Ensenada, por ejemplo, sólo nueve fueron mujeres. La proporción de egresadas de la licenciatura en especialidades comparables es, supongo, mayor que este nueve por ciento: si es difícil para las mujeres concluir la educación superior, cuanto más elevado el nivel, más difícil. Junto al desarrollo de la ciencia se creó un nuevo mito: el científico concebido como un ser puro e idealista que busca incansablemente “las verdades” de la naturaleza; verdades que existen independientemente del hombre y que están esperando ser descubiertas, una a una. De este mito proviene en parte el poder que tiene la ciencia en la sociedad. ¿Qué hay de cierto en este estereotipo? En primer lugar, basta trabajar o estudiar con científicos para saber que normalmente tienen poco de puros e idealistas: su trabajo está muchas veces condicionado por la competencia, los prejuicios, las modas, etc. La situación no era mucho mejor en los tiempos de Newton: los científicos escribían sus resultados, además de en latín, en criptogramas que sólo podían ser descifrados por alguien que hubiera llegado a la misma solución; esto les aseguraba la prioridad, sin darle a “la competencia” el beneficio de su descubrimiento. Parte de la popularidad de Galileo Galilei se debió a que escribía en italiano, lo cual lo hacía una persona peligrosa. Newton terminó además utilizando la fama obtenida en su trabajo académico para dedicarse a la política; en ese sentido las cosas no han cambiado mucho en tres siglos. En segundo lugar, ¿cuán real es esa búsqueda metódica, objetiva e incansable de la verdad? Dos eminentes científicos del siglo pasado, Samuel Morton y Paul Broca, analizaron una cantidad enorme de cráneos para afirmar la superioridad del hombre blanco sobre la mujer blanca, los aborígenes americanos y los negros, en este orden. Tanto Morton como Broca eran buenas científicos, de acuerdo a los mismos criterios con los que juzgamos el valor de un científico actual; sus métodos eran los mejores de la época y su actitud honesta: no falsificaron datos y los publicaron todos.2 Sin embargo, resultaron víctimas de sus prejuicios ideológicos, de sus ideas preconcebidas, tal y como lo puede ser cualquier científico de cualquier época. Esto demuestra, de paso, lo nefasto y deshumanizante que puede ser el trabajo de algunos científicos, aunque no trabajen para la industria bélica, Hasta aquí con la “objetividad científica”. Thomas Kuhn3 sostiene —en mis palabras— que los científicos son mucho más conservadores que lo que su estereotipo indica: se dedicaron afanosamente a reafirmar y reconfirmar un cierto grupo de conceptos (lo que él llama un “paradigma”); sólo basta que no se puede sostener más ese conjunto de creencias es que devienen revoluciones rápidas y definitivas (v.gr. el descubrimiento del oxígeno, la relatividad, etc.) cambiando entonces a otro paradigma, sin relación lógica con el anterior. Por su parte, Paul Feyerabend4 afirma que el progreso de la ciencia se ha dado sobre la base de la negación de todo método, de una actitud anárquica ante la generación de conocimiento.
Aunque los físicos no correspondan al estereotipo de buscadores incansables y metódicos de la verdad, la física de todos modos se ha desarrollado en forma impresionante durante los últimos tres siglos. En este proceso ha habido una tendencia a la unificación de ramas diferentes sobre la base del reconocimiento de teorías comunes. Así, la electricidad y el magnetismo se fusionan en el electromagnetismo, para luego absorber a la óptica, uniéndose después a la mecánica en la relatividad especial de Albert Einstein, y finalmente a la gravitación en su relatividad general. En este siglo vemos una convergencia aún más interesante: la de la física y la biología en campos como la biología molecular y problemas tan apasionantes como el de el origen de la vida.5 Es interesante señalar que esta convergencia fue posible una vez que los físicos y biólogos se dedicaron a estudiar problemas más complejos y más elementales de los que cada uno están habituados. ¿Dónde está ubicada dentro de este panorama la oceanografía física?: parece ser un invitado tardío y algo confuso; en muchos casos, casi ignorado no se le menciona en ninguna de las casi setecientas páginas del libro de John D. Bernal dedicado al estudio de la ciencia desde la prehistoria hasta el siglo pasado.1 De la quinientas páginas del siguiente libro,6 el referido a la ciencia en el presente siglo, la oceanografía ocupa menos de una; el resto de esa página y la siguiente es todo el espacio dedicado a la meteorología, su hermana más cercana.
Creo que hay razones históricas para entender esta situación, y que sería importante analizar, sobre todo, cuando se discute la enseñanza de la oceanología física en nuestro país. OCEANOLOGIA FISICA: ORIGENES Hay algunos antecedentes aislados de esta ciencia. Por ejemplo, los fenicios y griegos estudiaron las mareas y sus corrientes; fenómeno que era razonablemente bien predicho allá por la Edad Media. Leonardo da Vinci se ocupó en 1500 de medir la temperatura del agua del Mar Mediterráneo. El primer libro sobre la física del mar, el del conde Luigi Marsigil, apareció en 1711. Benjamín Franklin publicó en 1770 el primer mapa con la ubicación de la Corriente del Golfo, y luego, en 1855, el capitán Matthew F. Maury compiló las informaciones existentes sobre vientos y corrientes. A más de escasos, estos estudios apenas arañaban la superficie del océano, que es algo así como estudiar biología sin disecciones. El primer estudio intensivo y extensivo de todos los océanos a excepción del Ártico, lo constituyó la expedición del Challenger, que durante tres años y medio a partir de diciembre de 1872, estuvo dedicada a investigar “todo sobre el mar” (sic); les llevó veintitrés años y setenta y seis autores el volcar en cincuenta grandes volúmenes toda la información recabada. En esa época —y durante mucho tiempo esta ciencia fue una oceanografía (una descripción), y no una oceanología. Sin embargo (y esto es una primera peculiaridad) gran parte de la base teórica, la mecánica de fluidos, había sido creada antes de las observaciones; esto la distingue, en cuanto a su desarrollo, de otras ramas de la física. La primera sistematización de la hidráulica correspondió a los libros de Johann Bernoulli, en 1737, y de su hijo Daniel, en 1738.7 (El del hijo apareció un año más tarde porque el padre retuvo el manuscrito mientras escribía su libro). En 1752, Leonhard Euler afirmó que “toda la teoría del movimiento de fluidos ha sido reducida a la resolución de fórmulas analíticas” (sus ecuaciones equivalen a las de Navier-Stokes, usadas actualmente, sin los términos viscosos). El marqués Pierre Simon de Laplace escribió en 1775 las ecuaciones para el estudio de las mareas que aún se utilizan.8 Todo este trabajo teórico, al que contribuyeron no pocos de los hombres inmortalizados en la cara oculta de la Luna, llegó, en cierta forma, al límite de sus posibilidades. Esto puede ser visto por el hecho que el libro de hidrodinámica publicado por Horace Lamb en 1879 sigue aún en la actualidad siendo utilizado como libro de texto (en la versión de la sexta edición, la de 1932). Los métodos analíticos no pueden ir mucho más allá que la resolución de problemas lineales (o de perturbaciones infinitesimales) y con geometrías sencillas; esto está muy lejos de empezar a satisfacer las necesidades de la oceanología y la meteorología, quienes tuvieron que esperar al nacimiento de las computadoras. Pero antes de discutir el avance que trajeron los métodos numéricos, veamos un poco el estado de las observaciones a principios de este siglo. Vagn Walfrid Ekman diseñó en 1905 un correntómetro de hélice, veleta y municiones que se empleó, con algunas modificaciones, durante varias décadas.9 El desarrollo tecnológico en el área de oceanografía se dio en forma lenta hasta la Segunda Guerra Mundial, la cual impulsó considerablemente la acústica marina. Hace apenas veinte años, cuando los meteorólogos ya lanzaban sistemáticamente radiosondas y empezaban a utilizar satélites, Henry M. Stommel se lamentaba de la “quijotesca” situación de los oceanólogos físicos que medían casi exclusivamente con termómetros reversibles y botellas Nansen,10 instrumentos inventados a fines del siglo pasado.11 (La información de estos aparatos es, por cierto, muy importante ya que permite calcular la velocidad del agua utilizando la fórmula geostrófica desarrollada por Henrik Mohn en 1885). Para comparar este capacidad de medición con la de otras ramas de la física, recordemos el experimento de Michelson-Morley de 1887. Esta fue la segunda vez que Albert A. Michelson comparó la velocidad de la luz en la dirección de translación de la Tierra y la perpendicular a ésta, logrando una precisión de un cuarto de mil millonésimo. El resultado del experimento derribó la mecánica Galileo-Newtoniana y obligó a la aparición de la teoría de la relatividad de Albert Einstein, en 1905.
DESSARROLLO RECIENTE Durante las dos décadas posteriores al llamado de Stommel paro el desarrollo de una tecnología más moderna, ésta ha crecido en forma espectacular: gracias a la electrónica, las nuevos correntómetros (desarrollados en la década de los setenta) calculan promedios de las velocidades hacia el este y hacia el norte, cada cierto intervalo de tiempo, y registran esa información en cinta magnética; está permite dejarlos desatendidos durante meses en algún lugar del océano. En el fondo del mar se colocan instrumentos que registran los cambios de la presión y el espesar de la capa cálida superficial. Desde un buque oceanográfico es posible medir un perfil vertical de temperatura y de contenido de sales y oxígeno, hasta profundidades de varios kilómetros. Los antiguos batitermógrafos (que registraban el perfil de temperaturas vs. profundidad en una plaquita ahumada) han dado paso a los desechables, que, se arrojan en forma rutinaria desde buques mercantes o desde aeronaves; las nuevas versiones, todavía en estado de experimentación, van también a medir el contenido de sal. Métodos acústicos se utilizan en el mar para ubicar flotadores neutros sumergidos, que derivan arrastrados por los corrientes profundas.12 El efecto Doppler (cambio de la rapidez del sonido debido al movimiento del agua) sirve para obtener perfiles verticales de corrientes o incluso para medir las temperaturas y velocidades mediante arreglos horizontales de instrumentos que se espera puedan llegar a tener las dimensiones de las cuencas oceánicas. Esto último, junto con las diferentes mediciones efectuadas por los satélites, permitirán tener una imagen del estado del océano en forma casi continua; algo que ya es realidad, en alguna medida, para la atmósfera.13 ¿Cuál fue, por otra parte, el desarrollo de los modelos, de la capacidad de resolver las ecuaciones del mar? He mencionado que los método analíticos llegaron, en cierta forma, a su límite (la resolución de problemas lineales con geometrías sencillas) a finales del siglo pasado. En 1946, el matemático John Van Neumann expresó sus esperanzas en el uso de las computadoras para la resolución de problemas no lineales en dinámica de fluidos. El mismo fue el primero en desarrollar un modelo extremadamente simple de la atmósfera, en la computadora ENIAC de Princeton, con vistas a poder predecir numéricamente el tiempo; un día de evolución de ese modelo elemental necesitaba de más de una semana de cálculo; unas décadas después se invirtió esta relación. Treinta y cinco años después del llamado de van Neumann, en 1981, la rapidez de las computadoras había aumentado mil millones de veces y su precio había disminuido diez millones de veces.7 La capacidad de observación y de cálculo actual hubieran parecido una fantasía hace pocos años, antes del desarrollo de la electrónica, pero todavía no son suficientes para predecir y explicar satisfactoriamente fenómenos climatológicos como El Niño, Oscilación Austral. La dinámica climatológica es un problema esencialmente no-lineal, lo que en la práctica significa que es matemáticamente difícil de resolver; tiene que ser considerado dentro del sistema acoplado océano-atmósfera, y a una escala global. Por ejemplo, ciertos aumentos de la temperatura del Golfo de California están precedidos por elevaciones del orden de decímetros de la superficie del mar en las Islas Galápagos; esta señal se transmite en forma de ondas largas, imperceptibles para el ojo humano pero fundamentales para el clima. Es absurdo pretender predecir el tiempo en México para el mes próximo, basándose sólo en datos del territorio nacional. Un programa de estudio que ejemplifica la magnitud del problema del clima es el llamada Océano Tropical y Atmósfera Global (TOGA), de diez años de duración (a partir de enero de 1985) y que requiere de los esfuerzos de numerosas naciones, tanto para las observaciones como para el modelaje. CONCLUSION Creo haber argumentado sobre el carácter de empresa humana, moldeable, que posee la ciencia; esto significa, entre otras cosas, que está en nosotros determinar las características de la oceanología física en México. La oceanología física ha tenido una evolución peculiar debido a que el océano es un sistema físico muy difícil de medir y modelar a causa de su tamaño, su inaccesabilidad y a su dinámica no lineal. Poco a paco va tomando su papel como rama de la física, como la física del mar, incorporando, por ejemplo, elementos de otros ramas de esa ciencia. Al decir que una ciencia es parte de otra, distingo de la convergencia de dos ciencias en algún problema particular (como la que ya señalé, de la física y la biología), y también del uso que hace una de los resultados de otra (como en el caso de la física con la matemática, o las oceanologías biológica y geológica de la física, que no viceversa). Esta evolución de la oceanología física debería estar reflejada en cambios de las estructuras y métodos de enseñanza de esta disciplina. En el caso particular de la Universidad Autónoma de Baja California, soy de la opinión que la formación de los oceanólogos físicos debiera tener más en común con la de los otros físicos que con la de estudiantes de las otras tres así llamadas “ramas de la oceanología”. Esto supone un cambio de actitud no sólo en los oceanólogos sino también de las físicos. Por ejemplo, tradicionalmente —y en casi todo el mundo— mecánica de fluidos no es un cursó habitual en la formación de un físico, es considerada “cosas de ingenieros”; ha llegado el momento de que los otros físicos también contemplen el mar.
Este ensayo es dedicado a la memoria de Adrian Gill, quien tuvo una contribución encomiable a la física del mar y de la atmósfera; cuando el cáncer cobró súbitamente su vida, en abril de 1986, estaba a la cabeza del programa TOGA. Agradezco a la generación 1986 de oceanólogos físicos de la UABC por invitarme a dar esta plática y a Sergio Jiménez por el procesamiento paciente de este texto. |
|
![]() |
|
||||||||||||
|
|||||||||||||||
Referencias bibliográficas
1. Bernal, John D., La ciencia en la historia, Editorial Nueva Imagen, México, 693 pp., 1979. |
|||||||||||||||
____________________________________________________________
|
|||||||||||||||
Pedro Ripa A. como citar este artículo → |
![]() |
![]() |
índice 13 → siguiente → anterior → PDF → |
|||||||||
Richard Feynman | |||||||||||
Conferencie pronunciada durante el Congreso Anual de la Asociación Nacional de Profesores de Ciencia de los Estados Unidos, 1966* Quisiera agradecer al Sr. De Rose la invitación para asistir a su congreso de profesores de ciencia. Yo mismo enseño ciencia, y mi experiencia, que se limita a la enseñanza de la Física a estudiantes universitarios, me basta para saber que no sé cómo enseñar. Pero estoy seguro que ustedes tampoco lo saben; los verdaderos maestros que trabajan en la base de esta jerarquía de profesores, consejeros pedagógicos y demás expertos, tampoco saben cómo hacerlo; de otra forma no se encontrarían aquí. No fui yo quien escogió el tema de esta conferencia: ¿Qué es la ciencia?, fue el Sr. De Rose. Quisiera aclarar que para mi la pregunta: ¿Qué es la ciencia?, no es equivalente a la de: ¿Cómo enseñar la ciencia? Y lo quiero aclarar por dos razones: primero porque en vista de la forma en que comencé esta conferencia, se podría creer que me dispongo a decirles cómo enseñar la ciencia, que no es el caso, ya que ignoro todo sobre los niños. Ya he tenido uno, y por lo tanto yo sé que no es nada. En segundo, porque pienso que hay tanto en esta área, tantos expertos, coloquios y artículos, que la mayoría de ustedes deben padecer de alguna manera u otra, una cierta falta de seguridad. No cesan de reprenderlos, de repetirles que así no es como se enseña, que hay que hacerlo de otra forma. No es mi intención sermonearlos una vez más, ni decirles que ustedes hacen mal su trabajo o cómo mejorarlo. De hecho, nosotros constatamos en Caltech que los estudiantes que nos llegan son muy buenos, mejores año con año. ¿A qué se debe? No lo sé. Quizás lo saben ustedes. Yo no quiero modificar en nada el sistema de enseñanza, funciona muy bien. Hace apenas dos días que en nuestra universidad, durante una reunión de comisión, hemos decidido que ya no es necesario enseñar la mecánica cuántica a nivel de maestría. Sin embargo, cuando yo era estudiante de maestría, no teníamos ningún curso de mecánica cuántica; era considerado muy difícil. La mecánica cuántica fue introducida como materia en la maestría en la época que yo empezaba a enseñar. Ahora ésta se enseña desde la licenciatura, y podemos comprobar que los estudiantes que vienen de otras universidades tampoco necesitan aprender mecánica cuántica elemental. ¿Por qué? Porque los estudiantes están mejor preparados que antes, lo cual nos permite realizar una mejor enseñanza en las universidades. ¿Qué es la ciencia? Todos ustedes saben lo que es; es evidente puesto que la enseñan. ¿Qué más puedo decirles? De hecho, si ustedes lo ignoran, consulten el prefacio del primer manual que tengan a la mano; todos contienen una explicación completa sobre la cuestión. Ahí encontrarán la quinta esencia diluida y deformada de las ideas de Francis Bacon; ideas que en la época, es decir, hace varias siglos, pasaban por el nec plus ultra de la filosofía de la ciencia. Sin embargo, uno de los más grandes experimentadores de la época, William Harvey, decía que la ciencia vista por Bacon no era más que la ciencia del ministro que éste era. Pues Bacon, quien hablaba sin cesar de las observaciones que había que hacer, olvidaba una sola cosa, a pesar de ser ésta esencial: la necesidad de elaborar primero un juicio sobre lo que vale o no la pena de ser observado, sobre aquello a lo que hay que prestar atención. La ciencia no es por lo tanto lo que los filósofos han dicho y menos lo que dicen los manuales ¿Qué es entonces? Esta pregunta realmente me la he hecho después de haber estada de acuerdo con el título de la conferencia propuesta por el Sr. De Rose. Entonces me vino a la memoria un poema: Un ciempiés vivía feliz, Yo he hecho ciencia toda mi vida, sabiendo perfectamente lo que era. Pero para decirles cómo poner un pié delante del otro —por lo que se supone que estoy aquí— me siento incapaz. Es más, la comparación con el ciempiés me inquieta; tengo miedo que al regresar a casa no pueda investigar más. Muchos periodistas me han pedido por adelantado un resumen de esta conferencia, pero como la preparé en el último momento, me fue imposible hacerlo. Ya los veo precipitarse hacia las oficinas de redacción para anunciar con grades letras el encabezado: “El profesor Feynman dijo al presidente de la Asociación de Profesores de Ciencia: ¡Usted no es más que un sapo bromista!”. En vista de la dificultad del tema y de mi escaso gusto por las explicaciones filosóficas, voy a tratar la cuestión de un modo poco habitual. Voy a decirles cómo aprendí lo que es la ciencia. Lo aprendí cuando era niño; siempre lo he tenido en la sangre y quisiera decirles como sucedió. No vayan a creer que me preparo a decirles como enseñar; en ningún momento ha sido esta mi intención. Solamente quiero explicarles lo qué es la ciencia contándoles como la aprendí. De hecho, todo lo debo a mi padre. Cuando me encontraba en el vientre de mi madre, mi padre dijo un día: “Si es niño, se dedicará a la ciencia” (al menos es lo que cuenta la leyenda, pues yo no me encontraba en posibilidades de escuchar la conversación). ¿Cómo hizo pata llevarlo a cabo? Nunca me dijo que yo tenía que dedicarme a la ciencia. El mismo no era científico, se dedicaba a los negocios; era director de ventas de una empresa que fabricaba uniformes. Pero había leído cosas sobre la ciencia que lo apasionaban. La primera historia que se refiere a mi, data de cuando era muy pequeño: todavía comía en una silla alta. Después de la comida mi padre jugaba conmigo. Había traído de no sé qué parte de Long Island City, una pila de viejos mosaicos para baño; los colocábamos como si fueran naipes, extremo con extremo uno detrás del otro, y luego me dejaba empujar uno de los extremos para ver caer toda la fila. Hasta aquí, nada había de extraordinario. Pero más tarde el juego se volvió un poco más complejo. Los mosaicos eran de colores diferentes y yo tenía que colocarlos en orden: un blanco, dos azules, un blanco, dos azules, etc. Si por casualidad me daban ganas de colocar tres azules seguidos, mi padre me hacía poner uno blanco. Como podrán ver, se trata de la vieja astucia de siempre: se empieza por divertir a los niños y luego se les pasa bajo el agua una dosis de materia educativa. Este engaño no escapaba en todo caso a mi madre, quien era más sentimental que mi padre, “Mel, decía ella ¡déjale poner un mosaico blanco si tiene ganas! No, quiero que entienda que hay una estructura. Son las únicas matemáticas que puedo lograr que haga a esta edad”. Si el tema de mi conferencia hubiese sido “¿Qué son las matemáticas?”, les habría respondido: las matemáticas son la búsqueda de estructuras. Por cierto, la educación de mi padre dio sus frutos: de ello tuvimos la prueba experimental directa cuando entré al jardín de niños. En aquel entonces hacíamos tejido; actualmente han suprimido todo eso, so pretexto que es demasiado difícil. Tejíamos con bandas de papel de color, las cuales pasábamos a través de tramas verticales, lo que nos permitía construir motivos. La maestra se quedó tan impresionada de mis capacidades, que escribió a mis padres para decirles que yo era un niño extraordinario, pues daba la impresión de preveer con anticipación los motivos que iba a hacer; motivos que además eran bastante complicados. Total, que el juego con los mosaicos no había sido inútil. Quisiera darles otra prueba de que las matemáticas no son más que una cuestión de estructuras. Cuando estuve en la Universidad de Cornell, la población estudiantil me asombraba mucho; no veía más que una masa de tontos, estudiantes de economía doméstica, etc. (sobre todo mujeres), de donde emergían por aquí y por allá algunos individuos razonables. En la cafetería, mientras comía entre los estudiantes, escuchaba las conversaciones tratando en vano de detectar una mínima partícula de inteligencia. Un día hice un descubrimiento extraordinario, o al menos así me pareció. Imaginen mi sorpresa. Una tarde me encontraba sentado al lado de dos muchachas y escuchaba su conversación. Una decía: “para hacer una línea recta, aumentas cada vez la misma cantidad. Ves, cuando aumentas lo mismo cada vez, te da una línea recta”. Que bello principio de geometría analítica, me dije. Y a medida que avanzaba la conversación, me asombraba más y más. Pues nunca me había parecido que el cerebro femenino fuese capaz de comprender la geometría analítica. Y continuaba: “Si tienes dos líneas que vienen cada una en un sentido, es sencillo saber cuándo se van a cruzar. Por ejemplo, si a la línea que va hacia la derecha le aumentas de uno en uno, y a la que va hacia la izquierda le aumentas de tres en tres, y si al principio había veinte puntos, etc.” ¡Yo estaba boquiabierto; de veras, ella iba a encontrar la intersección! Hasta que me di cuenta que se trataba de un tejido y que ellas estaban explicándose los dibujos de un suéter. Aquel día aprendí una cosa: que el cerebro femenino es capaz de comprender la geometría analítica. Quienes pretenden —aunque esto esté en entredicho todos los días— que las mujeres son igualmente capaces de pensar racionalmente que los hombres, puede que no estén tan equivocados. Quizás nuestras dificultades se deben simplemente a que no hemos encontrado todavía la forma de comunicarnos con los cerebros femeninos. Pero cuando esto es posible, siempre hay algo que queda. Bueno, regresemos a mis recuerdos de infancia sobre las matemáticas. Una de las primeras cosas que mi padre me enseñó —por cierto no puedo decir exactamente como, ya que más bien me lo hizo sentir— es que la relación entre la longitud de la circunferencia y el diámetro es siempre la misma para todos los círculos, independientemente de su tamaño. En sí no me parecía tan asombroso; pero esta relación poseía propiedades maravillosas. Era un número asombroso, un número obscuro, pi. Para mi espíritu infantil ese número se encontraba rodeado de un misterio que yo percibía mal, era una cosa absolutamente extraordinaria y me puse a buscar por por todas partes. Más tarde, en la escuela, aprendí a escribir fracciones en forma decimal. Y, escribiendo 3 1/8 bajo la forma 3.125 creí reconocer a mi viejo amigo π, la relación circunferencia sobre diámetro. Escribí entonces 3.125 = π. La maestra me corrigió: π = 3.1416. Les cuento todo esto para mostrarles lo que me ha formado. Lo que era importante para mi, más aún que el número, era la idea que éste se encontrara rodeado de cierto misterio, de un halo maravilloso. Más adelante empecé a hacer experimentos en mi laboratorio, —es decir, en lo que dentro de la casa yo llamaba mi laboratorio, donde hacía talacha— discúlpenme, no eran verdaderos experimentos, nunca los he hecho, nunca he hecho más que talacha; aparatos de radio, chácharas, ¡pura talacha! Fue entonces cuando poco a poco descubrí en los libros y los manuales que existían fórmulas de electricidad que daban la corriente en función de la resistencia, etc. Y un buen día, en uno de esos manuales, me encontré con la fórmula que da la frecuencia propia de un circuito oscilante: f = 1/2π√LC, donde L es la inductancia del circuito y C su capacidad. ¿Pero pi? ¿De qué circuito se trataba? Ustedes pueden reír, pero yo lo tomaba muy en serio. Para mi pi tenía que ver necesariamente con el circulo y ahí lo tenemos apareciendo en un circuito eléctrico. ¿De qué círculo se trataba? Los que se están riendo me podrían decir por qué interviene pi aquí… Hay que reflexionar, me dije: Tengo que pensar. Tengo que dedicarme a la cuestión. Entonces me di cuenta, por supuesto, que las bobinas eléctricas son en forma de círculo. Pero resulta que seis meses más tarde descubro, en otro libro, las fórmulas que dan la inductancia del devanado en sección cuadrada. ¡Y siempre con un pi! Después de haber reflexionado nuevamente, terminé por comprender que pi no tenía nada que ver con la forma circular de las bobinas. Ahora comprendo mejor todas estas cuestiones, pero, en el fondo, no sé muy bien todavía de qué círculo se trata ni de dónde viene el pi. Cuando todavía era muy pequeño —no sé exactamente que edad podía tener— un día que jalaba un carrito con un balón adentro de él, me di cuenta de algo extraño. Corrí hacia mi padre: “Cuando jalo el carrito el balón rueda hacia atrás, y cuando me paro bruscamente el balón se precipita hacia adelante. ¿Por qué?”. ¿Qué responder a tal pregunta? Mi padre me dijo simplemente: “Nadie sabe por qué. Sin embargo, es muy general y siempre pasa así y con cualquier gente. Una cosa que se mueve siempre tiene tendencia a continuar moviéndose, y una cosa que no se mueve tiene siempre tendencia a quedarse inmóvil. Si miras bien, verás que el balón no retrocede; no va hacia la parte trasera del carrito; él avanza también un poco pero no tan rápido como el carrito. La parte trasera del carrito alcanza al balón que no puede fácilmente ponerse en movimiento. Es lo que se llama el principio de inercia.” Regresé entonces a mi carrito y verifiqué que efectivamente el balón no retrocedía. Mi padre me había hecho sentir la diferencia que hay entre lo que sabemos y la forma en que lo nombramos. A propósito de nomenclatura, quisiera contarles otra historia. Mi familia pasaba sus vacaciones en la montaña, en los Catskill. La gente de Nueva York acostumbra pasar sus vacaciones en los Catskill. Los pobres esposos, después de trabajar toda la semana, se apresuran para alcanzar a su familia cada fin de semana. Durante el fin de semana mi padre me llevaba también de paseo y me enseñaba a observar la naturaleza. Los otros niños, mis amigos, hubiesen querido ir con nosotros y acosaban a mi padre para que los llevara. Pero él se negaba porque decía que yo estaba más adelantado que los otros. Para nada les estoy diciendo cómo llevar a cabo la enseñanza, ya que la clase de mi padre se reducía a un solo alumno, habiendo más de un alumno, ya no podía funcionar. Así, los dos solos salíamos a pasear por el busque. Pero en esta época las madres eran muy poderosas —todavía lo son, por cierto. Así que lograron también convencer a los otros padres de que era su deber llevar a sus propios hijos a pasear por el bosque. De tal forma que un domingo por la tarde todos los padres se fueron de paseo con sus hijos. Al otro día, por la mañana, mientras jugábamos en el campo, un niño me dijo: “Ves ese pájaro allá en el campo de trigo. ¿Sabes como se llama? —No tengo la más mínima idea, le respondí. Entonces, ¿qué es lo que te enseña tu padre, si ni siquiera sabes que es un tordo de pecho café?” Esto me hizo sonreír para mis adentros, pues mi padre ya me había enseñado que el nombre de un pájaro no nos dice gran cosa sobre él. “Ves este pájaro, me decía, es un tordo de pecho café; pero en alemán se llama Halzenflugel, y en chino se dice Chung Ling; y aún cuando conocieras todos los nombres que se le dan no sabrías nada sobre el ave. A lo más, ¡sabrías algo sobre la gente y la forma en que llaman a este pájaro¡ Pero este tordo canta, enseña a volar a sus pequeños, recorre tantos kilómetros durante el verano y nadie sabe cómo se guía, etc. Hay una diferencia entre el nombre de una cosa y lo que ponemos dentro de éste”. El resultado de todo esto es que no logro retener los nombres propios y que si en una discusión sobre física me hablan del efecto Fulano Mengano, nunca sé de que se trata; estoy obligado a preguntar: “¿Cuál es ese efecto?”. Quisiera ahora decir algunas palabras —discúlpenme si interrumpo mi historia a la mitad— sobre esta cuestión de definiciones y nombres. Por supuesto que hay que aprender el nombre de las cosas; pero eso no es ciencia. Lo cual no quiere decir por tanto, que no haya que enseñar las definiciones. De hecho, aquí no hablamos de lo que hay que enseñar, hablamos de lo que es la ciencia. Saber convertir grados Fahrenheit a grados centígrados no es ciencia. Es útil, pero no es verdaderamente ciencia. Del mismo modo, si se tratase de arte, no diríamos que el arte es saber que un lápiz 3B es menos duro que un lápiz 2B. La diferencia es clara. Lo cual no quiere decir que un profesor de arte pueda evitar enseñar ese tipo de cosas, o que un artista pueda ahorrarse ese tipo de conocimiento, de hecho, la diferencia entre un lápiz 3B y un lápiz 2B es fácil de encontrar: basta con probarlos; pero ese es el tipo de procedimiento científico que los profesores de dibujo no siempre piensan que deben explicar. Para comunicar necesitamos palabras. De acuerdo. Pero es bueno saber hacer la diferencia entre lo que es la enseñanza de las herramientas de la ciencia (por ejemplo las de definiciones), y lo que es la enseñanza de la ciencia propiamente dicha. Para que me comprendan mejor voy a tomar ahora como ejemplo cierto manual de física, del cual voy a hablar mal. Lo cual no es justo pues, estoy seguro que se puede hablar igual de mal de cualquier otro manual. En ese manual para uso del primer año de secundaria, desde la primera lección las cosas empiezan mal pues el autor parte de una falsa idea de lo que es la ciencia. Vemos una primera imagen que representa a un perro mecánico, uno de estos juguetes de resortes a os que hay que dar cuerda; enseguida vemos una mano sobre la llave de la cuerda y el perro empieza a caminar. Abajo está escrito: “¿Qué es lo que hace caminar al perro?” Un poco más adelante, en otra imagen, vemos un perro de verdad con la misma pregunta: “¿Qué es lo que hace caminar al perro?” Luego vemos una moto con la misma frase: “¿Qué es lo que hace caminar a la moto?”. Al principio creí que se trataba de una introducción a diversas áreas de la ciencia: la física, la biología, la química. Pero nada. Pues la respuesta adecuada la encontré en el libro del maestro, anexo al manual: “Es la energía la que hace caminar al perro, a la moto, etc.”. Pero la energía es un concepto extremadamente sutil, muy difícil de ser bien asimilado. Yo entiendo por esto que llegar a comprender suficientemente bien la idea de energía para poder utilizarla como se debe y sacar las deducciones correctas no es algo inmediato; esto rebasa ampliamente el nivel de 1o. de secundaria. Se hubiese podido decir igual de sencillo que lo que hace caminar al perro y a la moto es “Dios” o “la fuerza del espíritu” o “la tendencia al movimiento”. De hecho, en lo que respecta a la energía podemos decir que es ella la que tanto detiene el movimiento como lo causa. Adoptemos ahora un punto de vista distinto y digamos, al contrario, que se trata simplemente de la definición de la energía. Algo que se mueve tiene por definición, cierta energía; pero no es la energía la que lo hace moverse. El matiz es bastante sutil. Es igual para este asunto de inercia. Quizás podría hacerles percibir mejor la diferencia diciendo las cosas de otra forma. Cuando uno hace la pregunta a un niño sobre lo que hace que se mueva un perro mecánico, hay que tener presente cual será la respuesta normal. Es decir, que el resorte ha sida tensado al darle cuerda y que se afloja moviendo los engranes del mecanismo. Sería una buena idea comenzar un curso así: tomamos un juguete, se enseña cómo camina, lo ingenioso del mecanismo. Se aprende entonces algo sobre el juguete, la forma en que está construido, sobre el ingenio de quienes concibieran sus engranes… Bien, en suma, la pregunta planteada por el manual es buena. La respuesta es la que está mal dada, pues no es más que una definición de la energía que no nos enseña nada. Imagínese que un alumno diga: “Yo no creo que sea la energía la que hace moverse al perro”. ¡Es imposible discutir con él! Con el tiempo he llegado a encontrar algo que permite saber si lo que ha sido enseñado es una definición o un concepto. Basta con decir a los alumnos: “sin utilizar la nueva palabra que acaban de aprender, repitan la misma cosa con su vocabulario habitual”. “Por ejemplo: ¡Díganme lo que saben del movimiento del perro sin utilizar la palabra energía!”. Imposible. Por lo tanto no han aprendido nada más que una definición, nada de ciencia. Por cierto, en algunas ocasiones esto carece de importancia, no siempre necesitamos aprender inmediatamente ciencia y hay que aprender también definiciones. Pero vamos, para una primera clase, ¿no existe el riesgo de que hayan efectos desastrosos? Es muy malo, pienso, que la primera lección no aporte en respuesta a una pregunta más que una fórmula cabalística. El manual del que les hablo contiene otras fórmulas del mismo tipo: “Es la gravedad la que hace caer a las cuerpos” o “las suelas de los zapatas se gastan a causa del frotamiento”. Si el cuero de los zapatos se gasta es porque las asperezas y las protuberancias de las banquetas atoran el cuero arrancando pedazos. Decir únicamente que es por el efecto del frotamiento no es ciencia y es un poco triste. Mi padre también trató conmigo la cuestión de la energía, pero él no utilizó el término sino hasta que me dio una pequeña idea de lo que es. Yo sé lo que él habría hecho para hacerme comprender este ejemplo. Lo sé porque el caso se dio con otro ejemplo diferente. Me habría dicho: “Es porque el Sol brilla que el perro camina”. A lo que yo habría respondido: “Claro que no, ¡el Sol no tiene nada que ver en esto! El perro camina porque le di cuerda. —Sí amiguito, pero ¿qué te da la fuerza para que le des cuerda?— Lo que como —¿Y qué comes?— No sé… espinacas. —¿Y qué hace que las espinacas crezcan?— el Sol”. Lo mismo sucede con el perro. ¿Y la gasolina de la moto? Es energía solar acumulada, captada por las plantas y almacenada en el sucio. Podríamos multiplicar los ejemplos que nos llevan al Sol. Y vean que la idea a la que el manual nos quiere hacer llegar se encuentra expresada de una forma más emocionante. Todo lo que vemos moverse se mueve porque el Sol brilla. El lazo entre una y otra fuente de energía se encuentra por lo tanto explicado y el argumento puede ser refutado por los alumnos. Si ellos dicen: “No creo que sea porque el Sol brilla”, se puede establecer una discusión. Lo cual cambia todo. Un poco más tarde pude objetar a mi padre que esto no era verdad para las mareas ni para la rotación de la Tierra. Y volví a encontrar el misterio. Esto no es más que un ejemplo de lo que distingue a las definiciones (necesarias) de la ciencia misma. En el caso presente, lo que reprocho al manual es dar definiciones desde la primera lección. Más tarde hay que decir, por supuesto, lo que es la energía, pero no en respuesta a una pregunta tan simple como: “¿Qué es lo que hace caminar al perro?”. A esta pregunta hay que dar a los niños una respuesta a su nivel: “Abre y mira la que hay adentro”. Yo aprendí mucho durante esos paseos por el bosque. Ya les he hablado de las aves y de la migración. Pero puedo darles otros ejemplos. En lugar de indicarme su nombre mi padre me decía por ejemplo: “¿Te has dado cuenta que los pájaros están siempre hurgando entre sus plumas con el pico? Mira ese pájaro cómo revuelve entre sus plumas. ¿Por qué crees que lo hace?”; intenté responder: “Es parque sus plumas están enredadas y el trata de desenredarlas. —Puede ser— me dijo; pero ¿cuándo se enredan sus plumas y por qué? —Cuando vuela, dije ¿cuando camina sobre el suelo todo va bien, pero cuando vuela sus plumas se enredan. Entonces, me respondió: —el pájaro debería hurgar entre sus plumas más seguido después de aterrizar que después de haber simplemente caminado. Pues bien, veamos si es cierto”. Nos pusimos entonces a observar: hasta donde yo podía ver, el pájaro no revolvía su plumaje ni más ni menos después de haber velado que después de haber caminado sobre el suelo. Yo había entonces adivinado mal. Y como no lograba encontrar la explicación correcta, mi padre me la dio: “Las aves tienen piojos; sus plumas producen un tipo de pellejitos comestibles de los que se alimentan los piojos. Y como de entre las articulaciones de las patas de los piojos escurre una cera, hay un pequeño parásito que vive y se alimenta de esta cera. Pero como este alimento es demasiado abundante para el parásito, le cuesta trabajo digerir todo, por lo que arroja un líquido extremadamente azucarado, del cual se alimenta otra criatura minúscula, etc.”. Todo esto no es totalmente exacto. Pero la idea general es válida. Y es así como yo aprendí lo que es el parasitismo, un ser viviendo a expensas de otro que a su vez, etc. Mi padre no se detuvo ahí. También me explicó que en el mundo cada vez que existe una fuente de materia prima comestible propicia para mantener la vida, existe también una forma de vida que encuentra cómo emplear esta fuente y que todos los restas terminan siempre siendo utilizados por alguien. Lo que es importante en todo esto es que todas mis observaciones —aún cuando era incapaz de sacar todas las conclusiones— llegaban siempre a un tesoro, a un resultado extraordinario. Era absolutamente maravilloso. Imagínense que en lugar de todo esto, me hubieran dicho que hiciera observaciones, tomase notas, hiciera una lista, hiciese esto y lo otro, mirase aquí y allá, y diera cuenta de todo esto en una ficha que habría colocado en un archivo con 137 más. La única lección que habría sacado es que una observación no es nada divertida y que no lleva a gran casa. Yo creo que es muy importante —en todo caso para mi fue muy importante— cuando uno quiere enseñar a la gente a observar, mostrarles que puede resultar algo extraordinario. En esta época aprendí lo que es la ciencia: una gran paciencia. Si se sabe mirar, examinar, poner atención, uno es ampliamente recompensado (¡aunque no siempre!). Más tarde, ya adulto, me tocó trabajar con tesón sobre ciertos problemas durante horas y horas, años —aunque también a veces menos tiempo— sin llegar a nada más que aventar al bote de basura montañas de papel. Pero de vez en cuando me ha tocado llegar a una comprensión de un tipo distinto, novedosa, al tesoro que había aprendido a esperar cuando era pequeño y hacía mis observaciones. Pues ya había tomado conciencia desde entonces que siempre vale la pena. Por cierto, en el bosque aprendíamos muchas otras casas. Durante nuestros paseos observábamos todo lo que pasaba. Discutíamos mucho sobre las plantas que crecen, las árboles que luchan para tener luz tratando de subir la más alto posible, y el problema pata hacer subir el agua a más de quince metros, sobre las pequeñas plantas que al ras del suelo tratan de captar lo poco de luz que pasa a través, de las árboles… sobre todo el crecimiento en general. Un buen día, después de haber visto todo eso, mi padre me llevó nuevamente al bosque y me dijo: “Durante todo el tiempo que hemos pasado en el bosque no hemos visto más que la mitad de lo que pasa, exactamente la mitad. —¿Qué quería decir? —pregunté. —Hemos examinado la forma en que las cosas crecen. Pero todo crecimiento debe estar forzosamente acompañado de una degradación igual, sino las diferentes substancias jamás serían consumidas. No habría más que árboles muertos que habrían agotado todo el alimento del aire y del suelo; nada regresaría ya ni a la tierra ni al aire. Nada más podría crecer ya que no habría más materiales disponibles. Todo crecimiento debe ser seguido necesariamente de una degradación equivalente”. Hubieron entonces más paseos por el bosque: partíamos viejos troncos, observábamos curiosos insectos, hongos en crecimiento; mi padre no podía mostrarme las bacterias para observábamos su efecto degradador… Yo ví en el bosque un incesante trabajo de circulación de la materia. El me explicaba así muchas cosas, de esta forma tan graciosa. A menudo empezaba sus frases con: “Imagina que un marciano llega y observa nuestro mundo”. Es una buena manera de ver el mundo. Así, por ejemplo, cuando me puse a jugar con el tren eléctrico, me contó que hay en algún lugar una gran rueda que el agua hace girar y de ahí salen un montón de cables de cobre en todas direcciones, que van muy lejos… y al final hay unas ruedas pequeñas que giran cuando la gran rueda gira. La gran rueda y las pequeñas no están unidas más que por cables de cobre o de fierro, nada más, nada que se mueva. Se hace girar una rueda en algún lugar y todas las pequeñas ruedas en todas partes se ponen a girar; y tu tren eléctrico es una de esas ruedas. “!Que bello era el mundo que me describía mi padre!”. Y finalmente dirán: qué ha ganado con todo esto su padre. Yo entré al MIT; fui a Princeton. Luego regresé a la casa y él me dijo entonces: “Ahora que has realizado estudias de ciencia, hijo mío, hay algo que jamás he comprendido y que quisiera que me explicaras. —Dilo—. Hasta donde yo sé, un átomo emite luz cuando pasa de un estado a otro, de un estado de excitación a un estado de menor energía. —Exacto—. Y la luz es un tipo de partícula, un fotón creo. —Sí—. Bueno, pero si el fotón sale del átomo cuando éste pasa del estada excitado al estado de energía más baja ¿estaba ya el fotón en el átomo en estado de excitación? Reflexioné un instante. “Discúlpame, dije, no lo sé; no puedo responderte”. Se decepcionó mucho ¡Haber hecho tantos esfuerzos, tanto tiempo empleado para llegar a tan malos resultados! ¿Qué es la ciencia? A mi parecerá algo así: la vida sobre nuestro planeta ha evolucionado hasta que aparecieron animales dotados de inteligencia. No pienso solamente en los humanos, sino también en los animales que son capaces de jugar y de extraer lecciones de la experiencia (los gatos, por ejemplo). Sin embargo, en ese estadio cada animal sacaba únicamente lecciones de su propia experiencia. Pero en el curso de la evolución sucedió que uno de esos animales fue capaz de sacar lecciones de la experiencia de otros, mirándolas actuar. O bien, uno de ellas llegó a ser capaz de enseñar a los otras cómo actuar; desde entonces, cada uno tuvo la posibilidad de aprender. Pero la transmisión no se hacía necesariamente y los animales morían antes que aquellos que sabían hubiesen tenido tiempo de transmitirles su saber. La pregunta se impone: ¿es posible aprender lo que otro aprendió antes de que lo olvide, o que la memoria falle, o bien que el que ha comprendido o inventado algo, muera? Llegó entonces una época, quizás, en la que para una cierta especie las facultades de aprendizaje aumentaron tan rápidamente que se produjo algo absolutamente nuevo. A partir de entonces, lo que un animal había aprendido individualmente podía ser transmitido a otro, luego a otro, suficientemente rápido para que toda la especie se beneficiara. Le fue posible a esta especie acumular su conocimiento. Tengo en este momento algunos representantes de esta especie animal que tratan de unir sus experiencias individuales. Este fenómeno de memoria colectiva, de conocimiento acumulado, transmisible de una generación a otra es completamente nuevo. Pero presenta un inconveniente, que las ideas dañinas al igual que las demás, pueden ser transmitidas. No todas las idees son forzosamente benéficas a la especie. Durante cierta época, se acumularon entonces, poco a poco, cosas prácticas y útiles, pero así mismo prejuicios de todo tipo, creencias raras o aberrantes. La especie inventó entonces la forma de remediar este inconveniente: dudar que las ideas legadas por el pasado fuesen efectivamente verdaderas, tratar de descubrir, ab initio, a través de la experiencia, cual es la situación real y no conformarse con la experiencia pasada tal y como fue transmitida. Esto es la ciencia —este descubrimiento de que más vale no confiar en la experiencia del pasado de la especie— y que más vale verificar todo por sí mismo haciendo nuevos experimentos. Así es como yo veo las cosas. Es la mejor definición de la ciencia que puedo dar. Para incitarlos a entusiasmarse quisiera ahora recordarles ciertas cosas que ya saben. En la enseñanza religiosa hay lecciones de moral, pero no se contentan con enseñarnos esta moral de una vez para todas; nos la repiten constantemente; la ciencia también creo que hay que insulfarla constantemente, hay que recordar sin cesar los efectos benéficos de la ciencia para los niños, los adultos o cualquiera. Y no solamente sobre el tema: “la ciencia desarrolla el sentido de responsabilidad cívica, o ella permite controlar mejor la naturaleza”. No, pues esto no es todo. La ciencia vale también por la riqueza de la visión del mundo que nos da, por la belleza maravillosa del mundo tal y como lo descubrimos a través de los resultados de los experimentos nuevos. Entiendo por esto maravillas tales como las que acabo de evocar; que las cosas se mueven porque el Sol brilla. (Sin embargo, no todos los movimientos se deben a que el Sol brilla. La Tierra gira independientemente de que el Sol brille y las reacciones nucleares aportan desde hace poco, nuevas fuentes de energía terrestre. Es probable que la actividad volcánica no tenga su origen en la energía solar.) ¡El mundo parece tan diferente cuando uno sabe! Por ejemplo, los árboles están esencialmente hechos de aire. cuando un árbol se quema, regresa al aire; el calor liberado por la combustión es el calor del Sol que se necesitó para transformar el aire en árbol, y las cenizas representan la parte restante, la que no provenía del aire sino de la tierra. ¿No es bello todo esto? La ciencia rebosa de tales maravillas que inspiran entusiasmo y de las que uno se puede servir para insulfar el entusiasmo a otros. La ciencia posee también la cualidad de enseñarnos las virtudes del pensamiento racional, la importancia de la libertad de pensamiento, los efectos benéficos de la duda frente a lo aprendido. Hay que distinguir aquí —y particularmente en la enseñanza— la ciencia propiamente dicha de su letra o de las formulaciones empleadas algunas veces para exponerla. Decir: “Escribamos esto o lo otro, hagamos tal o cual experimento, observemos que…” etc., no tiene nada de difícil. Basta con recopiar palabra por palabra la fórmula. Pero sabemos bien que las grandes religiones se debilitan por atenerse únicamente a la letra y olvidar el contenido de las enseñanzas de sus grandes figuras. Igual podemos llamar ciencia, concentrándonos con la formulación solamente, a lo que es pseudociencia. Desde este punto de vista, actualmente todos soportamos la especie de dictadura que reina en gran cantidad de instituciones científicas, caídas bajo la bota de consejeros pseudocientíficos. Tomemos por ejemplo el caso de los estudios de pedagogía en los que la gente hace experimentos, listas, estadísticas, etc. Todo esto no hace por tanto que se trate de ciencia verdadera, de conocimiento auténtico; no son más que copias de las ciencias, comparables a esos aeródromos y torres de control de madera que encontramos en las islas del Sur del Pacífico. Los indígenas que desean la visita de un gran avión llagan hasta construir aviones de madera con la misma forma que los que han visto en los aeropuertos construidos por los extranjeros; pero, curiosamente, esos aviones de madera no vuelan. Esta imitación pseudocientífca tiene por objetivo producir expertos. Pero ustedes que son verdaderamente expertos, ustedes que se las ven con los niños directamente, ustedes deberían quizás, de vez en cuando, poner en duda la palabra de los expertos. De hecho, yo podría dar otra definición de la ciencia: la ciencia es la creencia en la ignorancia de los expertos. Si alguien les dice: “La ciencia nos enseña que…”, no está empleando la palabra ciencia como se debe. La ciencia no nos enseña nada: es la experiencia la que nos enseña algo. Si les dicen: “La ciencia muestra que…”, respondan: “¿Cómo lo muestra la ciencia? ¿Cómo han encontrado los científicos esto? ¿Cómo? ¿Dónde? ¿Quién?”. No debemos decir: “La ciencia muestra que…”, sino: “Tal experimento, tal efecto, muestra que…”. Y tienen todo el derecho, ustedes al igual que todos, después de haber escuchado una reseña de tales experimentos (pero cuidado, sean pacientes y escuchen bien todo) a decidir si la conclusión que se ha sacado es o no razonable. En un área tan complicada como la enseñanza, donde la verdadera ciencia no lleva aún a nada, tenemos que confiarnos a una sabiduría tradicional de un elemental sentido común. Yo trato aquí de sugerir a los enseñantes de base que pueden depositar su confianza y su esperanza en la inteligencia natural y el sentido común. Los expertos que los guían pueden equivocarse. El día de hoy probablemente eché todo a perder y de ahora en adelante los estudiantes que nos lleguen a Caltech no servirán para nada. Vivimos, me parece, una época de no ciencia y todo ese escándalo alrededor de las comunicaciones, de la televisión, de las palabras, de los libros, etc., no tiene nada que ver con la ciencia. Mediante todo esto sufrimos, en nombre de la ciencia, una pesada tiranía intelectual. Un hombre no sobrevive a su muerte. Cada generación que descubre algo a partir de su propia experiencia debe transmitirlo a las siguientes; pero hay que mantener un delicado equilibrio entre respeto e irrespeto, de tal forma que la especie (que ahora sabe a qué peligro se expone) no imponga de manera tan rígida sus errores a la generación que viene y le transmita su capital de sabiduría… y además, la sabiduría para saber que quizás no es esta la sabiduría. Hay que enseñar a los niños al mismo tiempo a aceptar el pasado y a desecharlo, lo cual requiere de mucha habilidad. Entre las disciplinas impartidas, la ciencia es la única que porta en ella esta lección: es peligroso creer en la infalibilidad de los maestros de la generación precedente. Por lo tanto, buena suerte.
|
|
![]() |
|
||||||||
|
|||||||||||
* Tomado de “La nature de la physique”, 1980. Título original en inglés: What is science? Richard Feynman, 1966. Traducción al francés: Le Seuil, 1966. Traducción del francés al español: César Carrillo T., 1988. | |||||||||||
____________________________________________________________
|
|||||||||||
Richard Feynman como citar este artículo → |
![]() |
![]() |
índice 13 → siguiente → anterior → PDF → |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Humberto Madrid V. y José Guerrero G. | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
El usuario (casi) siempre escoge la formulación matemática menos estable para resolver su problema. Nash PRÓLOGO Nuestra intención al elaborar este trabajo es mostrar que si bien la computadora representa un instrumento de gran utilidad en la solución de problemas —llegando a ser indispensable en muchos casos—, su uso acrítico junto con la mitificación que este uso induce en una gran cantidad de usuarios, puede llevar a situaciones tan lamentables como el creer que un resultado obtenido computacionalmente es siempre correcto cuando en realidad en muchas ocasiones está muy lejos de serlo. La presentación que se hace trata de ser lo menos técnica posible de tal forma que las ideas que se intentan transmitir pueden llegar a un público amplio. I. Computación y análisis numérico Un hecho importante con relación a nuestro mundo actual, lo constituye el gran impacto que los avances de la computación han tenido sobre áreas cada vez más extensas de la actividad humana. Así, la investigación científica, la enseñanza, la industria, la administración y algunas manifestaciones artísticas contemporáneas se hayan estrechamente ligadas a la computación, y es éste un fenómeno que tiende a generalizarse cada vez más. Por lo que toca al campo de las matemáticas, la interacción matemática-computación ha sido extraordinariamente rica, siendo uno de sus principales frutos el surgimiento del moderno análisis numérico, cuyo desarrollo en las últimas décadas ha sido tan acelerado que sólo le son comparables la estadística, la investigación de operaciones y la computación misma. Un producto importante de este desarrollo son los programas para calcular soluciones numéricas de problemas matemáticos, presentes en cualesquiera de los centros de cómputo donde se hacen cálculos científicos. II. Mételo a la computadora Una situación usual en la vida diaria de alumnos y profesores es la de enfrentarse a problemas cuya solución implica cálculos tediosos, y cuando esto sucede no falta una voz que sugiera: mételo a la computadora. Los resultados de optar por esa vía merecen algunas reflexiones, según se muestra en los siguientes ejemplos: i) restas pánicas. Problema: dados calcular x - y. El cálculo de la resta da como resultado x - y = r = 10-6 Consideremos ahora las siguientes aproximaciones de x, y: Entra fórmula 01 De estos valores resulta Entra fórmula 02 Por otra parte, los errores relativos cometidos en x, y resultan ser Entra fórmula 03 Así pues, podríamos considerar que las perturbaciones en x, y son razonablemente pequeñas, lo que podría llevarnos a pensar que el correspondiente er fuese también pequeño. Sin embargo, resulta que: Entra fórmula 04 Esto es, hemos llegado a que, errores del orden de 1026 en los datos producen un error del orden de 10° en el resultado. Pero ¿y qué con todo esto?, podría preguntar algún lector. Tratemos entonces de aclarar este drama numérico. En primer lugar obsérvese que, tanto para x, x como para y, y hemos calculado los llamados errores relativos ex, ey respectivamente. Estos valores, además de tener ciertas propiedades interesantes nos permiten saber qué tan buenas aproximaciones de x, y son x, y en un sentido muy preciso. En efecto, obsérvese que ex ≤ 10-5 ey ≤ 10-5 y en ambos casos x, y coinciden con x, y en los primeros cinco dígitos; esto es, ambas aproximaciones tienen cinco cifras correctas de x, y respectivamente. Siguiendo este esquema es directo concluir que en r no tenemos ninguna cifra correcta de r, cosa que en efecto sucede. Al fenómeno antes ejemplificado se le conoce con el nombre de cancelación catastrófica y se presenta cuando (como en nuestro caso) se restan dos cantidades muy parecidas. Un caso típico en el que este fenómeno se presenta es cuando se intenta calcular numéricamente las raíces de una cuadrática. F(x) = ax2 + bx +c mediante el conocido algoritmo Entra fórmula 07 El lector interesado puede recurrir a la bibliografía citada al final para mayor información sobre este punto. ii) No todos los caminos conducen a Roma. Presentamos ahora un problema cuya formulación es una sucesión numérica de las llamadas recurrentes. Aunque el ejemplo aquí presentado es en términos de integrales, al lector no familiarizado con este tema le podemos decir que existen muchos problemas cuya formulación matemática es similar a la aquí presentada. A estos lectores les pedimos que concentren su atención en la fórmula (1). Vayamos pues a lo que nos interesa, que en este caso es calcular los valores de la integral. Entra fórmula 08 para diversos valores de n. Por supuesto, podríamos intentar el cálculo directamente o bien usar algún método numérico para conseguir una aproximación de nuestra integral, sin embargo, el problema resulta más sencillo si notamos que Entra fórmula 09 Lo realmente importante del desarrollo anterior es la relación. Entra fórmula 10 Esta relación nos indica que si conocemos el valor de alguna yn para alguna n particular, podemos entonces calcular los valores de las integrales que le siguen o que le anteceden. Por ejemplo, si conocemos y20 podemos conocer y21 usando nuestra fórmula (1) que para este caso nos dice que Entra fórmula 11 En forma análoga podemos conocer y22, y23, etc. Pero también partiendo de nuestra relación (1) podemos conocer y19 dado que Entra fórmula 12 de donde resulta Entra fórmula 13 y una vez tenido esto, podemos proceder a calcular recursivamente y18, y17, etc. Ahora bien, todo esto a partir del supuesto de que conocemos y20. Sin embargo, conocerla en la práctica no resulta tan fácil. Pero lo que sí es fácil de calcular es y0, ya que Entra fórmula 14 Usando este valor inicial podemos entonces calcular los valores y1, y2, y3, … usando la relación Entra fórmula 15 Una posibilidad para hacer esto sería realizar los cálculos auxiliándonos de papel y lápiz. Otra, mucho más veloz es ¡pasarle el problema a la micro! Por nuestra parte, elaboramos un programa que fue ejecutado en una microcomputadora PC-compatible, obteniendo los siguientes resultados:
¿Y bien? ¿Podemos irnos felices a casa con nuestros resultados? ¡Nada de eso!, porque resulta que yn debe ser positiva para todo valor de n ≥ 0, dado que en el intervalo [0,1] el integrando Entra fórmula 16 es una función continua positiva y debido a ello es que yn debe ser positiva. ¿Cuál es entonces la razón de estos resultados absurdos? ¿Será que nuestro programa está mal escrito? A continuación lo presentamos: program recursion (input, output) El lector que conozca un poco de programación podrá darse cuenta que el programa es correcto. Al lector perspicaz le podemos asegurar que las fórmulas (1) y (2) son también correctas. ¿Cuál es entonces la bronca? El problema radica en la fórmula (2). Pero no piense usted mal, estimado lector. No se trata de un timo; dicha fórmula es impecable desde el punto de vista matemático, pero resulta muy inadecuada desde el punto de vista numérico. Veamos por qué. El valor y0, por ser un número irracional, no es representable en forma exacta en una computadora, por lo que de hecho ésta trabaja internamente con una aproximación —llamémosla y0—. Sea ahora ε=y0-y0 la diferencia entre el valor exacto y su aproximación numérica (ε es llamado el error de aproximación inicial). Supongamos además, con el afán de ser lo menos complicados posible, que en los cálculos posteriores no se comete ningún error de aproximación. Denotemos ahora por y1,y2 … etcétera a las aproximaciones de y1, y2, … calculadas por la computadora. Tenemos entonces que y1 = 1 - 5y0 = 1 - 5(y0 - ε) = 1 - 5y0 + 5ε = y1 + 5ε, esto es, resulta que en el cómputo de y1 a partir de y0 se comete un error de 5ε. Procediendo en forma similar para y2, y3, etc., resulta que Entra fórmula 17
Lo que esta fórmula nos dice es que |yn - yn| = 5n|ε|; o bien, dicho en palabras, que el error en el paso n es 5n veces el error inicial. Así pues, a medid que crece n, el error de aproximación inicial se propaga en forma exponencial, por lo que, en unos cuantos pasos el error correspondiente deja de ser despreciable y esto a la larga conduce a resultados cada vez más incorrectos. El fenómeno descrito con este ejemplo se conoce como inestabilidad algorítmica, y a él nos referiremos más adelante. Y ahora… ¿quién podrá ayudarnos? En nuestro caso, el problema se debe a que en cada paso el error de aproximación inicial se multiplica por un factor de 5, por lo que, aunque el valor de ? sea pequeño a la larga el error de aproximación será grande; y todo ello es debido a la forma como hemos calculado los valores de y1, y2, etc.; esto es, la raíz de nuestro problema está en la fórmula (2). Sería conveniente tratar de ver si es posible plantearse los cálculos de otra forma. Y en efecto, resulta que nuestro ejemplo acepta un tratamiento que nos permite salvar estos problemas. Para ello obsérvese que la fórmula (2) puede ser reescrita como Entra fórmula 18 Si ahora aplicamos esta nueva fórmula para el cálculo de nuevos valores, tendremos un fenómeno totalmente opuesto al anterior; es decir, el error inicial de aproximación disminuirá en cada paso en vez de crecer. Para mostrar esto, supongamos que conocemos, por ejemplo, una aproximación de y20, que llamaremos y20. Tendremos entonces como error de aproximación ε = y20 -y20. Usando ahora la fórmula (3) tendremos Entra fórmula 19 de donde resulta Entra fórmula 20 Esto es, el error de aproximación disminuye en 1/5. Si se prosigue en esta forma el error disminuye 1/5 en cada paso. En general, si conocemos una aproximación yn de yn, con un error de aproximación ε = yn - yn, tendremos que Entra fórmula 21 es decir, Entra fórmula 22 Esto significa que, a medida que k crece, los valores calculados computacionalmente son cada vez más exactos. El nuevo camino que hemos propuesto vía la fórmula (3) es satisfactorio, según se ha mostrado teóricamente. Sin embargo, persiste un problema. ¿Cómo encontrar un valor aproximado de y que nos permita inicializar nuestro proceso? Recurriendo nuevamente a nuestro problema original, ni es difícil demostrar que (entra fórmula 23) (esto se puede deducir partiendo de que en [0,1] , x + 5 ≥ x, y de las propiedades básicas de la integral). De acuerdo a lo anterior 0 < y20 < 1/20. En principio cualquier número entre 0 y 1/20 puede ser usado como una razonable aproximación. A continuación se presentan algunos resultados computacionales obtenidos usando la fórmula (3) y dos valores iniciales de y20.
En ambos casos se obtiene para y0 un valor con ocho dígitos correctos. III. La teoría sirve, aún después de ahogado el niño En general, en un problema numérico, se tiene como punto de partida una colección (x1, x2, … , xm) de datos relativos al problema, y si éste tiene solución única entonces dichos datos deberán producir una colección (y1, y2, … , yn) de resultados. Esto es, se puede decir que existe una relación “funcional” entre datos y resultados; lo que puede simbolizarse como Entra fórmula 24
El interés consiste en calcular una “buena” aproximación de (y1, … , yn) a partir de los datos (x1, … , xm). Y es aquí justamente donde comienzan los problemas, ya que en general lo que se tiene no es exactamente x sino una —digamos “buena”— aproximación, a la que llamaremos x. Esto establece de inmediato la siguiente situación: si a partir de x el resultado es y, entonces si partimos de x deberemos llegar a una solución y. Ahora bien, nosotros desearíamos que se satisficiera algo del siguiente estilo Entra figura Es decir, nos gustaría que si x está próxima a x, entonces la correspondiente y estuviera igualmente próxima a y. Sin embargo, resulta que en general esto no es cierto, pues bien puede darse la siguiente situación Entra figura y esto puede ser así, independientemente del camino que se siga para calcular y. Presentamos enseguida un ejemplo al respecto. Considérese el problema de evaluar la función f (x) en el punto x0. Gráficamente se tiene Entra figura como se observará, aún a pesar de que la evaluación en xa se realice en forma exacta, puede ser que la diferencia entre f (x0) y f (xa) sea mucho mayor que la diferencia entre z0 y za. Dicho en otras palabras: dependiendo de f y x0, puede suceder que un error “pequeño” en los datos nos produzca un error “grande” en los resultados, y ello sin importar el camino seguido en el cálculo de la solución. El fenómeno antes descrito es de ocurrencia generalizada en Análisis Numérico y se le conoce como problema de mal condicionamiento; e igual puede presentarse al evaluar una función como al resolver un sistema de ecuaciones o calcular las raíces de un polinomio. El efecto de cancelación catastrófica mostrado en el ejemplo de la resta de cantidades parecidas es un caso particular de mal condicionamiento. No es nuestro interés discutir en este trabajo cada uno de los casos en los que éste fenómeno se presenta —así como sus posibles curas—, sino sólo mostrarlo como una fuente importante de resultados erróneos cuando se intenta resolver un problema numérico a tontas y a locas; y esto con el fin de que el lector reflexión un poco cuando se enfrenta a un problema numérico, dado que —como hemos visto, el drama puede empezar con el problema mismo. Pero lo anterior no es todo. Resulta que una mala solución puede deberse también al procedimiento seguido para calcularla. En principio uno esperaría que al ejecutar un proceso para calcular la solución de un problema, el resultado fuera suficientemente cercano a la solución teórica (ver figura) Entra figura Esta situación es plenamente razonable dado que los cálculos involucrados en el proceso de solución pueden inducir un resultado que difiera de la solución exacta debido a que, en general, la computadora opera con aproximaciones de números reales. De aquí se desprenden distintas posibilidades: i) Si el problema a resolver es bien condicionado (si no es mal condicionado) se tendría, gráficamente Entra figura El procedimiento P produce un resultad Py “próximo” a y, que a su vez es resultado exacto para los datos x. Todo procedimiento que satisfaga estas propiedades se conoce como algoritmo numéricamente estable; y, por el contrario, un algoritmo será inestable si no produce un resultado cercano a la solución exacta del problema con datos “cercanos”, (ver figura). Entra figura Podríamos resumir lo anterior como sigue: a) Si estamos ante un problema bien condicionado y aplicamos un algoritmo numéricamente estable, es de esperar una buena solución. b) Si el problema en cuestión es bien condicionado y aplicamos un algoritmo inestable, en general, la solución será mala; y esta situación puede agravarse cada vez más dependiendo de las dimensiones del problema. En el ejemplo relativo al cálculo de la integral visto en la sección anterior, se tiene el caso de un problema bien condicionado cuya solución puede resultar “buena” o “mala” dependiendo de la utilización de un algoritmo estable o uno inestable. ii) Si el problema a resolver es mal condicionado y se aplica un algoritmo estable, la situación —gráficamente— sería Entra figura aquí se muestra que puede tenerse una solución “mala“ a pesar de haber sido bien calculada. El caso de atacar un problema mal condicionado con un algoritmo inestable se deja a la imaginación del lector. IV. A manera de despedida Es alarmante el número de personas que usan la computadora en forma irreflexiva, pensado que por el hecho de programar una fórmula encontrarán la solución correcta a su problema. Estas personas sólo validan de forma contundente el axioma de Nash citado al inicio de este trabajo. Es por ello que resultad recomendable el tener ciertos cuidados al escribir un programa o usar un paquete. Existen paquetes en los que se recoge la experiencia de gentes que durante años han trabajado en problemas de estabilidad y mal condicionamiento. Hay que conocerlos. Pero igualmente importante resulta el que el usuario reflexione sobre la naturaleza de sus problemas y se informe sobre las características numéricas de los algoritmos que piense usar, antes de confiar ciegamente en los resultados. Algunas recomendaciones finales: no calcular determinantes para resolver sistemas de ecuaciones lineales; no calcular los valores propios de una matriz evaluando directamente su polinomio característico no usar la fórmula por radicales para calcular las raíces de un polinomio de tercer grado. Si tiene problemas consulte con su analista numérico más cercano. El lector interesado podrá ampliar su visión sobre todo lo antes tratado recurriendo a los trabajos citados en la bibliografía. |
|
![]() |
|
|||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Referencias bibliográficas
1. Dahlquist, G., and A., Björck, Numerical Methods, Prentice-Hall, 1977. |
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
____________________________________________________________
|
||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Humberto Madrid V. José Guerrero G. Departamento de Matemáticas, Facultad de Ciencias, UNAM. como citar este artículo → |
![]() |
![]() |
índice 13 → siguiente → anterior → PDF → |
|||||||||||||||
Jose Ruíz Shulcloper | |||||||||||||||||
LINEAS PRINCIPALES DE INVESTIGACION Sobre la base de los conceptos y principios definidos en el epígrafe del final del artículo anterior expresamos como objetivos fundamentales de las investigaciones matemáticas en Cuba los siguientes: – Introducir, desarrollar y aplicar los aspectos más novedosos de la matemática que garanticen alcanzar un alto nivel científico y la posibilidad de resolver problemas en las esferas de la producción, los servicios y otras ciencias. – Contribuir a la formación de estudiantes y egresados universitarios en las diferentes ramas de la Matemática. – Contribuir a la divulgación de los logros en la investigación matemática y sus aplicaciones. – Brindar asesoramiento matemático. Desde el punto de vista de la realización de estos objetivos consideramos necesario un conjunto de relaciones entre diferentes factores. Estas se describen en la Figura 1 en la que las flecha dobles indican retroalimentación. Como conclusión parcial, en la Comisión Nacional para el desarrollo de la matemática hemos llegado a los siguientes acuerdos.1 Debo enfatizar que las proyecciones de las líneas responden al enfoque de nuestros especialistas en nuestro contexto, aunque creo que pudieran extenderse. “Por su importancia para el desarrollo científico y técnico del país es indispensable desarrollar las siguientes líneas o disciplinas de investigación matemática, en las escuelas debe concentrarse el esfuerzo y la orientación (ordenadas alfabéticamente): Algebra Los acuerdos de trabajar en las líneas antes mencionadas se fundamentan en cada caso en las siguientes razones: Algebra. El álgebra es la rama de la matemática que probablemente tenga más aplicaciones dentro de la misma matemática. Actualmente no hay rama de la matemática que no se vea influenciada por ésta. Por otro lado, ella es una de las asignaturas básicas en la formación general de matemáticos, físicos, químicos, ingenieros, cibernéticos, etc., ya sin hablar del álgebra elemental que es necesaria a cada ciudadano de nuestro país para completar sus estudios preuniversitarios. De particular interés consideramos, por un lado, aquellas ramas del álgebra que tienen aplicaciones a la cibernética y a la computación, tales como Teoría de semigrupos, grupos finitos, cuerpos y polinomios, series formales y otras, y por otro lado, aquellas que tienen aplicaciones en problemas de la física y la mecánica tales como Algebra Multilineal, grupos de Lie, representaciones lineales de grupos y otras. Análisis Numérico. Para esta disciplina se utilizan también otras denominaciones: Matemática Numérica, Métodos de Cálculo o Métodos Numéricos. La disciplina Análisis Numérico ha cobrado en los últimos años un gran interés gracias al impetuoso desarrollo de los medios de cómputo. La mayoría de los diversos campos de la ciencia y la ingeniería producen actualmente problemas matemáticos para los cuales no hay solución analítica o por el contrario, ésta puede ser obtenida pero de una manera tan complicada que la hace inaceptable para propósitos prácticos. Dentro del Análisis Numérico se han desarrollado métodos nuevos y poderosos para resolver problemas cada vez más complejos. Por otro lado, el desarrollo impetuoso de los medios de cómputo ha impulsado a los matemáticos numéricos a reexaminar los métodos ya existentes desde el punto de vista de cómo hacerlos más racionales en las nuevas computadoras y con ello se han confrontado problemas nuevos y de gran interés. Dentro de la amplísima gama de posibilidades de empleo de los métodos numéricos para la solución de problemas matemáticos pueden mencionarse la Aproximación de Funciones, la Diferenciación e Integración Numérica, la solución de sistemas de ecuaciones algebraicas o trascendentes, lineales, la solución de sistemas de ecuaciones diferenciales ordinarias y en derivadas parciales, la solución de problemas de optimización, etc.
La creación, adaptación a situaciones concretas, implementación en computadoras, y análisis del comportamiento de los errores de los múltiples métodos numéricos en la temática de trabajo o investigación de las matemáticas dedicados a esta disciplina. Su aplicabilidad es evidente en todos los problemas prácticos donde se emplean modelos matemáticos y se deseen obtener resultados numéricos utilizables. El análisis numérico constituye especialización en los planes de estudio de las matemáticos, cibernéticos y especialistas en computación de todo el mundo. Especial énfasis queremos hacer en las investigaciones relacionadas con aproximación de funciones, álgebra lineal, ecuaciones no lineales, ecuaciones diferenciales ordinarias, ecuaciones diferenciales en derivadas parciales, problemas de la física matemática, métodos de Monte-Carlo, problemas incorrectamente planteados, optimización de las métodos numéricos y problemas prácticos planteados por la ciencia y la técnica. Ecuaciones Diferenciales e Integrales. La teoría de las ecuaciones diferenciales e integrales constituye una de las más amplias ramas de la matemática contemporánea, excepcionalmente rica por su contenido y que se desarrolla vertiginosamente en estrecha relación con otros dominios de la matemática y sus aplicaciones. Históricamente, la teoría de las ecuaciones diferenciales ha estado compuesta por dos extensos dominios de la matemática, con sus características y métodos propios de trabajo: las ecuaciones diferenciales ordinarias y las ecuaciones en derivadas parciales. Al estudiar un fenómeno físico de las ciencias naturales, el investigador crea su idealización matemática, menospreciando las características secundarias del fenómeno, es decir, construye un modelo matemático basándose en las leyes fundamentales que rigen dicho fenómeno. Con mucha frecuencia esas leyes y modelos se expresan en la forma de ecuaciones diferenciales e integrales. Para la composición del modelo matemático en forma de ecuaciones diferenciales, por lo general hace falta conocer solamente relaciones locales, mientras que la introducción de ecuaciones integrales implica la necesidad de información sobre el fenómeno físico como un todo. Podemos decir que el primer rasgo característico de las ecuaciones diferenciales e integrales es su estrecha vinculación con las aplicaciones ya que su desarrollo teórico surgió de ellas. Precisamente las ciencias naturales son para la teoría de las ecuaciones diferenciales e integrales una fuente inagotable de nuevos problemas, ellas determinan en gran medida la dirección de sus investigaciones y les dan una orientación correcta. Otra particularidad de esta disciplina radica en su estrecha relación con otras secciones de la matemática tales como el análisis funcional, la teoría de funciones, la topología, la geometría, el álgebra, el análisis complejo y la teoría de probabilidades. Las investigaciones en esta temática estarán dirigidas fundamentalmente a problemas de las ecuaciones diferenciales ordinarias, ecuaciones diferenciales en derivadas parciales, ecuaciones integrales, ecuaciones diferenciales sobre variedades, teoría espectral de operadores diferenciales, problemas de la física matemática, problemas de las ciencias técnicas, problemas que plantean la Biología, la Medicina y otras Ciencias Naturales. Estadística Matemática. La realización y el análisis de los resultados de los experimentos, es una actividad común e imprescindible en el desarrollo de teorías y sus aplicaciones en las Ciencias Naturales y Técnicas, así como en el proceso de preparación tecnológica de la industria para la introducción de los avances científicos. Rol similar le corresponde al análisis de los datos ya existentes, en las Ciencias Sociales, la Planificación Económica y la Dirección Científica de la Agricultura. Los objetivos en relación con el análisis de los datos, ya sean experimentales o simplemente recolectados pueden ser de diversa índole: la comparación de métodos, tratamientos o tecnologías, el pronóstico de indicadores económicos, tecnológicos, agrícolas, etc., en diferentes condiciones o en períodos de tiempo futuro. Los principios y métodos de la Estadística Matemática constituyen una metodología científica para propiciar la construcción de estos objetivos. Avalada por docenas de años con experiencias positivas en la industria, en las ciencias naturales, agrícolas, médicas, biológicas, etc. La interacción creciente de la estadística con algunas de las ciencias particulares mencionadas, ha dado origen al surgimiento de disciplinas híbridas como la Econometría, la Biometría, la Sociometría, etc. La base teórica de la Estadística Matemática está dada en la Teoría de Probabilidades de cuyo lenguaje hace uso para formular y resolver sus problemas fundamentales.
Son de interés particular en esta línea los problemas relacionados con la teoría de estimación, teoría de prueba de hipótesis, diseño experimental, teoría del modelo lineal, análisis multivariado, muestreo, métodos no-paramétricos, problemas planteados por la ciencia y la técnica. Geometría. La geometría ha constituido durante siglos una de las ramas más fecundas de la matemática. En el siglo pasado se inició un gran movimiento de geometrización de las concepciones matemáticas más importantes. Esto provocó el desarrollo impetuoso de la Geometría Diferencial, la Geometría Algebraica y la Topología Algebraica. Uno de los puntos culminantes fue la creación de la Geometría Riemanniana que constituye la base de la Física relativista. Este desarrollo dura hasta estas momentos pudiéndose afirmar que ha sido una característica del desarrollo moderno de la matemática. Desde hace aproximadamente dos décadas se comenzaron a aplicar técnicas refinadas de la Geometría Diferencial, Geometría Algebraica y Topología Algebraica al estudio de problemas de la Física Moderna. El éxito en estas aplicaciones ha creado todo un movimiento de geometrización de la Física actual. Los intereses esenciales en esta área los concentramos en la geometría algebraica, la geometría diferencial, la topología algebraica y problemas relacionadas con las sistemas dinámicos y aplicaciones en la Ciencia y la Técnica. Lógica matemática. La Lógica Matemática es una de las disciplinas básicas de la Matemática por lo que es imprescindible para el desarrollo de la misma en nuestro país, contar con cierta cantidad de especialistas de alto nivel en esta especialidad. Además, si por un lado, en sus orígenes la lógica matemática centraba su atención en problemas de fundamentación de la matemática misma, por otro lado, en la actualidad diversas subespecializaciones de ella constituyen herramientas imprescindibles de trabajo para la cibernética y las ciencias de computación. Consideramos que dentro de esta disciplina hay tres líneas de trabajo que deben merecer nuestra especial atención: 1. Teoría de algoritmos, la cual estudia las diferentes formalizaciones del concepto de algoritmos y sus implicaciones. Es a nuestro entender la parte más importante de la lógica matemática en la actualidad. 2. Algebra de la lógica, la cual estudia las matrices y funciones de Boole, formas normales, lógicas K-valentes, etc. Su importancia radica fundamentalmente en su aplicabilidad a la electrónica, la cibernética y la computación. 3. Autómatas y lenguaje, cuyo objeto de estudio son la Teoría de Autómatas y los lenguajes formales. Esta línea tiene importancia crucial para diferentes esferas de la ciencia aplicada, tales como el diseño de computadoras, la teoría de la programación, el diseño de lenguajes de programación y la construcción de compiladores, el diseño de robots industriales, etc. Matemática Discreta. A pesar que desde un principio en su desarrollo la matemática siempre contuvo aspectos discretos, es solamente a mediados de este siglo que la matemática discreta comienza a desarrollarse impetuosamente, debido fundamentalmente a las necesidades de la Cibernética y la Computación, ciencias que dieron la posibilidad de procesar grandes volúmenes de información discreta y que a su vez se vieron necesitados de fundamentaciones teóricas.
Actualmente en cualquier especialidad de matemática o cibernética se imparten disciplinas que forman parte de la matemática discreta. En Cuba el desarrollo de esta disciplina es muy incipiente desde el punto de vista teórico, aunque se realizan múltiples y variadas aplicaciones de esta teoría en distintos organismos del país. La parte más desarrollada y básica de toda la matemática discreta es el Análisis Combinatorio. Esta disciplina que también se conoce como “Combinatoria” en el sentido clásico o como Teoría de Conteo es la que permite por lo general, descubrir las propiedades más importantes y profundas que se necesitan para resolver problemas discretos. Especial interés tiene en la actualidad la utilización de estas herramientas para el análisis de los Algoritmos Combinatorios, el estudio de los cuales constituye una línea que desempeña un papel cada vez más importante en las ciencias de computación. La Teoría de Grafos y Redes desempeña un papel fundamental en la solución de problemas de transporte, comunicaciones, económicos-matemáticos, etc. Gran actualidad tiene el estudio combinatorio de los Poliedros por las distintas aplicaciones que éstos tienen en problemas algorítmicos de la optimización discreta, en especial en los problemas de programación lineal y entera. Gran importancia reviste la Teoría de conjuntos ordenados, retículos finitos y en general la Combinatoria Algebraica. La investigación en problemas matemáticos discretos del Reconocimiento de Patrones y de la Inteligencia Artificial deben ser de las líneas que a más corto plazo rindan frutos prácticos. Actualmente son conocidas múltiples aplicaciones de esta disciplina en medicina, sociología, robótica, prospección geológica, análisis de señales, levantamiento de mapa, análisis de escenas y voces, etc. Es de destacar además, que se prevé que las computadoras de las subsiguientes generaciones tendrán por fuerza que estar fundamentadas en los resultados de esta línea de trabajo.
Otras líneas importantes que son por su contenido parte de la matemática discreta no las mencionamos aquí porque tradicionalmente se han considerado como parte de la lógica matemática (álgebra de la lógica, autómatas y lenguajes) o del álgebra (semigrupos finitos, grupos finitos, etc.). Los trabajos priorizados en esta línea se dirigirán a la solución de problemas de análisis combinatorio, teoría de grafos, teoría de algoritmos combinatorios, reconocimiento de patrones, teoría de códigos, teoría de programación y en especial elaboración de sistemas de programas basados en algoritmos lógico-combinatorios y sus aplicaciones en otros campos de la ciencia y la técnica. Métodos Matemáticos de la Optimización. En prácticamente todas las esferas de la actividad humana es siempre necesario tomar las mejores decisiones, o como suele decirse, las decisiones óptimas. Como toda la Matemática Aplicada, esta rama ha tenido un desarrollo vertiginoso paralelo al desarrollo de las computadoras electrónicas, mutuamente interactuando ambos desarrollos. Su objeto de estudio son los modelos matemáticos que reflejan sistemas para los cuales se desea obtener una solución óptima respecto a uno o más criterios u objetivos prefijados. Los principales campos de trabajo en la Optimización Matemática son la Teoría del Control Óptimo de Sistemas Dinámicos, la Programación Matemática y la Teoría de Juegos. Una considerable cantidad de resultados matemáticos y aplicaciones prácticas ha tenido lugar en los últimos 40 años. Las aplicaciones se han extendido a casi la totalidad de esferas científicas y sociales con resultados extraordinarios en la eficiencia de los sistemas. No obstante, sigue siendo un campo muy actual de la matemática en pleno desarrollo y con muchos problemas abiertos, planteados por las nuevas aplicaciones y el desarrollo de las computadoras. Están en el centro de nuestros intereses los problemas relacionados con la programación lineal, programación no-lineal, programación discreta, programación multiobjetivo, programación de control de sistemas de ecuaciones diferenciales ordinarias, teoría de control de sistemas discretos, teoría de control con sistemas con parámetros distribuidos, teoría de control de sistemas estocásticos, juegos diferenciales y aplicaciones en la ciencia y la técnica. Probabilidades y Procesos Estocásticos. La teoría de las Probabilidades estudia las regularidades de los fenómenos aleatorios (casuales). Los orígenes de la disciplina se remontan al siglo XVII, pero su desarrollo como teoría ha tenido lugar durante el presente siglo y está estrechamente vinculado, por una pare, al desarrollo de otras disciplinas matemáticas, en particular el Análisis Matemático y por otra, el desarrollo de las Ciencias Naturales. La teoría de los Procesos Estocásticos, en nuestra opinión, es la dirección fundamental de desarrollo de la disciplina en el momento actual; estuvo estrechamente vinculada a la solución de problemas concretos de la Física, la Biología, y las Ciencias Técnicas. Los resultados de esta teoría se aplican ahora en el estudio de diversos problemas de la Física Nuclear, la Medicina, la Economía, la Sociología, etc. Las amplias posibilidades de aplicación de los métodos de la Teoría de Probabilidades, así como las necesidades de nuevos resultados para el desarrollo de otras disciplinas matemáticas, estrechamente relacionadas con la Teoría de Probabilidades, como son la Estadística Matemática, la Programación Estocástica, la Teoría de Colas, etc., hacen imprescindible la creación de grupos dedicados al desarrollo de esta disciplina. Los estudios fundamentales estarán vinculados a los procesos de ramificación, series cronológicas, teoría de colas, teoría de confiabilidad y aplicaciones en la Biología, la Medicina, la Economía y otras ramas. Teoría de funciones de variable real y compleja. Esta es una disciplina sumamente amplia y clásica. Se encuentra ubicada en el contexto de varias asignaturas de carácter básico-específico de la Licenciatura en Matemática, como son la Teoría de la Medida y la Variable Compleja, y en cursos optativos relativos a la Teoría de la Aproximación. En realidad sus límites no están precisados, pues es base teórica de muchas subespecializaciones, tales como Análisis Numérico y Análisis Armónico. A su vez, utiliza las técnicas generales del Análisis Matemático, en particular del Análisis Funcional. Se aplica continuamente en problemas fundamentales, casi siempre de manera indirecta. Los problemas fundamentales que se abordarán están en el marco de la teoría de aproximación, el análisis armónico, la teoría espectral de operadores, el álgebra de Banach, la teoría de representaciones, la teoría de potenciales, los problemas de contorno de las funciones analíticas, representaciones integrales de funciones analíticas y aplicaciones en la ciencia y la técnica. Como se puede observar en la Figura 2, esta proyección coincide en gran medida con la concepción que sobre la estructura actual de la Matemática y sus aplicaciones propone el Académico Iliev, de la Academia de Ciencias de Bulgaria.16 Es importante subrayar que esta proyección tanto en relación con las líneas como con las temáticas que en ella se desarrollarán no excluye la posibilidad de trabajar en otras líneas y/o en otras temáticas. Sólo pretendemos resaltar la importancia de las aquí mencionadas para nuestra concepción de desarrollo de la Matemática en nuestro contexto. CONCLUSIONES Si tenemos en cuenta las condiciones objetivas y subjetivas existentes en Cuba el 1o. de enero de 1959, las circunstancias de bloqueo, de plaza sitiada, en las que hemos tenido que trabajar durante más de 25 años y los resultados alcanzados, podemos considerar satisfactorio el trabajo realizado en Matemática y óptimas las condiciones actuales para iniciar un proceso vertiginoso de ascenso cuantitativo y cualitativo. Un instrumento de vital importancia para el desarrollo de las investigaciones matemáticas en nuestro país lo constituye el de la Política Científica para el desarrollo de la Matemática hasta el año 2000. Su implementación práctica mediante una Comisión Nacional de Matemática, respaldada por todos los matemáticos y centros de Matemática del país, garantizarán los resultados esperados. Como diría en su discurso de apertura del I Congreso Nacional de Matemática el entonces presidente de la Academia de Ciencias de Cuba, Dr. Wilfredo Torres Yribar: “… es importante que todo este potencial científico conjugue sus esfuerzos en aras de un uso más efectivo del mismo. Es imprescindible que exista una mayor colaboración, una mejor organización del desarrollo de la Matemática de nuestro país, de forma tal que se coordinen todas las acciones, que no se dupliquen esfuerzos innecesariamente y que se seleccionen adecuadamente las temáticas acorde con nuestras condiciones y posibilidades. Pensamos que la Sociedad Cubana de Matemática puede desempeñar un importante papel en este sentido. Es necesario que todos, además, colaboremos con la Sociedad para que ésta cumpla cabalmente con su objetivo”.22 Considero que estas ideas pudieran ser extendidas a Centro América y el Caribe, a América Latina y al Tercer Mundo en general. Coincido con la Dra. Ana Lydia Brizuela cuando afirma: “Existe el potencial material y humano para convertir la cooperación entre nuestros países en un poderoso factor dinámico para contribuir a nuestro desarrollo autónomo e integral”.19 Pienso que Centro América y el Caribe, que América Latina, que el Tercer Mundo están urgidos de acciones encaminadas a un uso más racional y eficiente de los recursos materiales y sobre todo de los humanos, de la inteligencia diseminada en todos nuestros pueblos. Estoy persuadido que será esta una de las primeras preocupaciones de la naciente Federación Centroamericana y del Caribe de Matemática, que será también preocupación de la Federación Latinoamericana de Matemática y que cuando la organicemos, también la Federación del Tercer Mundo de Matemática abordará esta cuestión. Creo que se han ido creando todas las condiciones objetivas y subjetivas que facilitarán estos hechos. Estamos obligados a ser altamente eficientes y sustituir la cantidad con calidad, organización y colaboración. ¡Unámonos pues, centroamericanos, caribeños, latinoamericanos, tercer mundistas, con inteligencia y dedicación, en la obra de desarrollar la Matemática en nuestros pueblos!
|
|
![]() |
|
||||||||||||||
|
|||||||||||||||||
Referencias bibliográficas
1. Gómez Montenegro, A., L. Álvarez Díaz, Direcciones principales de la matemática de cómputo que se han conformado hasta el momento en el mundo. |
|||||||||||||||||
____________________________________________________________
|
|||||||||||||||||
Jose Ruíz Shulcloper como citar este artículo → |
microcine |
|
![]() |
PDF →
|
|||||||||||||
![]() |
||||||||||||||||
Algunos aspectos de la historia de la microscopía en México | ||||||||||||||||
Alejandro Martínez M. | ||||||||||||||||
La breve reseña aquí presentada pretende dar una idea de los principales hechos relacionados con la historia de la microscopía, partiendo de fines del siglo XVII a nuestros días. Se ha resaltado la labor desempeñada por los microscopistas mexicanos; tanto su trabajo de investigación, como su actividad docente en este campo. El microscopio es una herramienta de trabajo y se usa para obtener información en diversas áreas científicas y tecnológicas, tales como las Ciencias Biomédicas, Metalurgia, Física, Geología, Petroquímica y hasta en los trabajos de restauración artística. El microscopio generalmente es requerido por algunas de ellas sólo de manera secundaria, mientras que para otras resulta elemento primordial. El microscopio, instrumento inventado por Hans y Zacharias Jensen en Holanda, hace más de 300 años, fue usado por primera vez en 1590. La iluminación según Köhler data de la última década del siglo pasado, los sistemas de iluminación tangencial, campo obscuro, microscopía de fluorescencia se desarrollaron a principios de este siglo y prácticamente cuentan con sólo 80 años de existir. Pero estos viejos microscopios se han actualizado, modificado su operatividad para dar lugar a las nuevas generaciones de sistemas ópticos: contraste de fases, los microscopios de interferencia de Nomarski, Jamin-Lebedeff, los microscopios acústicos, electrónicos de transmisión y de barrido, los cuales se desarrollan en los años comprendidos entre 1930 y 1965. En las últimas dos décadas la evolución del microscopio avanza en el área de la microscopía de fluorescencia y en la aplicación de sistemas automatizados de medición y cuantificación de las imágenes, culminando con los flamantes microscopios que funcionan con sistemas láser y rayos X. En nuestro país el microscopio se usa por primera vez en 1690 o 1692 (casi 100 años después de haberse inventado), y corresponde a Carlos Singüenza y Góngora (1645-1700) el honor de ser el pionero mexicano de la microscopia. Este dato se deduce de los estudios históricos del Dr. Enrique Beltrán, quien anota en sus trabajos “…Singüenza era de un espíritu inquieto… que no era extraño a la Biología. Se desprende de una carta dirigida al Almirante Pez el 8 de junio de 1692; comentando diversos asuntos, uno de ellos referente a la plaga de “chiahuiztli” que atacó al trigo… Lo interesante es que la forma en que habla del asunto muestra que se mueve en un terreno familiar pera él, y, más interesante aún, es la referencia a que sus observaciones las realizó “haciendo uso de un microscopio, pues esta es la mención más antigua que he localizado del empleo de dicha instrumento en América”.
Como es claro, se desconoce con qué tipo de microscopio se hicieron las primeras observaciones en nuestro país, pero se piensa que pudo ser de cualquiera de los tres tipos siguientes: un Hooke modificado, un microscopio de “tornillo de barril” o un modelo “compás”; es importante hacer notar que se trata para el continente americano de la primicia en microscopía. En el siglo XVIII aparecen algunas referencias a microbios, e infusorios (protozoarios), en los trabajos de Antonio Álzate, sin embargo, se trata de alusiones a trabajos europeos sobre el tema de la influencia de estas organismos en la salud humana. Los estudios desarrollados en el siglo XIX se localizan en “La Naturaleza Ia”, Volumen I, páginas 27 a 36, de 1869, bajo el título de “El Microscopio y la fotografía aplicados al Estudio de las Ciencias Naturales”, el autor de este trabajo es José Joaquín Arriaga. Pasalagua, en 1872, realiza un trabajo similar al de Arriaga, quedando así publicados los primeros registros fotográficos realizados con el microscopio. A principias de este siglo, el Dr. Isaac Ochoterena publicó 3 trabajos sobre técnicas microscópicas; “Elementos de técnica microscópica y de histología vegetal, fase I”, “Elementos de citología, fase II” y “Notas de Biología Vegetal y de Técnica Microscópica”. En estas publicaciones se menciona al microscopio como herramienta de trabajo, y él mismo dice: “No nos ocuparemos ni de su teoría ni del detalle de la parte óptica… nos limitaremos a algunas consideraciones de carácter práctico que faciliten al estudiante el uso correcto del aparato”. En estos escritos el Dr. Ochoterena también señala aportes científicos y de diseño de equipo del “padre de la microscopía moderna”, el Dr. E. Abbe y recomienda el uso de los “Globos de cristal con la solución filtra-rayos”, llamados “filtros con soluciones coloridas”; también se refiere a los trabajos de fotomicrografía. La década de los veinte marca una época importante; por primera vez aparece de manera formal un curso de microscopía; trataba de microscopía botánica y fue impartido en la Facultad de Altos Estudios (que en 1925 se transforma en la Facultad de Filosofía y Letras) de la Universidad. Dicho curso la sustentó el Dr. Enrique Beltrán, convirtiéndote así en pionero de la enseñanza de la microscopia en México; el curso era libre por no formar parte de ningún programa de estudios de las carreras entonces impartidas en la Universidad Nacional; se le asignó como “curso libre de Microscopía Botánica”. El Dr. Ignacio González Guzmán, publica en la Revista Mexicana de Biología en 1931: “El objetivo de inmersión en agua aplicada al Estudio Leucocitario en la Cámara Cuenta Glóbulos”, trabajo que representa una de los primeros esfuerzos por propiciar el uso de técnicas más económicas en los trabajos hematológicos. En 1940, el Dr. Beltrán publica la única biografía encontrada en revistas nacionales referente a Ernst Abbe, padre de la microscopia moderna. En 1941, el mismo Beltrán publica en la revista mexicana “Ciencia” el primer artículo acerca de la microscopía electrónica: “El microscopio electrónico y sus posibilidades”. El Dr. Daniel Nieto Roaro edita el primer trabajo sobre la iluminación en el microscopio según Köhler; es una explicación cuyo fin es dar a conocer el método de iluminación que es actualmente el más usado. En 1950 se encuentra el primer estudio realizado con el microscopio de contraste de fases: la tesis profesional del Dr. Jorge González Ramírez quien, más tarde fuera destacado citólogo del Instituto de Estudios Médicos y Biológicos de la Universidad, primera institución del país que contó con un microscopio de contraste de fases. Esta obra de González Ramírez trata del “Análisis morfológico de la sangre de los batracios”, aplicando diferentes técnicas de estudio, entre ellas, la observación de células vivas con microscopía de contraste de fases, de la cual dice en sus conclusiones “…me parece que este método constituye la piedra base para los avances de la Citología moderna. Nos permite el estudio de las células vivientes sin empleo de reactivo o colorante alguno… tiene, además, el inestimable valor de no introducir artificios de técnica, aún más, permite descubrirlos… Sin embargo, tiene la limitación de mostrar sólo aquellos elementos cuyo índice de refracción es ligeramente diferente…” El Dr. González Ramírez hace un resumen notable, dejando expresadas en unas cuantas líneas las ventajas de esta forma de microscopía, hoy día la más usada en los laboratorios de Biología Celular. El Dr. Ignacio González Guzmán, fundador y director del Instituto de Estudios Médicos y Biológicos de la UNAN de 1940 a 1966 (que durante la década de los sesenta cambió su nombre por Instituto de Investigaciones Biomédicas), en el curso del año 1955 se avoca al estudio del microscopio de contraste de fases y divulga sus conocimientos en uno de sus numerosos cursos impartidos en el Colegio Nacional. El evento a que se hace referencia consta de 13 conferencias; posteriormente, publica en el Boletín del Instituto de Estudios Médicos y Biológicos los primeros trabajos sobre la aplicación del microscopio de contraste de fases según Zernike. Se trata de los trabajos “Nota sobre un sencillo procedimiento para el estudio del aparato nucleonar de las células de los derrames serofibrinosos” y “Observación de las granulaciones argentófilas intranucleares en células vivas con óptica de contraste de fases”. La profundidad de las investigaciones del Dr. González Guzmán lo hacen prácticamente el descubridor del Ácido Ribonucleico o ARN, dado que sin nombrar dicha sustancia, explica su fisiología, y varios años más tarde investigadores dedicados a la bioquímica le dieron el nombre de Ácido Ribonucleico. Esta afirmación se desprende de lo anotado por el Dr. Alfonso Vélez Orozco en la semblanza que escribió sobre la vida y fecunda labor del ilustre mexicano el Dr. Ignacio González Guzmán, cuyos restos yacen en la Rotonda de los Hombres Ilustres desde el 7 de enero de 1974.
En los años correspondientes a 1963 y 1964, el Dr. Eucario López Ochoterena publica trabajos de fotomicrografía y uso del microflash (lámparas de destello para fotomicrografía que permiten obtener registros en fracciones de segundo) para estudios fisiológicos en protozoarios. La microscopía electrónica la trabaja por vez primera en nuestro país el maestro Nicolás Aguilera Herrera en 1946, cuando llega a la Escuela Nacional de Ciencias Biológicas del Instituto Politécnico Nacional un microscopio RCA consola (tipo escritorio) de 30 kv, con un poder de resolución de 100 unidades Angstrom y que permitía hasta 5000 aumentos. También se podían obtener electrofotomicrografías a razón de una cada media hora. En la Escuela Nacional de Agricultura, el maestro Aguilera y el Físico Efrén Fierro emplean en 1948, un microscopio de 50 kv y 100 unidades Angstrom de poder de resolución para desarrollar los estudios sobre arcillas. El Instituto Politécnico Nacional, en 1950, adquiere un microscopio de mayor resolución que los dos anteriores. En el Instituto de Estudios Médicos y Biológicos, el Dr. Jorge González Ramírez realiza por primera vez trabajos que culminan en publicaciones referentes a la aplicación del cultivo de tejidos y la autorradiografía, a él también se deben los trabajos pioneras de ultramicroespectrofotometría, que pusieron a México a la vanguardia de la microscopía mundial. El prestigio de González Ramírez como investigador y microscopista le merecieron ser el único latinoamericano que ha publicado en el Libro Conmemorativo del Centenario de la principal casa fabricante de microscopios en el mundo, fundada por Carl Zeiss y que continuó Ernst Abbe.
En la década de los sesenta la Universidad Nacional adquiere gran cantidad de equipo de microscopía, tanto fotónica como electrónica, el cual distribuyó en las Facultades de Ciencias, Medicina, Instituto de Física, entre otras. En 1965 el maestro Nicolás Aguilera, coordinador del Laboratorio de Edafología de la Facultad de Ciencias de la UNAM, produce gran número de trabajos de alto nivel académico a la vez que imparte cursos y conferencias sobre microscopía electrónica. Actualmente existen los siguientes centros y dependencias en donde se trabaja cotidiana e intensamente con microscopía fotónica: el Laboratorio de Cultivo de Tejidos del Instituto Nacional de Cardiología, a cargo del Dr. Agustín Chávez; el Departamento de Histología a cargo del Dr. Joaquín Carrillo, el Laboratorio de Microscopía Fotónica y Fotografía Científica (Microcine) de la Facultad de Ciencias de la UNAM. El Laboratorio de Biología Celular del Centro de Investigación y Estudios Avanzadas del IPN, a cargo del Dr. Adolfo Martínez Palomo y el Laboratorio de Palinología del Instituto de Geología de la UNAM, entre otros. La enseñanza de la microscopía electrónica ha sido impartida en cursos cortos e intensivos en diferentes dependencias de la UNAM, IPN, Centro Médico del IMSS y otras instituciones. Es actualmente en la Facultad de Ciencias de la UNAM, en el Laboratorio de Microscopía Electrónica, donde se imparte el Curso de Especialización en Microscopía Electrónica aplicada a las ciencias biológicas; este curso forma parte de los programas de la División de Posgrado de la propia dependencia universitaria. De 1965 a la fecha, la microscopía ha recibido un fuerte apoyo en las universidades del país y dentro de ellas hay maestros e investigadores destacados que cotidianamente trabajan con microscopía fotónica y electrónica. En un futuro análisis se presentarán datos acerca del estado actual de la microscopía en nuestro país.
|
![]() |
|||||||||||||||
Referencias Bibliografícas Arredondo, A., y A. Martínez Mena, 1978, La microscopía óptica en el estudio de los protozoarios de vida libre, Tesis Profesional, Facultad de Ciencias, UNAM. * Este artículo aparece en forma similar en el volumen 9 de la Enciclopedia de México, SEP, 1988. |
||||||||||||||||
_____________________________________________________________
|
||||||||||||||||
Alejandro Martínez M. Departamento de Biología, Facultad de Ciencias, UNAM. |
||||||||||||||||
_____________________________________________________________
|
||||||||||||||||
como citar este artículo ?
[En línea]
|
![]() |
![]() |
índice 13 → siguiente→ anterior → PDF → |
|||||||||
Julia Carabias L. | |||||||||||
Es necesario detener las tendencias actuales de destrucción del medio Hoy resulta un lugar común señalar que los ecosistemas de México están fuertemente deteriorados. Lo que hace algunos años se limitaba a la mera discusión académica o a la de algunas grupos de agricultores afectados, hoy es del dominio público. Los agudos problemas de la ciudad de México han contribuido a una toma de conciencia entre amplios sectores de la población y están obligando a la sociedad y al Estado a enfrentar un debate público importante. Sin embargo, en este proceso de análisis y discusión sobre el qué hacer con la ciudad, está quedando de lado una problemática no menos importante, la destrucción de los ecosistemas naturales y por lo tanto el deterioro de las áreas rurales. La contaminación atmosférica, las grandes urbes, la generación de basura, la escasez de áreas verdes y de agua, está captando el interés de millones de mexicanos, pero la deforestación, la erosión, la contaminación de las suelos, ríos y lagos, la extinción de especies, la sobreexplotación de algunos recursos y el desperdicio de otros, entre decenas de problemas ambientales, no reciben la misma atención. Quizás por falta de información, quizá por ver desde lejos estos problemas. En la ciudad de México, centralizadora de las actividades de difusión culturales, académicas, etc., no se sienten tanto los problemas del campo como los de la propia ciudad. Es necesario adelantarse y evitar que la toma de conciencia sobre el deterioro ambiental ocurra sólo cuando estos fenómenos afecten directamente a los ciudadanos, quizás manifestándose como escasez de alimento, de agua o de materias primas. El origen de la alteración del ambiente no es de épocas recientes. Sin embargo, ha sido en las últimas décadas que las alteraciones y transformaciones ambientales se han convertido en verdaderas destrucciones, las cuales en muchos casos son irreversibles. El desarrollo científico y técnico ha permitido un mayor control de la naturaleza y una disminución en la mortalidad de la población. El control de las enfermedades humanas y de los cultivos, los métodos modernos de extracción de recursos de manera más rápida, el incremento en la disponibilidad del agua gracias a nuevas formas de captación de la misma, la creación de centros urbanos, el desarrollo industrial, entre otros, han permitido la explosión demográfica al tiempo que han abierto nuevas formas de desarrollo. México optó a partir de los años cuarenta, por un proceso de modernización basado en el desarrollo de la industria. El sector agropecuario quedó rezagado y se incluyó dentro de este nuevo proyecto en la medida que fue capaz de proporcionar materias primas, alimento y mano de obra baratos. La población urbana creció en la década de los cuarenta en un 24% y en los años cincuenta en un 59%. Mientras tanto, la expansión demográfica rural registró un decremento de 15.9% y 16.1% respectivamente. Esto provocó que para fines de los cincuenta la población urbana y rural se emparejaran (17.706 y 17.217 millones de personas respectivamente) cuando en los años treinta esta proporción era de 33.5% y 66.5%. Durante este proceso de desarrollo se ha tenido una concepción equivocada sobre los recursos naturales renovables. Se entendió la renovabilidad como sinónimo de inagotable y no se tomó en cuenta que para que ello ocurriera, las leyes de la naturaleza deben respetarse y no someterse a los ritmos depredadores de este desarrollo. Sin embargo, la destrucción de los recursos naturales por un uso equivocado no es inherente al desarrollo, ni al control de la naturaleza por parte de las sociedades. Lo que ha ocurrido, sobre todo en países del tercer mundo que han sido los abastecedores de materias primas de los países industrializados, es que la extracción de recursos naturales se ha hecho bajo la lógica de la acumulación y reproducción de capital y no ha servido para la satisfacción de las necesidades nacionales y del bienestar nacional. Los actuales ritmos de extracción reflejan el objetivo de lograr la máxima ganancia en el menor tiempo posible y subestiman la erosión que sus tecnologías producen en la base material del propio desarrollo y en la destrucción del patrimonio natural. Los efectos de esta destrucción se manifiestan en la pérdida de áreas forestales, en la alteración de los ciclos hidrológicos, en la pérdida de suelo, en la contaminación de suelo, agua y atmósfera, en la pérdida de ecosistemas, en la disminución de las poblaciones de animales y de plantas e inclusive en la extinción de éstos. EL IMPACTO DE LA AGRICULTURA, LA GANADERIA Y LA EXPLOTACION FORESTAL SOBRE LA NATURAEZA Las actividades agropecuarias y forestales se realizan sobre los ecosistemas naturales pero la forma de apropiación de éstos varía según la actividad. En el caso de la agricultura se sustituye, generalmente por completo, la vegetación original. Al utilizar el suelo y agua de los ecosistemas, las especies vegetales y animales son eliminadas, lo que modifica las relaciones ecológicas originales. Esto da como resultado un ecosistema artificial, que se vuelve dependiente del manejo del hombre para su mantenimiento. Al ser alterados los ciclos de agua y de nutrientes y al sobrevenir la ruptura de las cadenas tróficas se requiere de factores externos para lograr un cierto equilibrio artificial. Los aportes de la revolución verde de los años sesenta fueron precisamente en este renglón. Tratando de optimizar la producción, se introdujo un paquete tecnológico que permitió, en su momento, elevar los rendimientos. Para subsanar la ruptura de los ciclos de nutrientes se introducen fertilizantes químicos. Asimismo, a fin de incrementar la disponibilidad de agua se incorpora el riego. Y para controlar los desequilibrios causados por la ruptura de las cadenas tróficas, se aplicaron insecticidas y herbicidas. Estos acaban con los insectos y plantas que, ante la nueva estructura del ecosistema artificial, encuentran condiciones favorables para su proliferación compitiendo con los cultivos. Este paquete tecnológico promovido a partir de la revolución verde, conlleva la siembra de monocultivos que permiten la homogenización de su manejo facilitando la introducción de maquinaria, tanto en la preparación de la tierra (arar con tractores), el cuidado del cultivo (aspersar con avionetas), como para la cosecha (con segadoras, por ejemplo). La mecanización e incorporación de insumos permitió la elevación de los rendimientos inicialmente, sin embargo, al poco tiempo se observaron efectos contraproducentes. Esta tecnología, desarrollada en los países industrializados con características ecológicas, económicas y culturales diferentes a las de México, no se adecúa a las condiciones de nuestro país. Se necesita aplicar en tierras planas, con disponibilidad de agua, ciclos climáticos constantes y predecibles y sobre todo, con capital suficiente para las obras de riego, la maquinaria y para los insumos (Toledo, et al., 1985). Por estas características, en México tales métodos sólo pueden operar en áreas restringidas como las del noroeste. Sin embargo, esto ha tenido sus costos importantes. En estas tierras el agua se obtiene del subsuelo, sobreexplotando los mantos freáticos. Los agricultores capitalistas que pueden mantener este tipo de agricultura, están acaparando el agua en detrimento de cientos de comunidades campesinas. Algunos ejemplos dramáticos de esta situación se están viendo en la comarca lagunera. Se estiran que se extraen para uso agrícola, industrial y doméstico cerca de 290 millones de metros cúbicos anuales de agua, siendo la recarga de sólo el 18% de lo extraído. El abatimiento de cerca de 1.7 metros por año ha provocado la movilización de aguas fósiles con altos contenidos de arsénico. Esta agua, que beben 400 mil campesinos, está afectando su salud. Se estima que el 56% de las habitantes padece de envenenamiento crónico de arsénico y hay una alta incidencia de cáncer epidérmico y problemas circulatorios que conllevan primero la amputación de miembros y posteriormente a la muerte. Se calcula que el promedio de edad ha disminuido entre 10 y 20 años (La Jornada, 23 de febrero de 1986). Desde hace varios años prevalece esta situación y sólo hasta ahora, cuando las organizaciones campesinas han logrado denunciar a nivel nacional el problema, el gobierno ha tomado cartas en el asunto y se tienen planeadas distintas acciones para atenderlo. Si bien este es un ejemplo extremo de lo que puede ocurrir con el abatimiento de los mantos freáticos, a otro nivel y con consecuencias no tan drásticas, está sucediendo lo mismo en muchas partes de la República. Los principios que vinieron a modificar la revolución verde no eran novedad. Lo nuevo fue la tecnología. Las culturas indígenas y campesinas agricultoras conocían desde tiempos inmemoriales los efectos de la alteración de los ecosistemas naturales por la introducción de la agricultura. Estas prácticas todavía sobreviven entre centenares de campesinos. Lejos de profundizar esas alteraciones, las tecnologías tradicionales resuelven el problema acercándose más y respetando las leyes de la naturaleza. Para reincorporar los nutrientes al suelo se deja descansar la tierra. Así, al cubrirse el terreno con vegetación espontánea se vuelven a incrementar los niveles de materia orgánica y tras la descomposición de ésta, se reincorporan los nutrientes al suelo. Para evitar la proliferación de plagas no siembran monocultivos que las estimulan, sino que intercalan varias especies permitiendo el desarrollo de cadenas tróficas más complejas, lo que dificulta que alguna especie predomine sobre las demás y se convierta en plaga. Es tradicional el cultivo de maíz, frijol y calabaza. También es común el control del agua por la vía de canales rústicos de riego; el control de la erosión por medio del terraceo o la construcción de bordos con troncos y lodo; la siembra de árboles o cactáceas que retienen suelo y permiten mayor filtración del agua; dejar árboles en pie que permiten la regeneración de la vegetación de manera más rápida una vez que se abandonan los terrenos, etc.
Asimismo, se tiene un conocimiento de las especies que pueden ser útiles y por lo tanto no se destruyen, sino por el contrario, se protegen y se estimula su crecimiento. Todos estos elementos, que han sido ampliamente ilustrados en los recientes estudios etnobiológicos, muestran que las comunidades campesinas con tradición y arraigo a sus tierras, aplican (o al menos tratan de hacerlo) tecnologías más acordes con las condiciones naturales. Desafortunadamente, estas tecnologías están siendo desplazadas de una manera vertiginosa por el paquete heredado de la revolución verde y equivocadamente adoptado e instrumentado por las agencias estatales que tienen que ver con la producción. El BANRURAL (Banco Rural) y la SARH (Secretaría de Agricultura y Recursos Hidráulicos) no sólo han fomentado la incorporación de fertilizantes, herbicidas, insecticidas, semillas mejoradas y en otras épocas incluso de tractores, sino que han llegado a condicionar la asesoría técnica, los recursos de inversión y los créditos para la producción, a la aplicación de estos paquetes tecnológicos. Ante la presión económica, los productores han tenido que sucumbir ante estas tecnologías, supuestamente modernas, sustituyendo con ellas sus propias tradiciones. Los resultados no han sido del todo halagadores. En un primer momento el fertilizante eleva la producción, pero realmente lo que hace es encubrir el deterioro, ya que prolonga el tiempo de uso de una parcela. Mantiene artificialmente la producción a niveles aceptables desde el punto de vista económico. Sin embargo, tarde o temprano, según las características del lugar, las parcelas tienen que ser abandonadas con la diferencia que cuando esto ocurre el grado de deterioro es mucho mayor, dificultando la recuperación de los terrenos. El restablecimiento de la vegetación natural en suelos muy deteriorados y agotados de nutrientes resulta mucho más difícil y lento, dando lugar a un proceso de erosión que puede llegar a ser irreversible. Esto obliga a abrir nuevas tierras forestales para las cultivos. El proceso se repite y a diferencia de lo que permitían las tecnologías tradicionales, es decir volver en algunos años a las parcelas en descanso (el tiempo depende de los ecosistemas de que se trate), ahora muchas de éstas quedan erosionadas y se pierden para la producción. La cuantificación de las áreas erosionadas en el país varía mucho dependiendo de los estudios. Se reporta que entre el 60 y 80% está afectado, de los cuales alrededor de un 30% se trata de una erosión muy severa. Las áreas más erosionadas son las de mayores pendientes y áridas o subhúmedas, en donde la limitante de agua no permite la presencia de una cubierta vegetal durante todo el año. Esta situación es diferente en el trópico húmedo. Una vez que se abandonan las parcelas agrícolas por la pérdida de fertilidad, el suelo se cubre inmediatamente con especies herbáceas, muchas de las cuales son gramíneas, por lo que se utilizan estos terrenos como potreros para la ganadería extensiva. En las ultimas décadas, el trópico húmedo ha visto perder sus exuberantes selvas dando paso a ineficientes potreros. La riqueza natural y diversidad que se encierra en una hectárea de selva tropical húmeda, que llega a sobrepasar las 250 especies de plantas y otro tanto de animales, se ve sustituida por una cabeza de ganado, que generalmente va a parar a los rastros de la ciudad de México y a las latas de leche deshidratada Nestlé. El 90% de las selvas se ha perdido, Veracruz, Campeche, Chiapas, Tabasco se convierten rápidamente en un enorme potrero. El problema de la ganadería en otras regiones es diferente. En el norte del país, donde está concentrada la mayor cantidad de ganado vacuno, la ganadería se establece en los ecosistemas naturales, particularmente en matorrales. La superficie que una vaca requiere para alimentarse en estas condiciones puede llegar a ser de 20 a 40 hectáreas. Esto, dado las características de la legislación que establece como pequeña propiedad ganadera aquella que sea necesaria para sostener a 500 cabezas de ganado, propicia la reconcentración de tierras en neolatifundios de hasta 20 o 25 mil hectáreas. Encontraste, la mayoría de los campesinos de este país sólo cuentan con 1 hectárea para cultivar. La ganadería extensiva, por un lado, es un serio problema ecológico que destruye sistemas naturales y desperdicia decenas de especies útiles que podrían aprovecharse. Por el otro, genera un importante problema social y profundiza las desigualdades de los productores del campo. Se conocen tecnologías alternativas a esta ganadería extensiva y se han probado con éxito en otras partes, a nivel experimental o en pequeña escala. La alimentación del ganado con forrajes naturales o con los esquilmos agrícolas que se producen anualmente por toneladas (bagazo de caña, maíz, cascarilla de arroz, etc.) permiten el establecimiento de una ganadería semi intensiva, que no requiere de grandes inversiones ni de tecnologías dependientes, ni sofisticadas. La instrumentación de esto, sin embargo, debe ir acompañada de una profunda reforma del sistema pecuario del país, particularmente lo que se refiere a la propiedad de la tierra. Ello implica la voluntad de enfrentar a poderosos grupos de ganaderos, pero no parece ser el interés de los gobiernas que se han sucedido en la historia reciente del país. El legado del general Cárdenas con respecto a la afectación de los latifundios fue rápidamente modificado por Miguel Alemán, al reformar el artículo 27 constitucional y definir la pequeña propiedad ganadera en los términos ya mencionadas. Otra actividad que impacta de manera importante el estado de los ecosistemas naturales es la actividad forestal. La extracción anual de madera es aproximadamente de 9.5 millones de metros cúbicos en rollo, los cuales se destinan principalmente para productos de aserrío y en segunda término a la celulosa. El 80% de la madera proviene de la explotación de las distintas especies de pino, extraídas de Durango, Chihuahua, Michoacán y Jalisco. Basar la producción maderable sólo en el pino ha sido causa de un deterioro de las zonas templadas. Esta sobreexplotación de los bosques de pinos contrasta con el desperdicio de recursos maderables de las zonas tropicales, En las selvas, a pesar de que se tumban centenares de hectáreas para convertirse primero en campos agrícolas y después en potreros, la madera no es utilizada más que para el autoconsumo, el resto generalmente se quema. Sólo las maderas preciosas tropicales tienen demanda y un mercado establecido. Durante décadas han sido extraídas sin preocuparse de su capacidad regenerativa. Por ello casi se han agotado, afectando no sólo el hábitat que ocupan, sino la intrincada cadena trófica de la cual forman parte. Tal es el caso de la caoba, que en la selva lacandona constituía un recurso abundante en el pasado. Otra forma de explotación forestal es la de productos no maderables como las resinas, fibras, rizomas, ceras, gomas, entre otros. La mayoría de éstos se exportan como materias primas. La falta de regulación en la explotación de los recursos no maderables, ha ocasionado también daños a los ecosistemas en donde habitan. Un ejemplo conocido es el tráfico que existe con la palma Chamaedorea, componente del sotobosque de las selvas tropicales, que por millares es vendida diariamente en el clandestinaje.
Estas natividades agropecuarias y forestales no están coordinadas entre sí, ni tienen incorporadas en sus programas de desarrollo los elementos ambientales. Por ello en su ejercicio provocan severos daños a la naturaleza. Se han destinado aproximadamente 20 millones de hectáreas a la agricultura, entre 80 y 100 millones a la ganadería, se estima que entre 400 y 800 mil hectáreas se desforestan anualmente. Más de 60 millones de hectáreas están seriamente erosionadas y otros 70 millones con erosión moderada y casi un 15% de la flora mexicana se ha declarada en peligro de extinción. Ante esta situación resulta preocupante el futuro de los ecosistemas naturales del país y de su flora y fauna. Sólo el 0.86% del territorio se encuentra protegido en alguno de los diferentes tipos de parques nacionales, reservas de la biosfera, reservas ecológicas, parques urbanos y monumentos naturales. Peor aún, el 50% de estas áreas con jurisdicción de protección, también están deterioradas por la tala, sobrepastoreo, erosión y por carecer de recursos financieros suficientes. Además, la representación de los distintos ecosistemas es muy desproporcionada y absolutamente insuficiente. El 87% corresponde a zonas templadas, el 3% a las áridas, 9% a tropicales y el 1% son insulares. EL PETROLEO Y LOS RECURSOS RENOVABLES Otra actividad productiva que ha sido causa de destrucción de los ecosistemas es la petrolera. La exploración de las reservas, la extracción de petróleo, la transformación de éste en las refinerías y petroquímicas y los accidentes y fallas, han perturbado profundamente el agua, suelo y la atmósfera de ecosistemas terrestres y acuáticos y esto a su vez ha afectado a otras actividades como la pesca, la agricultura y la ganadería, ya la salud humana (Carabias y Batis, 1985). El trópico húmedo es la región que ha sido más alterada. En ella se encuentran las mayores reservas de petróleo, concentrándose, además de los pozos, la industria petroquímica. Es conocida la destrucción de la flora y la fauna del río Coatzacoalcos debido a la contaminación de las aguas causada por los desechos de la petroquímica. La Cangrejera, Pajaritos, Minatitlán-Cosoleacaque y la alteración provocada al pantano de Santa Alejandrina con los 40 cm de grasas, aceites y fenoles que se depositaron en él. Los efectos no sólo recayeron en la flora y fauna local, sino en numerosas especies de aves migratorias (Toledo, 1984). Otros ríos afectados han sido el Usumacinta-Grijalva por la presencia de Cd PEMEX, Cactus y La Venta; el Papaloapan por Matopiche y el Pánuco por Cd. Madero. Diversas y productivas lagunas también se han visto afectadas. Por ejemplo, Tamiahua en Tamaulipas, Términos en Campeche, El Ostión en la desembocadura del Coatzacoalcos y Superior en Oaxaca. Los motivos de la contaminación en todos estos casos son diferentes. En algunas lagunas la exploración ha producido derrames, en otras la petroquímica vierte sus desechos a las aguas, en otras más las obras de construcción y la instalación de ductos ha destruido selvas, manglares, palmares, pastizales y campos de cultivo. Los efectos se manifiestan en la destrucción de ecosistemas y en la pérdida de tierras y aguas productivas. Numerosas son las denuncias y demandas de campesinos en Tabasco que han perdido tierras, cultivos y animales o de cooperativas pesqueras, que no sólo han visto desaparecer especies de peces de los lagos y lagunas, disminuir drásticamente sus poblaciones, acabar con los cultivos de camarones y ostiones, sino que también sus artes de pesca se han deteriorado por el aceite, grasa y chapopote. Entre los accidentes más espectaculares hay que recordar el caso del IXTQC I en 1979, que derramó al mar más de 9 millones de barriles de petróleo crudo. A pesar de la permanente negativa por parte de PEMEX de aceptar que los efectos fueron muy nocivos para los ecosistemas marinos donde ocurrió el derrame y por lo tanto para la pesca, algunos estudios han mostrado los impactos nocivos y los pescadores son testigos de la pérdida de la producción. LOS SISTEMAS URBANOS Otro factor de transformación de los ecosistemas naturales ha sido la construcción de ciudades, pues como sistemas artificiales, requieren para funcionar de una serie de elementos del ambiente natural —agua, alimentas, energía, materias primas— que son la base de sustento de los habitantes, la industria y de los servicios de las ciudades, son transformados y generan desechos que regresan a la naturaleza. Este mecanismo de entradas y salidas a las sistemas urbanos no tendría en si mismo que significar un deterioro del ambiente. El problema surge cuando la demanda de elementos es de tal magnitud que se produce un saqueo de los ecosistemas y la salida, es a su ves, en volumen y calidad, imposible de degradarse con los mecanismos naturales de regulación del ambiente. La cantidad de alimentos, energía, agua y materias primas que demandan las ciudades y los desechos que producen —particularmente la ciudad de México— ha devastado enormes extensiones de vegetación para la obtención de maderas, carne, leche y otros alimentas y ha contaminado suelo, agua y atmósfera, no sólo de sus alrededores, sino hasta de áreas de influencia considerable. La ciudad de México con sus casi 18 millones de habitantes, ocupa el segundo lugar en población en el mundo y el primero en contaminación. Asentada en un medio natural poco favorable por su altitud, escases de agua y cordilleras circundantes, presenta en la actualidad serios problemas que requieren de una atención inmediata. Entre los más evidentes se pueden mencionar los siguientes: Circulan mas de 2.5 millones de vehículos, mal afinados, con motores no aptos para la altitud de la ciudad, sin filtros anticontaminantes, que utilizan combustibles —gasolina y diesel— generando altas concentraciones de contaminantes (plomo, azufre, hidrocarburos, monóxido de carbono, óxidos de nitrógeno). Existe una planta industrial de varios millares que, por falta de dispositivos anticontaminantes, arrojan a la atmósfera y al agua diversos contaminantes nocivos para la salud y para las tierras agrícolas. Además de los ya mencionados habría que añadir los metales pesados. Dentro de estas industrias algunas son inseguras, significando un peligro potencial, debido al mal estado de sus instalaciones o a las características intrínsecas de lo que producen. Por otro lado, se generan más de 15 mil toneladas diarias de basura la cual es depositada en su mayoría en tiraderos a cielo abierto. Esto provoca la proliferación de organismos patógenos como hongos, virus, ratas, moscas, cucarachas, etc., todos ellos dañinos para la salud. Además contaminan el agua del subsuelo que se filtra a través de estos depósitos de basura. En los tiraderos viven comunidades enteras de ciudadanos en condiciones infrahumanas. Se estima que el promedio de edad de los pepenadores es de 35 años. Desde su nacimiento los niños crecen y se alimentan en estos basureros. Existen mafias reconocidas que controlan a los pepenadores y los mantienen en estas condiciones de insalubridad y miseria. La demanda de agua es de aproximadamente 60 m3 por segundo, de los cuales aproximadamente tres cuartas partes se obtienen del subsuelo. La extracción de esta agua es más rápida que la recuperación de los mantos acuíferos. Esto ha provocado un deterioro del subsuelo, hundimientos, disminución de las reservas e inclusive agravó los efectos de los temblores del 19 y 20 de septiembre de 1985. El resto del agua proviene de los ríos Lerma y Cutzamala y provoca también daños a las áreas rurales. La tendencia a cubrir la ciudad de cemento eleva la humedad del ambiente. No sólo el daño es en el ambiente, sino que el sistema de distribución desigual del agua provoca que más de 3 millones de habitantes carezcan de este líquido. La falta de servicios sanitarios obliga a más de 3 millones de personas a defecar al aire libre, lo cual, aunado a cerca de 2 millones de perros, genera una contaminación dañina a la salud, que es desparramada por los vientos. Todos estos problemas se ven agudizados por la falta de áreas verdes. No existen suficientes espacios para el recreo y esparcimiento. Además, las áreas verdes controlan la temperatura y humedad del ambiente y filtran agua al subsuelo. El desarrollo desigual que se da entre el campo y la ciudad, en donde el primero es subordinado al crecimiento de las urbes, por ser en ellas donde se llevan a cabo los procesos industriales, se refleja en un profundo deterioro del ambiente. Para revertir esta situación no basta con atender las áreas deterioradas, regenerarlas, descontaminarlas, desalinizarlas, etc. Esto, además de ser necesario, puede convertirse en una carrera sin fin si no se incide directa y profundamente en las causas de ese deterioro. Un modelo de desarrollo que contemple la satisfacción de las necesidades básicas de la población y no el lucro y reproducción del capital, y que en esa medida extraiga recursos para lograr ese fin, atendiendo en todo momento las características de renovabilidad de la naturaleza, puede ser un modelo de desarrollo que no se contraponga a la preservación de los ecosistemas y que incluya a las futuras generaciones. |
|
![]() |
|
||||||||
|
|||||||||||
Referencias bibliográficas
Caballero, J., et al., Flora útil o el uso tradicional de las plantas, Biótica, 3, p. 102-186. |
|||||||||||
____________________________________________________________
|
|||||||||||
Julia Carabias L. como citar este artículo → |
cuento |
|
![]() |
PDF →
|
|||||||
![]() |
||||||||||
El búho | ||||||||||
Julieta Fierro G. | ||||||||||
Había una vez un orador, era un búho sabio, vivió hace muchos años, tantos que era cuando los búhos estaban despiertos de día. Ojeando el Ciencia y Desarrollo encontró un artículo sobre comunicación. Ahí decía que cuando uno escribiera el guión para un discurso era muy importante darlo a leer a algún colega, porque aún el más inteligente de los redactores suele cometer errores.
El búho le dio su manuscrito al pavo real, a la víbora y a la zorra. El pavo real se había rodeado de tal cantidad de objetos superfluos que le fue muy fácil perder el manuscrito y argumentar que no había tenido tiempo de leerlo; además así logró esconder su ignorancia, pues era corto de espíritu. La víbora hizo algunos comentarios sobre la forma y después corrió el chisme de que el búho no sabía de lo que estaba hablando y que no comprendía como semejantes lechuzas podrían pertenecer al “reino animal”. La zorra hizo algunos comentarios de fondo pero no los más importantes, esos los guardó para rebatir en público al búho. A pesar de que el búho era un animal sabio, era inseguro. Desde entonces el búho es un ave nocturna. |
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
Julieta Fierro G.
|
||||||||||
_____________________________________________________________
|
||||||||||
como citar este artículo ?
[En línea]
|
![]() |
![]() |
índice 13 → siguiente → anterior → PDF → |
|||||||||||||
Montserrat Gispert, Armando Gómez y Alfredo Nuñez | |||||||||||||||
La interacción Naturaleza-Sociedad puede ser abordada a partir de perspectivas distintas. Una de ellas es la de la Etnobotánica. Las definiciones y los conceptos que de esta disciplina existen son limitados, porque la praxis, a través del tiempo, se ha encargado de cuestionarlos. Para adentrarnos en la concepción y el quehacer de la Etnobotánica, es imprescindible remontarnos a los antecedentes universales y nacionales que le fueran dando cuerpo. A continuación se presenta un breve recuento histórico, mencionando algunos de los trabajos más sobresalientes en este campo. La cultura del vegetal desde tiempos prehispánicos, ha tenido gran relevancia; lo evidencia, el conocimiento, manejo y aprovechamiento de los recursos naturales que poseían los antiguos mexicanos; esta sabiduría se reflejó en el interés que sus gobernantes tuvieron por establecer diferentes tipos de jardines botánicos en donde se cultivaban plantas de ornato, medicinales, alimenticias, que eran colectadas en todos los rincones posibles.
Así tenemos que el primer jardín botánico del Anáhuac lo fundó Nezahualcóyotl en 1402, en el reino de Texcoco, siendo uno de los centros de herbolaria del México precortesiano destruido durante la conquista, al igual que el fundado por Moctezuma Ilhuicamina en Oaxtepetl, que fue el más famoso y notable de los jardines de plantas aztecas en el cual Francisco Hernández tuvo todavía oportunidad de trabajar al llegar a México. Moctezuma Xocoyotzin fundó varios jardines en Tenochtitlán, Ixtapalapa, Azcapotzalco, Coyoacan, Tepoztlán, Tollancingo, Huauchinanco, Xicotepetl, Quauhnahunc, el del cerro del Peñón, el de Atlixco. El de Chapultepetl era uno de los principales. Acerca de su trascendencia, De Gortari (1963) comenta: “Los conocimientos sobre nuevas yerbas medicinales se propagaban con rapidez, lo que permitía que se cultivaran y aprovecharan por la mayoría. De esta manera, los jardines botánicos fueron centros de investigación y aprendizaje tanto sobre vegetales nativos como sobre los procedentes de otros lugares. Más aún, los aztecas adoptaron la costumbre de imponer como pago el envío de plantas”. Es evidente que la conservación de las plantas in vivo requería de un gran saber edáfico, climático, biogeográfico, fenológico, fisiológico y ecológico. Esta sapiencia a pesar de haber sido soslayada y devastada, fue recuperada parcialmente en una serie de documentos trascendentales como son los códices, en particular en el Códice Cruz-Badiano (1552) “De Libellus Medicinalibus Indorum Herbis”, elaborado dentro del contexto del mundo indígena por el médico xochimilca Martín de la Cruz en dónde aún se plasma, en el diseño pictórico, el conocimiento y uso de las plantas medicinales. La traducción al latín por el indígena bilingüe Juan Badiano, presenta concepciones y términos hipocráticos. Autor y traductor, fueron egresados de la escuela Santa Cruz de Tlaltelolco, pilar de la aculutración forzada en el ámbito educativo del México antiguo. Otra obra esa la de Fray Bernardino de Sahagún, para muchos el primer etnólogo mexicano. Se acercó a la Botánica Tradicional por medio de un proceso de evangelización, cuya finalidad ideológica era la destrucción de los cultos nativos e imposición de la religión católica. Como resultado de esta acción surgen “La Historia General de las cosas de la Nueva España” (1573) y el “Códice Florentino” (1569) tomando como sustento metodológico el dominio del idioma y las entrevistas con miembros de la gerontocracia nativa, lo que le permitió presentar un panorama global de la cultural náguatl (López, A., 1976 en: Martínez, J. (comp.)). En su marco teórico, la botánica popular jugó un papel fundamental en el proceso de dominación, ya que en ella confluían aspectos religiosos, sociales, económicos y políticos que debían ser destruidos. El libro XI de su Historia General trata de las propiedades de “Los animales, aves, peces, árboles, hierbas, flores, metales, piedras y de los colores”. En el párrafo referente a los árboles frutales y a las hierbas comestibles, sienta los fundamentos de las técnicas de entrevista y encuesta globales y no sólo de la singularidad. Por ejemplo, cuando habla sobre las hierbas comestibles pregunta: ¿cuál es el origen de su nombre?, ¿cuál es su aspecto?, ¿a qué saben?, ¿cómo se comen?, etc. Este tipo de método es retomado en la actualidad como un aporte primordial al desarrollo de la Etnobotánica. A diferencia de Sahagún, el protomédico Francisco Hernández llega a México bajo el mandato expreso del imperio español, para llevar a cabo un listado de plantas medicinales que reforzaría la farmacopea mexicana y renovaría la monumental obra De Historia Plantarum Novae Hispanie. Es con Clavijero y Del Paso y Troncoso en 1780 que se inicia el proceso de ratificación de los valores culturales de las etnias del México precolombino. Del Paso y Troncoso señala que la iconografía del códice Cruz-Badiano revela, a través de la nomenclatura pictórica un saber tradicional que no debe ponerse en duda, pues esta nomenclatura, que es anterior a la linneana posee grandes analogías con ésta. Esto se pone de manifiesto en la tesis que sostiene Del Paso y Troncoso, de que lo náhuatl tenían dos tipos de nomenclatura botánica: una de tipo morfológico y ecológico y otra que se refería a las virtudes de las plantas.
Uno de los acontecimientos que permitió el restablecimiento de un jardín botánico y la impartición de la primera materia de Botánica, fue la expedición enviada por Carlos III, e integrada por los naturalistas Martín Sessé y Lacasta, Vicente Cervantes y el dibujante Juan Cerda entre otros. A ella se incorporó después el mexicano José Mariano Mociño. Esta primera cátedra de Botánica fue asignada a Vicente Cervantes el 1° de mayo de 1788 y estaba dirigida a médicos con el fin de que conocieran las propiedades y virtudes curativas de algunas plantas medicinales. Desde ese tiempo y hasta principios del presente siglo, la asignatura de Botánica se consolida como cátedra esencial al interior de las escuelas de Medicina, Química, Agronomía y Biología. No obstante, poco a poco la enseñanza de la botánica se aísla y descontextualiza como fiel reflejo de una doctrina que se implantó y que persiste en la actualidad: el Positivismo. En México, el positivismo se convirtió en la expresión ideológica de un grupo social y político llamado los “Científicos” cuya finalidad era formar “hombres prudentes, indiferentes, juiciosos y sumisos”, para justificar sus prerrogativas. “La educación fue el arma de que se valió la burguesía mexicana para persuadir a otras clases…” de que su Orden “… era el Orden de la sociedad”.
La interpretación de esta filosofía va aún más lejos al proponer “eliminar de los mexicanos los defectos de la raza latina y obtener las cualidades de la raza sajona”. (Zea, L., 1943-1944). A pesar de los cambios políticos y sociales que generó la Revolución, el contenido filosófico de la educación mantiene, hoy en día, ciertas rasgos positivistas. Ejemplos de ello son: 1) la enseñanza ahistórica de la Botánica (sin vínculo alguno con los procesos que dan lugar al surgimiento y desarrollo de esta disciplina); 2) el enciclopedismo (un cúmulo de información desconexa); 3) el memorismo (que centra su atención en la repetición mecánica de los aspectos teóricos y prácticos, sin una orientación analítica y crítica). Estos rasgos, aunados a la tendencia a utilizar y reproducir la literatura científica que enseña e ilustra únicamente el conocimiento de la vegetación de otras latitudes (Estados Unidos, Francia e Inglaterra), da como consecuencia inevitable el desconocimiento total del origen, manejo y aprovechamiento de la flora mexicana. A lo larga de varias décadas, esto se ha visto reflejado no sólo en la instrucción formal de la Botánica sino también en la manera de concebir y hacer ciencia. El ignorar la cultura vegetal tradicional ha desembocado en la ausencia de una educación y conciencia botánica en todos los niveles de aprendizaje del sistema nacional. Como puede notarse, la instrucción de la botánica en México ha estado circunscrita a moldes rígidos, arcaicos y anacrónicos que no han permitido una interpretación real de los ecosistemas y sus recursos. A nivel internacional, la Botánica se mantuvo durante largo tiempo bajo la misma concepción hasta que Agustín De Candolle (1819 en: Porteres, R. [comp.], 1970), J. W. Harshberger (1896 Ibidem), Vavilov (1951), Vestal y Schultes (1939 Ibidem), vuelven la mirada hacia la sabiduría tradicional en sus investigaciones, con el propósito de retomarlo para fines utilitarios, desatendiendo el papel que juegan las plantas en el contexto cultural de las etnias estudiadas. Se debe a Harshberger la acuñación del término Ethnobotany (del Latín Ethnobotani). En 1941 Volney Jones y en 1946 Louis Hedin (Ibidem), van más allá de la sola idea de plantas útiles al integrar en sus estudios aspectos filosóficos, mitología, folklore, religión y nociones de botánica. G. P. Murdock (1950 Ibidem) y Harold C. Conklin (1954 Ibidem) consideran que la Etnobotánica es una parte de la Etnociencia, entendida ésta como el saber tradicional a todos las niveles; Conklin considera que la Etnobotánica debe formar parte de las Ciencias Humanas o las Ciencias Sociales, mencionando que la Botánica Científica debe abordarse únicamente para esclarecer las diferencias entre los dos sistemas semánticos. Jaques Barrau (1965 en: Porteres, R. [comp.] 1970), señala que el acercamiento a la investigación Etnobotánica debe enfocarse sobre todo, tomándola como una disciplina autónoma, aunque las Ciencias Sociales y las Ciencias Naturales intervengan en su estructuración haciéndola una rama interdisciplinaria de la Ciencia. Berlin, Breedlove y Raven (1974), implantan un esquema en el cual la Etnobotánica basa su percepción en el análisis lingüístico formal, dejando de lado al hombre como ente cultural, modelo que ha sido severamente criticado por Friedberg (1974) entre otros. En México, la etnobotánica presenta diversas interpretaciones; Manuel Maldonado Koerdell (1940) la integra a las ciencias antropológicas, permitiendo ampliar el objeto de estudio al contemplar la significación cultural de la naturaleza y el impacto que ésta tiene en los diversos grupos étnicos, mientras que Efraím Hernández X. (1976), propone que el modelo etnobotánico está determinado por el medio y la cultura, planteando que el estudio de la relación hombre-planta se encuentra definido dentro del campo parcial y/o total de diversas disciplinas científicas. Alfredo Barrera Marín (1976) insiste en la interdisciplinariedad hablando a favor de la sabiduría botánica tradicional, señalando además la gran importancia de llevar a cabo estudios regionales. A su vez, Miguel Ángel Martínez Alfaro (1976) destaca la importancia de la unión entre Ciencias Sociales y Naturales, que serían el puente entre los portadores nativos de la cultura y el investigador. La reversión del conocimiento botánico tradicional es una preocupación constante en Víctor Toledo que desde 1974 plantea modelos que pueden conducir a dilucidar esta problemática. La Antropología Mexicana participa activamente en la investigación etnobotánica y va a ser el lingüista Roberto Escalante (1974) quien encabeza los modernos estudios etnocientíficos, retomando los modelos de Conklin y Berlin. Como resultado del análisis de esta síntesis histórica, es factible llegar a la conclusión de que la mayoría de las definiciones que existen de la Etnobotánica son descriptivas e incompletas por naturaleza, por lo cual forman parte de una limitante teórica que puede invalidar a la Botánica tradicional como reflejo de la cosmovisión de las pueblos. El resultado de la confrontación constante entre la teoría y la practica ha demostrado al grupo de Etnobotánica de la Facultad de Ciencias que la percepción integral que tienen de la naturaleza las distintas comunidades estudiadas, es convergente, ya que ella corresponde a la cosmovisión que poseen sus pobladores aún en tipos tan disímbolos de vegetación como lo pueden ser un Bosque Tropical Perennifolio (con 4000 mm de precipitación anual) y un Bosque Tropical Caducifolio (con 684 mm de precipitación anual). Esta visión, que llamamos holística, se refleja en su interacción con las plantas, las cuales no son visualizadas como individuos aislados sino dentro de una matriz que engloba, por un lado, aspectos ecológicos (suelo, clima, vegetación, geología, hidrografía, topografía); fenológicos (floración, fructificación, polinización, dispersión); fitogeográficos (regionales); taxonómicos (sistemas de clasificación y nomenclatura) y las características y propiedades de las plantas (medicinales, mágicas, rituales, alimenticias, maderables, ornamentales, etc.). Por el otro, incluye aspectos socio-culturales tales como: costumbres, creencias, religión, festividades, mitos y leyendas, cosmogonía. Este equipo de trabaja, ha propugnado por la recuperación y revaloración del saber tradicional —holístico— que existe primordialmente en los asentamientos rurales a través de tres líneas de investigación: 1) El espacio natural, 2) El espacio transformado y 3) La percepción del medio. En la primera línea quedan incluidos los estudios sobre recursos vegetales silvestres con usos alimenticios, medicinales, ornamentales y maderables. En la segunda, se incluyen las huertas familiares, los procesos de domesticación y el estudio de los sistemas agrícolas tradicionales. La tercera comprende los sistemas de nomenclatura y clasificación. Estas tres líneas de investigación científica están interrelacionadas, respondiendo así a la concepción totalizadora de la Naturaleza que tienen los habitantes de estas zonas. En cuanto al método, la columna vertebral es la entrevista abierta y la observación directa y participativa. A través de las experiencias obtenidas en el estudio de esta disciplina, se ha constatado que: 1. Las definiciones sobre etnobotánica son limitadas. 2. Hay percepciones de la naturaleza diferentes a las nuestras. 3. Existe un saber y una utilización del recurso natural vegetal silvestre propio de cada grupo humano, pero convergente en su cosmovisión. 4. La forma de explotación y conservación de los recursos vegetales por parte de las comunidades rurales entra en contradicción con las políticas económicas (capitalismo dependiente) del gobierno central.
Lo que ha sucedido hasta ahora, es que a la Etnobotánica se ha manipulado como si fuese una papa caliente en las manos que urgía colocar inmediatamente en algún lugar. Es por ello que hoy proponemos hacer un alto en el camino, el cual permita dar cauce a esta nueva orientación en la que quede inmerso el saber ancestral de los grupos humanos estudiados, su cultura, la naturaleza, sus recursos; y nosotros con los resultados de nuestras investigaciones. Es decir, abrir un abanico de posibilidades viables, desde la problemática que nos atañe —la biológica—, en la que se produzcan modificaciones que, respetando tanto el conocimiento tradicional como el científico, repercutan en el avance y en el bienestar más equitativo de la sociedad. Es aquí donde debemos ampliar las posibilidades de la Etnobotánica para que al ligar los eslabones del saber tradicional que poseen las comunidades rurales con las del conocimiento occidental, experimentemos un acercamiento, diferente al actual, hacia la naturaleza. Si esto no se da, en el futuro seguirá sucediendo lo que actualmente acontece. Por un lado, el desplazamiento de los cultivos oriundos de Mesoamérica por otros introducidos del exterior, los cuales ni cultural ni económicamente responden a las necesidades de nuestro pueblo; el “maíz”, (Zea mays L.) substituido por gramíneas forrajeras como el sorgo (Sorghum vulgare Pers.), el “pasto estrella de África” (Cynodon plectostachyus Pilger.), etc. Por el otro, la inexistencia de un inventario florístico y de un registro de recursos vegetales que incluya el saber tradicional sobre su manejo potencial, lo que lleva a la falta de comercialización y exportación de especies nativas como son los casos del “tejocote” (Crataegus mexicana Moc. & Sess.), el “capulín” (Prunus capuli Cav.), el “marañón” (Anacardium occidentale L.), el “huautli” o “amaranto” (Amaranthus hybridus L., A. leucocarpus Wats.), etc. Subsanar estas deficiencias no es tarea fácil. Un camino a recorrer podría ser el del proceso de enseñanza-aprendizaje de la Botánica —y particularmente de la Etnobotánica—, la revalorización del recurso vegetal desde una nueva óptica que contemple las esferas de la cultura, la economía y la política, para arribar a un cambio radical en el diseño curricular que permita un acercamiento cada vez más orgánico a la relación dialéctica Sociedad-Naturaleza. Además, es indispensable que todas los involucrados en las tareas de docencia e investigación de estas disciplinas lleven a cabo una reflexión profunda, que permita generar una conciencia de cambio. Proponemos tres puntos de partida: 1. El conocimiento científico universal. 2. El saber tradicional de los pueblos 3. El establecimiento de grupos de investigación interdisciplinarios. El segundo, entendido como la representación de una herencia cultural que debe ser validada para construir la base de un nuevo conocimiento. La Etnobotánica no puede seguir circunscrita al rescate y revaloración del saber tradicional como objeto de culto o contemplación de las comunidades rurales. Si queremos realmente que se comporte como una disciplina transformadora, debe responder a dos grandes retos: i. Formar nuevas generaciones de educandos que conozcan la potencialidad de la flora nacional y asuman una actitud de responsabilidad crítica y de defensa ante los grupos de poder que hacen un manejo expoliador de la naturaleza. ii. Ser la punta de lanza en la búsqueda de nuevas alternativas en el manejo de los recursos vegetales a partir de la conjunción: saber tradicional 1 conocimiento científico. La constancia de más de un saber es innegable. La existencia de una sola verdad es inadmisible. La pujanza renovadora de la Etnobotánica ha empezado, su progreso es nuestra responsabilidad. |
|
![]() |
|
||||||||||||
|
|||||||||||||||
Referencias bibliográficas
Barrera, A., 1976, en: Barrera, A. (ed.), 1979, La Etnobotánica: tres puntos de vista y una perspectiva, INIREB, Xalapa. |
|||||||||||||||
____________________________________________________________
|
|||||||||||||||
Montserrat Gispert
Departemento de Biología, Facultad de Ciencias, UNAM.
Armando Gómez
Departemento de Biología, Facultad de Ciencias, UNAM.
Alfredo Nuñez
Departemento de Biología, Facultad de Ciencias, UNAM.
como citar este artículo → |
orion |
|
![]() |
PDF →
|
|||||||
![]() |
||||||||||
La montaña más alta del mundo Calisto Nuevas estructuras alrededor de la nebulosa del anillo |
||||||||||
Julieta Fierro | ||||||||||
La montaña más alta del mundo Si las mediciones hechas por personal de la Universidad de Washington, basadas en datos obtenidos por satélite son correctas, el Monte Everest no es la montaña más alta del mundo. De acuerdo con lo reportado por el astrónomo George Wallerstein, la altitud de k2, que se pensaba era el segundo pico del mundo, estaba subestimada en 330 metros. Las mediciones efectuadas por Wallerstein indican que la altura k2 en la cordillera de Karakoram,a lo largo de la frontera entre China y Pakistán, no es de 8,610.6 metros como especifican los atlas, sino cuando menos de 8,858.7 metros. Con relación al Monte Everest, localizado en la frontera de China y Nepal a 1 288 km de distancia, tiene una altitud de 8,847.7 metros. Wallerstein, un montañista experimentado, encontró este nuevo valor para la altitud de k2 durante la expedición que hizo a este lugar en 1986. El jefe de la expidición Lance Owens, tomó a Wallerstein como sherpa voluntario y le pidió que le ayudara a medir la altitud de k2 utilizando técnicas modernas. Para medir la altitud de k2 se aplicó el efecto Doppler. Ondas de radio provenientes de un satélite en órbita circular alrededor del centro de la Tierra, sufren corrimiento Doppler que depende de la distancia del observador al centro de la Tierra. Si en efecto k2 es el mayor pico de la Tierra, los honores de la primera escalada corresponden a los alpinistas italianos, Aquiles Compagnoni y Lino Lacadelli, quienes alcanzaron la cima el 31 de julio de 1954 a las 18 horas.
Calisto A Júpiter se le conocen 17 satélites; Galileo descubrió cuatro y por ello fueron llamados satélites galileanos; son esféricos, de gran tamaño y visibles con un telescopio pequeño. Calisto es el satélite galileano más lejano de Júpiter. A primera vista se parece a la Luna, es 44% mayor que ésta, aparece cubierto de cráteres y siempre muestra la misma cara a Júpiter, pero no tiene una composición de roca sólida como el satélite terrestre. La densidad media de Calisto es sólo 1.79 g/cm3, lo cual implica que no puede ser totalmente sólido (la densidad del agua es 1 g/cm3, y la de la Tierra 5.5 g/cm3). Se piensa que Calisto posee un pequeño núcleo sólido rodeado de agua parcialmente fundida. La corteza está compuesta en un 90% de hielo de agua, además tiene polvo y fragmentos de roca. Las fotografías de Calisto dejan apreciar que es un mundo muerto con la superficie cubierta de cráteres producidos por impactos de meteoritos y carece de regiones parecidas a los mares de la Luna. El cráter Valhalla mide 350 km de diámetro y está rodeado de arrugas concéntricas parecidas a las de un tablero de tiro al blanco cuya extención abarca hasta 2,000 km del centro, aproximadamente. En Calisto casi no hay relieve, es decir presenta pocas montañas y valles; esto, probablemente se debe a la combinación de tres efectos: es posible que la profundidad de un cráter por impacto no produzca un agujero tan profundo cuando la superficie es de hielo en vez de roca. Cuando se ha horadado un cráter puede ir borrándose por flujos de hielo, parecidos a los glaciares; si se llegara a dormar un promontorio de tamaño y masa considerables se sumergiría, ya que el interior de Calisto es líquido. Aunque la supericie de Calisto se conforma de hielo no es blanca y brillante, sino oscura, debido a la gran cantidad de meteoritos que se han incrustado en su superficie. La misión Galileo de la NASA planea fotografiar a Calisto dentro de seis años.
Nuevas estructuras alrededor de la nebulosa del anillo Uno de los objetos astronómicos más hermoso del cielo son las nebulosas planetarias. Se les denomina así porque con telescopios pequeños se ven como regiones nebulosas más o menos esféricas, parecidas a Urano y Neptuno. En realidad son estrellas evolucionadas que se han desprendido de su atmósfera extendida, quedando el núcleo de la ex-estrella "pelón", muy caliente y rodeado de una envolvente gaseosa y brillante. Dentro de 4,500 millones de años el Sol se convertirá en Nebulosa Planetaria. En uno de los seminarios del Instituo de Astronomía, efectuado en el mes de Mayo de 1987, el Físico Marco Moreno expuso un trabajo que está desarrollando con el Dr. Alberto López. Ellos han tomado fotografías de Nebulosa del Anillo, una Nebulosa Planetaria, con el telescopio de 2.1 m de San Pedro Mártir. Encontraron que fuera de la envolvente gaseosa brillante existen estructuras más tenues. Probablemente estas estructuras fueron arrojadas por la estrella en una etapa llamada de Gigante Mira, en que la estrella oscilaba. Las estrellas producen los llamados vientos estelares que arrojan material estelar a grandes velocidades al espacio exterior. las estructuras estudiadas por los investigadores mexicanos podrían provenir de vientos estelares |
![]() |
|||||||||
|
||||||||||
_____________________________________________________________
|
||||||||||
como citar este artículo →
[En línea]
|
nota |
|
![]() |
PDF →
|
|||||||
![]() |
||||||||||
Lancandonia Schismatica | ||||||||||
Su descubrimiento obligará a reconsiderar la teoría de la evolución de las plantas con flores “Concluyendo: sentimos recomendarles que no publiquen este nuevo género”, fue la respuesta de P. J. M. Maas y H. Maas-van de Kamer, botánicos holandeses a la propuesta de Esteban Martínez* y Clara Ramos** de dar a conocer este descubrimiento en los Anales del Jardín Botánico de Missouri. Los investigadores europeos se basaban en que la característica de presentar el gineceo alrededor del androceo no se conocía en ninguna especie vegetal y que la estructura de esta planta correspondía en todo caso a una especie del género Sciaphila de la familia Triuridaceae. Pero he aquí que la planta existe y fue descubierta en la zona lacandona en Chiapas y en parte a ello debe el nombre del género; el nombre de la especie se refiere al rompimiento que crea en la taxonomía botánica. Lacandonia schismatica E. Martínez et C. H. Ramos es una pequeña planta de 5 cm de alto que crece sobre materia orgánica en descomposición; es hialina y con ausencia de hojas. Como ya se dijo, los ovarios (presenta carpetas separadas) se desarrollan alrededor de los estambres, característica no vista antes en ninguna especie fanerógama conocida. Según nos comenta Esteban Martínez, después de recolectar la planta en septiembre de 1985, inició el arduo trabajo de tratar de determinar un material que como muchos otros que ha encontrado en su zona de trabajo, le pareció interesante. Después de más de un año de búsqueda de información acerca de la planta, Esteban y Clara pensaron que se trataba de una especie de la familia Triuridaceae, grupo de plantas saprófitas con las que Lacandonia comparte rasgos morfológicos, pero que por sus características propias constituye una nueva familia vegetal: Lacandoniaceae. El impacto que este descubrimiento ha tenido o tendrá sobre la filosofía botánica empieza a vislumbrarse. Su estudio apenas se inicia; habrá que llevar a cabo investigaciones fitoquímicas, anatómicas, ecológicas y evolutivas entre otras, lo que permitirá esbozar hipótesis más claras sobre la evolución de esta pequeña planta que definitivamente revolucionará el conocimiento de las especies vegetales en el mundo. Podría decirse que este hallazgo tiene un valor similar en México a los trabajos de superconductores en física o a las técnicas quirúrgicas en la curación del mal de Parkinson. Lacandonia crece en la selva alta subperennifolia en condiciones de extrema humedad en la zona de amortiguamiento de la reserva de Montes Azules al este del estado de Chispas. La zona es interesante de por sí ya que durante los varios años de recolecta de plantas que Esteban ha trabajado allí, no sólo ha descubierto este interesante vegetal, sino que también ha encontrado nuevas especies y nuevos registros de plantas que se habían reportado sólo en Sudamérica o en las Antillas. Pero como sucede en muchos otros lugares del país, esta importante área se encuentra amenazada, ya que las ganaderas planean convertirla en un potrero a corto plazo. Esta situación es realmente grave pues si no se actúa de inmediato para protegerla nos veremos, como en muchos otros casos, ante la destrucción de nuestros ecosistemas y la pérdida de nuestros recursos, en este caso de un valor incalculable. |
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
Intituto de Biología, Facultad de Ciencias, UNAM. |
||||||||||
_____________________________________________________________
|
||||||||||
como citar este artículo →
[En línea]
|