![]() |
|
||||||||||
| Jesús Galindo Trejo y Arcadio Poveda Ricalde | |||||||||||
|
Desde tiempos remotos los pueblos que habitaron
Mesoamérica dedicaron su atención a las cosas del cielo, la magnificencia de una noche estrellada inspiró a tal grado al hombre que buscó y encontró a sus dioses plasmados en los cuerpos celestes; la mitología mesoamericana abunda en pasajes y descripciones de la identificación y acción de diversas deidades celestes. Los astrónomos o Ilhuicatlamatinime, en náhuatl, formaban parte del estrato dirigente de las sociedades mesoamericanas; así, los mismos dirigentes tenían la obligación de observar el cielo de noche para tratar de establecer un nexo directo con los dioses. En su acto de coronación, el emperador mexica Motecuhzoma Xocoyotzin (1466-1520) recibió explícitamente la recomendación de observar, a la medianoche, diversas constelaciones y, al amanecer, a Venus. Ciertamente que la actividad realizada por los astrónomos prehispánicos poseía una motivación religiosa; sin embargo, desde el punto de vista del desarrollo de técnicas de observación y su exactitud, alcanzó una relevancia notable. De esta manera, el astrónomo-sacerdote se encargaba de transferir el orden del cielo a su propia sociedad; una materialización de este ejercicio fue el desarrollo del calendario, que regulaba el rito, las actividades agrícolas y en general la vida del pueblo. La significación tan importante de este instrumento práctico, resultante de la observación astronómica, confirió al Ilhuicatlamatinime gran prestigio e influencia en el sistema social prehispánico.
Entre los objetos celestes que fueron observados en Mesoamérica, los cometas ocupan un lugar muy importante. En muchos de los idiomas de México, al cometa se le designa como “estrella que humea”: citlalin popoca, en náhuatl, budz ek en maya yucateco y ifuo ‘nganotzo’ en otomí o ñañhu. La mayoría de los pueblos mesoamericanos concebían el espacio situado por arriba de la Tierra como dividido en varias capas o cielos; así tenernos, según el documento del siglo XVI conocido como Historia de los mexicanos por sus pinturas, que el Quinto Cielo, situado por arriba del que contiene al Sol, estaba ocupado por culebras de fuego que había hecho el dios del mismo elemento, y que de ellas salían los cometas y otras señales del cielo.1
Tradicionalmente, la aparición de un cometa era considerada como un presagio de alguna catástrofe. Así nos lo hacen saber los cronistas del siglo XVI; uno de ellos, fray Bernardino de Sahagún, recopiló lo siguiente: “llamaba esta gente a la cometa citlalin popoca, que quiere decir estrella que humea. Teníanla por pronóstico de la muerte de algún príncipe o rey o de guerra o de hambre. La gente vulgar decía: ésta es nuestra hambre. A la inflamación de la cometa llamaba esta gente citlalin tlamina, que quiere decir, estrella tira saeta. Y decían que siempre que aquella saeta caía sobre alguna cosa viva, liebre o conejo u otro animal, y donde hería, luego se criaba un gusano, por lo cual aquel animal no era de comer. Por esta causa procuraba esta gente de abrigarse de noche, porque la inflamación de la cometa no cayese sobre ellos”.2 Aquí, posiblemente con “estrella tira saeta” Sahagún se refiere a una estrella fugaz, pequeño meteorito que al penetrar en la alta atmósfera a velocidades considerables se convierte en un objeto incandescente. En la misma obra de Sahagún se nota cómo evoluciona su representación pictórica del cometa: primero mostrando clara influencia indígena para después ser francamente occidental.
No obstante la connotación fatalista de un cometa, su designación llegó a utilizarse comúnmente como nombre propio. Así tenemos el que quizá sea el caso más célebre de ellas: Citlalpopocatzin (el sufijo tzin es reverencial), uno de los cuatro Señores de Tlaxcala a la llegada de los españoles. De acuerdo con el cronista mestizo tlaxcalteca Diego Muñoz Camargo, este Señor había sido llamado así “porque cuando nació, se vio en el cielo una cometa muy grande y espantosa, que echaba gran humo, de muy grande cola”.3 Carlos María Bustamante, historiador del siglo XIX, afirma que su nombre aludía a que Citlalpopocatzin confiaba sus empresas militares al Sol, simbolizándolas en la estrella que recibía de éste el valor, infundido al exhalar humo la estrella.4 En el llamado Lienzo de Tlaxcala, en el cual se describen los acontecimientos relacionados con la conquista española, aparece frecuentemente la representación de este personaje con su glifo onomástico.
Parte de la historia de los pueblos mesoamericanos ha llegado a nosotros gracias a los documentos que ellos mismos elaboraron, desde los de tipo pictográfico en forma de códices, hasta los escritos, hechos poco después de la conquista europea. Estas fuentes de información también nos dan cuenta de numerosos eventos celestes. En particular, respecto al registro de cometas contamos con numerosos ejemplos. Así, Chimalpahin el cronista noble de Amecameca, cuenta que, para el año 1 técpatl, 1064: “y asimismo, para entonces han pasado veinticinco años desde que se perdió la gran población de Tullan, desde que se dispersaron los tulteca cuando les pasó humeando una estrella”.5 Este cometa podría tratarse del mismo que fue observado en diciembre de 1063 en Corea6 y en pleno 1064 en Europa.7
En el Códice Mexicanus, documento pictográfico a manera de una cuenta de años que ilustra diversos acontecimientos que sucedieron año con año, señala que la aparición de dos cometas en los años 1 ácatl y 2 técpatl (1363 y 1364) estuvo asociada a la muerte de un personaje llamado Chimalli.8 Observadores chinos reportan un cometa visible en el primer día de la Luna, el 16 de marzo de 1363.9 Los coreanos, el 30 de marzo del siguiente año, observan un cometa con coloración rojiza y con una cola de más de un grado de longitud.10
El cronista que redactó el llamado Códice Telleriano-Remensis, documento colonial temprano que se encuentra en París, reporta: “Año de diez casas y de 1489, corrió un cometa muy grande que ellos llaman xihuitli”.11 En este caso aparece la representación pictórica del fenómeno celeste en forma de una serpiente multicolor con púas, nótese que xihuitli es otra variante para expresar en náhuatl cometa; por cierto, xihuitli también significa turquesa, hierba y año. Observadores chinos registran un cometa en las constelaciones de Hércules, Águila, Serpiente y Ofiuco, de noviembre a diciembre de 1489.12
Esta tradición de registrar en los documentos históricos eventos del cielo continuó por algunos años durante la época colonial. Un caso muy llamativo es el ilustrado bellamente en el Códice Telleriano-Remensis; se trata de un doble evento, un eclipse de Sol y un cometa en 1531. Junto al Sol, aún al estilo prehispánico con una porción oscurecida, se indica cómo una estrella, sin duda ya occidentalizada en su representación, echa volutas de humo. El 18 de marzo de ese año hubo un eclipse parcial de Sol observado desde el Altiplano mexicano. Además, de acuerdo con numerosos catálogos de cometas registrados en Europa y en el Lejano Oriente, desde fines de julio hasta fines de septiembre del mismo año, el cometa Halley fue visible en las constelaciones de Géminis, Leo y Virgo, su cola alcanzó una longitud de hasta 15 grados.13 Por otra parte, sólo una fuente japonesa reporta en 1531 un cometa observado desde el 5 de febrero.14 No cabe duda de que este espectáculo celeste impresionó al tlacuilo, quien lo plasmó en el papel de una manera ya culturalmente híbrida.
Uno de los cometas más famosos del México prehispánico es seguramente el llamado Cometa de Motecuhzoma, sobre todo debido al dibujo que muestra al emperador mexica observando un cometa con larga cola. Este dibujo proviene de la obra del fraile dominico Diego Durán, quien describe la aparición de un cometa como uno de los augurios de la llegada de los españoles. De hecho, en varias regiones del Altiplano se sucedieron diversos fenómenos que fueron interpretados como presagios seguros de que una hecatombe generalizada pronto llegaría. Así, por ejemplo, fray Jerónimo de Alcalá, franciscano que recopiló la llamada Relación de Michoacán, nos cuenta: “asimismo dicen que vieron dos grandes cometas en el cielo y pensaban que sus dioses habían de conquistar o destruir algún pueblo y que ellos habían de ir a destruirle”.15
De acuerdo con el padre Durán, la primera observación la realizó un mancebo que servía como representación viva del Dios Huitzilopochtli en su templo. Una noche se levantó éste y mirando hacia el cielo, vio en la parte oriente un gran cometa que echaba de sí un largo resplandor. Sus acompañantes y la guarda siguieron observando al cometa hasta el amanecer, cuando alcanzó el cenit. A la mañana siguiente el mancebo fue a ver al emperador Motecuhzoma para contarle lo que en el cielo había visto. El atemorizado e incrédulo emperador preguntó si acaso no había sido un sueño, pero los testigos confirmaron lo dicho por el mancebo. Esa noche Motecuhzoma subió a un mirador que tenía en una azotea, muy atento notó cómo a la medianoche salía el cometa con aquella cauda tan linda y resplandeciente; esto lo llenó de estupor, y quedó sumido en profunda tristeza. Al otro día, mandó llamar al mancebo y le preguntó cuál podría ser el significado de tal cometa. Al declarar el mancebo, imagen de Huitzilopochtli, que era ignorante de las cosas del cielo, sólo sugirió que el emperador mandase llamar a los astrólogos, pues el oficio de ellos era saber de las cosas nocturnas. Una vez llegados éstos ante Motecuhzoma les preguntó si habían visto la nueva señal que había aparecido en el cielo. Al responder los astrólogos que no, el emperador montó en cólera, reprochándoles el poco cuidado que tenían de velar sobre las cosas de la noche, ordenó que los encerraran en jaulas sin darles de comer para que murieran de hambre; éstos pedían llorando que mejor los matasen.
Motecuhzoma mandó llamar a Nezahualpilli, rey de Texcoco, quien era famoso por ser esmerado astrólogo. Nezahualpilli había observado la señal en el cielo desde ya hacía muchos días, pero pensando que los astrólogos del emperador ya le habrían explicado su significado, no se había preocupado del asunto. El rey texcocano declaró: “Y has de saber que todo su pronóstico viene sobre nuestros reinos, sobre los cuales ha de haber cosas espantosas y de admiración grande; habrá en todas nuestras tierras y señoríos grandes calamidades y desventuras; no quedará cosa con cosa; habrá muertes innumerables; perderse han en todos nuestros señoríos y esto será por permisión del señor de las alturas, del día y de la noche y del aire; de lo cual todo has de ser testigo y lo has de ver en tu tiempo ha de suceder; porque yo ya, en yendo de tu presencia, me iré a morir y sé cierto que ya no me verás más y ésta será la postrera vista que nos veremos en esta vida, porque yo me quiero ir a esconder y huir de estos trabajos y aflicciones que te esperan. No desmayes, ni te aflijas, ni te desesperes: has el corazón ancho y muestra ánimo y pecho varonil contra los trabajos de la fortuna”. Motecuhzoma empezó a llorar amargamente, lamentándose de haber tenido la suerte de ser él quien fuera desposeído de todo lo que los mexicanos habían conquistado con su poderoso brazo; no sabría qué hacer, esconderse, volverse piedra o palo, quizás volverse pájaro para volar hacia lo más áspero de los montes. Al despedirse ambos, Motecuhzoma llamó a los ejecutores de la justicia y a los Señores Principales para amonestar a los sacerdotes y a los astrólogos que descuidaron la vigilancia; ordenó matar a los astrólogos, saquear sus casas, echándolas por el suelo para que no quedase memoria de ellos; además, dio como esclavos perpetuos a las mujeres y a los hijos de los astrólogos. Cruel castigo, necesario para los que hacían burla de él, por el poco cuidado en lo que les fue encomendado como oficio. Motecuhzoma se refirió a esos traidores que fingieron ser astrólogos para engañar con sus falsedades y mentiras, el pago que recibieron era para que otros no se atreviesen a fingir lo que no son. Después mandó buscar a nuevos astrólogos que tomasen el oficio de aquellos ajusticiados y les exhortó reiteradamente que tuvieran el cuidado de observar las estrellas de la noche y pronosticar sobre el cometa. Se dice que llegando la noticia a todas las provincias de esos reinos, la gente, llena de temor, se juntaba para clamar al cielo, pues creían que pronto se acabaría el mundo.16
Este pasaje histórico también es descrito por el cronista noble Alvarado Tezozómoc,17 quien añade que el cometa se veía surgir por el Oriente y era de un gran resplandor blanquecino que iba incrementando su longitud en el transcurso de la noche.
Un dato especialmente importante en la anterior narración es la referencia a la muerte de Nezahualpilli. Aunque el mismo padre Durán establece que el rey texcocano murió diez años antes de que llegaran los españoles, al considerar el año 1519 como el año de la llegada, varios autores han asociado el cometa de Motecuhzoma con la observación de una mixpamitl o bandera de nubes reportada por numerosas crónicas entre 1509 y 1510. Un ejemplo de tales reportes nos lo da el padre Sahagún: “Diez años antes que viniesen los españoles desta tierra pareció en el cielo una cosa maravillosa y espantosa y es que pareció una llama de fuego muy grande y muy resplandeciente. Parecía que estaba tendida en el mismo cielo. Era ancha de la parte de abajo y de la parte de arriba aguda, como cuando el fuego arde. Parecía que la punta de ella llegaba hasta el medio cielo. Levantábase por la parte de oriente, luego después de la medianoche y salía con tanto resplandor que parecía el día. Llegaba hasta la mañana, entonces se perdía de vista…”18 Se trataba de un gran resplandor nocturno que semejaba surgir de la tierra y se adelgazaba conforme aumentaba su altura, tenía la forma de una pirámide de fuego; aparentemente, tal llama celeste se pudo ver por espacio de un año. A juzgar por la configuración, mas no por el intervalo de tiempo que se observó, podría tratarse de la llamada luz zodiacal que resulta de la luz solar reflejada en las partículas de polvo que giran alrededor del Sol. Otra posibilidad podría ser que se tratase de una aurora boreal, luz emitida por átomos de la alta atmósfera terrestre al ser excitados por las partículas energéticas emitidas por el Sol en periodos de fuerte actividad. Esta luz de vivos colores generalmente tiene una apariencia de grandes cortinas moviéndose continuamente; sin embargo, su variación temporal y su forma difícilmente parecería coincidir con la descripción de la mixpamitl. Las auroras boreales se observan en la porción norte del cielo y en el transcurso de pocas horas.
De acuerdo con varios autores,19-21 la intensidad luminosa de la luz zodiacal aumenta al decrecer la actividad solar; así, el máximo de la intensidad de la luz zodiacal sucede de hecho un par de años antes del mínimo de actividad solar. Según Letfus,22 el mínimo de actividad solar en la época de la aparición de la mixpamitl, registrada tan insistentemente por las crónicas, fue en agosto del año de 1513. Por otra parte, es bien sabido que la actividad solar ha experimentado en el pasado diversas fases de severa reducción.23 Un periodo en el que sucedió una notable disminución de actividad fue en el de 1460 a 1540, a dicho periodo se le conoce como el Mínimo de Spörer. Mediante el reporte de fuentes históricas que señalan prácticamente la ausencia de auroras boreales y gran abundancia de carbono radiactivo en los anillos de la corteza de árboles milenarios, se ha podido verificar la existencia del Mínimo de Spörer. Por tanto, podemos proponer que la mixpamitl observada en la primera década del siglo XVI fue una luz zodiacal de extraordinaria intensidad asociada al Mínimo de Spörer.
La luz zodiacal como interpretación alterna del evento que algunos han querido identificar con el cometa de Motecuhzoma, y que sin embargo no lo fue, resulta consistente con cualquier fecha para la muerte de Nezahualpilli dentro de la incertidumbre de las crónicas, esta característica resulta una ventaja sobre la interpretación cometaria, que está amarrada a una fecha particular para la muerte de Nezahualpilli.
La asociación del cometa de Motecuhzoma con la mixpamitl ha hecho que algunos autores duden de la factibilidad del fenómeno ilustrado por el padre Durán, pues en poco se asemeja con la forma triangular reportada para el resplandor celeste tan insistentemente descrito en las crónicas en los años 1509 a 1510. Sin embargo, numerosos cronistas indígenas señalan que Nezahualpilli murió en el año 10 ácatl (1515),24 lo que hace necesario reconsiderar la identificación del cometa. Aunque fuentes orientales no reportan ningún cometa en este año, con base en el análisis de numerosos catálogos de cometas observados en Europa encontramos que el astrónomo francés M. Pingré reporta que durante el año 1516 se observó en Europa un cometa que ardió durante muchos días, que se consideró como presagio de la muerte del rey Fernando el Católico, quien falleció el 23 de enero de ese año.25, 26
Aunque este cometa apareció también en la época del Mínimo de Spörer, la reducida intensidad del máximo relativo alrededor de ese año fue suficiente para permitir que se desarrollara una cola cometaria observable desde la Tierra. Así, Wittman27 determinó el máximo para junio de 1515 y Letfus28 para septiembre de 1517. Por tanto, ambas fechas son consistentes con el hecho de que el cometa de 1516 fuera percibible al observador terrestre.
Cabe señalar que el año prehispánico no corría sincronizadamente con el año occidental, pues dependiendo de la tradición local el inicio del año nuevo podría variar de lugar a lugar;29 sin embargo, en la mayoría de los casos, para el 23 de enero aún regía el año 10 ácatl, con lo que la identificación del cometa de Motecuhzoma con el reportado por Mather y Pingré en 1516 parece sumamente probable.
Fatalmente el presagio apocalíptico se cumplió para Motecuhzoma y su pueblo, la implacable ola de destrucción generada por la ambición del conquistador español arrasó con los grandes logros culturales de la civilización mesoamericana. Los observadores del cielo, cautivados por la belleza subyugadora de la noche, quisieron adelantarse a los hechos. Ese firmamento, que formaba parte de sus dioses, tendría que ayudarles a desentrañar los misterios del devenir del tiempo.
|
|
|
|
||||||||
|
Referencias Bibliográficas
1. “Historia de los mexicanos por sus pinturas”, en Anales del Museo Nacional, J. García Icazbalceta (ed.), tomo II, México, 1882. |
|||||||||||
| _______________________________________ | |||||||||||
|
Jesús Galindo Trejo
Investigador titular del Instituto de Astronomía
de la Universidad Nacional Autónoma de México.
Arcadio Poveda Ricalde
Investigador del Instituto de Astronomía
de la Universidad Nacional Autónoma de México
y miembro de El Colegio Nacional.
|
|||||||||||
| _______________________________________ | |||||||||||
|
cómo citar este artículo →
Galindo Trejo, Jesús y Poveda Ricalde, Arcadio. 1997. Cometas en el México prehispánico: el cometa de motecuhzoma. Ciencias, núm. 46, abril-junio, pp. 40-44. [En línea].
|
|||||||||||
![]() |
|
|||||||||||
| Pedro Miramontes | ||||||||||||
|
Gloria al Padre,
al Hijo y al Espíritu Santo, Como era en el principio, Ahora y siempre Y por los siglos de los siglos. Amén
|
|
|
|
|||||||||
|
La escatología cristiana nos propone un mundo creado
por Dios en siete días e inmutable a partir de ese momento; las cosas, las relaciones entre ellas, los seres vivos, todo, absolutamente todo, permanece estático y sin cambio.
Yo no creo que esta visión inmovilista del Universo sea exclusiva de las religiones, sean cristianas o no. Más bien, pienso que éstas se han encargado de colectar ideas y emociones ya existentes en las comunidades humanas, cuyas causas desconozco y que se pierden en el tiempo.
En la Grecia del siglo VI antes de nuestra era, Parménides de Elea critica la filosofía del cambio constante de Heráclito de Efeso. Para el eleacita, el mundo se encuentra en equilibrio eterno y la noción del cambio no es sino una ilusión de nuestros sentidos. Aristóteles formula el concepto de equilibrio en la naturaleza y su mecánica entera se basa en él: sólo la violencia provoca cambios en el estado natural de la cosas del mundo sublunar, que es el reposo.
Independientemente de las razones psicológicas o culturales que hayan nutrido este tipo de creencias, el hecho es que la noción de inmutabilidad y equilibrio permea nuestras sociedades y, consecuentemente, afecta o determina el estilo de trabajo de los científicos. Hace apenas un par de décadas, la teoría cosmológica del Universo estacionario todavía gozaba de cierta credibilidad y aún hoy se publica en su favor. En economía, el cuerpo teórico dominante se llama teoría general del equilibrio. Se habla del equilibrio ecológico e incluso ciertos grupos ecomísticos le dan una connotación moral y, a menudo, casi religiosa.
No sólo se habla de equilibrio en todas las disciplinas científicas, también suele buscársele afanosamente. Por ejemplo, en ecología matemática es usual que los estudiosos de la dinámica de poblaciones se preocupen fundamentalmente por encontrar las condiciones en el espacio de parámetros bajo las cuales un modelo matemático alcanza su equilibrio estable.
Según esta perspectiva, todo aquello que nos aleje bruscamente del equilibrio (la extinción repentina de grupos de especies, una devaluación monetaria abrupta, un crack de la bolsa de valores, un terremoto catastrófico o una revolución social), se considera como algo atípico, aberrante, imposible de describir dentro de los mecanismos con los que habitualmente se explican los fenómenos “normales”. Por ello, al tratarse de algo anómalo, se le buscan explicaciones ad hoc, fuera de los cuerpos teóricos existentes y que, más que argumentaciones científicas, funcionan como verdaderos deus ex machina.
Así, se inventan explicaciones exógenas como la caída de un meteorito en el caso de la extinción del Cretácico, la acción coludida de grupos subversivos como exégesis de las revoluciones sociales y los “errores de diciembre” para lo que todos los mexicanos sabemos y padecemos.
¿Qué hay detrás de estas actitudes? ¿A qué obedece este horror al cambio? Desgraciadamente no tengo respuesta ni estoy dispuesto a esperar por los siglos de los siglos para ver si en este mundo reina el Dios de la armonía y del equilibrio o el Maligno que pretende alterar el orden establecido.
Sin embargo, en este ensayo quiero argumentar que los cambios catastróficos son intrínsecos a la naturaleza fluctuante del Universo y, por ende, que no son ni inusitados ni atípicos. Sostengo que obedecen a los mismos mecanismos que provocan los cambios pequeños e invito a los lectores a viajar por el mundo de la no-linealidad a charlar sobre la geometría fractal y a asomarnos a los conceptos esenciales de la criticalidad autoorganizada.
A grandes males, grandes remedios
La base para comprender lo que voy a exponer está en el concepto de la no-linealidad. Si buscamos ese término en el diccionario no encontraremos nada (al menos en el mío no viene). Recurramos entonces a negar el significado de lineal. Veamos: “Lineal. Del lat. linealis. 1. (adjetivo, -a). Perteneciente a la línea. 2. (adjetivo, -a). Aplícase al dibujo que se representa por medio de líneas solamente. 3 (adjetivo, -a). En una sola dirección”.
Ninguna de las acepciones se asemeja al sentido que le damos en matemáticas o en física, de manera que tendremos que elaborar nuestra propia definición y convenir en ella. Para nosotros, propongo, “lineal” significa que el resultado de una acción es siempre proporcional a su causa: al doble de fuerza, doble de trabajo; a grandes males, grandes remedios. Al factor constante que media entre la causa y el efecto se le llama “factor de proporcionalidad”. Cualquier fenómeno que no satisfaga la premisa anterior se llamará “no-lineal”.
Aceptar la perspectiva lineal implica que sólo causas o fuerzas catastróficamente grandes pueden producir efectos similares; es este pensamiento el que los aparta del estudio del resto de los fenómenos. En cambio, la no-linealidad de los mecanismos naturales permite que causas pequeñas produzcan efectos enormes y que causas enormes produzcan efectos despreciables o, incluso, que no engendren nada.
Desgraciada o afortunadamente, según de qué lado de la trinchera se encuentre uno, y como ingeniosamente lo acota Stanislaw Ulam:1 “…la mayoría de los fenómenos de la naturaleza son no-lineales en el mismo sentido en que la zoología es en su mayoría una zoología de no-elefantes”.
Si el Universo es no-lineal, si la no-linealidad invade cada recoveco de la naturaleza, ¿por qué se sigue insistiendo tanto en el enfoque lineal al estudiar los fenómenos? Gottfried Mayer-Kress1 se pregunta lo mismo y lo explica con la siguiente metáfora: “La situación de la mayoría de las ciencias tradicionales que persisten en usar enfoques lineales es la misma que la de una persona que pierde las llaves del carro y las busca bajo la luz de un farol porque en el sitio donde las perdió está demasiado oscuro para poder buscar”.
La criticalidad y la pila de arena
En matemáticas, un punto crítico o de equilibrio de un sistema dinámico es un estado del sistema en el cual el campo vectorial se anula o no hay flujo local si el sistema es continuo, o bien, donde la sucesión de estados se hace constante si el sistema es discreto.
En física, un punto crítico es aquél en el cual un sistema cambia radicalmente de estructura o conducta; por ejemplo, el punto de transición líquido-sólido. En ambos casos, existen uno o más parámetros de control que el experimentador o estudioso puede cambiar o ajustar para alcanzar el equilibrio o el cambio de estructura o comportamiento.
Como contraparte, existen sistemas que alcanzan un estado crítico sin controles externos, únicamente llevados por su dinámica interna o por las interacciones cooperativas de sus componentes. En este caso, se dice que tenemos un sistema con criticalidad autorganirada.
Yo estoy convencido de que este término y los procesos que define serán sujetos de gran atención y estudio en el futuro cercano; de hecho, creo que nos ha tocado presenciar (y posiblemente participar en) una revolución del pensamiento científico, en una nueva forma de concebir el Universo.
Los sistemas que poseen la notable propiedad de la autoorganización tienen una buena cantidad de propiedades no clásicas; por ejemplo, no obedecen el Principio de Curie, que dice que un proceso físico no puede ser inhomogéneo o asimétrico en sus efectos si no lo fue en sus causas.
Tendré que pedir perdón a los lectores por mi entusiasmo, pero creo que la ruptura o pérdida de simetría espontánea es un reto a la imaginación: no es nada fácil concebir que algo tome forma o adquiera estructura espacio-temporal sin mano negra, solito, sin que nada ni nadie se lo indique ni le ayude.
Además, la criticalidad autoorganizada parece ser universal: en 1987, Kurt Wiesenfeld, Tang y Bak2 demostraron que sistemas dinámicos con un número grande3 de grados de libertad cuyos elementos interactúan entre sí de manera no lineal (los llamados sistemas complejos), normalmente se autorganizan de manera espontánea y llegan por sí solos a un estado crítico, lejos del equilibrio, con una gran correlación interna.
El ejemplo más sencillo de tales sistemas fue propuesto por los mismos autores y se ha convertido en el prototipo de la criticalidad autoorganizada: el modelo de La pila de arena.
Imaginemos el siguiente experimento (que es una versión simplificada del que llevó a cabo el equipo de Glenn:4 Se trata de tirar, de uno en uno, granos de arena sobre una mesa. Así de sencillo.
Al principio, los granos de arena formarán una capa delgada sobre la superficie plana, esta capa se distribuirá de manera más o menos uniforme en círculos cada vez más amplios. Conforme transcurra el proceso se empezará a levantar una pila de arena y la pendiente de la ladera (que será digna de interés en este experimento) comenzará a alzarse y, después de un rato, algunos de los granos de arena que van cayendo provocarán la caída de granos que ya están en la pila. La intuición nos dice que el tamaño y la frecuencia de estas avalanchas serán, en promedio, mayores conforme la pendiente de la ladera se haga más pronunciada. El crecimiento de la pila y de su pendiente se detendrá cuando la acumulación de la arena que se agrega se contrarreste con la que resbala por la ladera de la pila. Esto define un estado crítico que llamaremos, en este caso particular, pendiente crítica.
Cuando la pendiente es menor que la crítica (estado subcrítico), la pila crece hasta llegar al estado crítico; cuando es mayor (estado supercrítico), el número y tamaño de las avalanchas crece y la altura y pendiente de la pila vuelven de nuevo al estado crítico. Este comportamiento es independiente de cualquier parámetro externo, por lo que es un buen ejemplo de criticalidad autoorganizada. En el estado crítico existen avalanchas de todos los tamaños; muchas que involucran pocos granitos y pocas donde resbalan muchos.
Si f denota el número de granitos que caen en una avalancha y n(f) el número de avalanchas (la frecuencia observada de f) en las que participan exactamente f granitos, entonces, los puntos de la forma
(log(f),log(n(f)))
se ajustan perfectamente a una línea recta de pendiente cercana a –1, de manera que, en las variables originales, los puntos
(f,n(f))
están bien representados por la hipérbola
n(f) = 1/f.
Por lo tanto, la frecuencia y el tamaño de las avalanchas se relacionan mediante una ley muy precisa; la llamada “ley 1/f”.
Todo esto ha provocado gran revuelo en los medios científicos (más de 2000 publicaciones acerca de la pila de arena en siete años, por si aún hubiera alguien que midiese la importancia de un tema por la cantidad de papers publicados) pues aunque resulta natural pensar que la curva resultante tenga que ser decreciente, el hecho de que entre todas las funciones decrecientes resultara precisamente, y ni más ni menos, una hipérbola, no es ni con mucho algo evidente.
El revuelo es mayúsculo pues se ha descubierto que hay una gran cantidad de fenómenos que dan lugar a diagramas 1/f: notablemente, la distribución del tamaño de los temblores de Tierra —la llamada “Ley de Gutenberg-Richter”— (figura 1) que apoya la idea común de que hay muchos temblores pequeños, una cantidad regular de temblores regulares y muy pocos temblores enormes. Como la recta está en escalas logarítmicas, por cada 1000 temblores de magnitud 6 en la escala de Richter hay 100 de magnitud 7 y 10 de magnitud 8.5
Los temblores catastróficos no se salen de la norma, no tienen ningún papel especial; siguen la misma ley que todos y es la misma dinámica la que les da origen: los acomodos de las placas de la corteza terrestre. No hay que buscarle tres pies al gato; la leyes la misma para todos:6 grandes, medianos y pequeños.
Hoy tenemos clara evidencia de que fenómenos tan disímbolos como las extinciones de las especies, las fluctuaciones de la bolsa de valores y del tráfico citadino y muchos más siguen la misma ley 1/f. Todos ellos siguen leyes de escalamiento fractal, como veremos adelante.
Aún más, si en tales fenómenos, o en sus modelos teóricos, hay incertidumbre en la determinación de las condiciones iniciales, ésta se amplifica con el transcurso del tiempo como una potencia de este último, lo que es una característica digna de mención pues la amplificación de las incertidumbres es una señal firme de comportamiento caótico. Sin embargo, en los sistemas con criticalidad autoorganizada, la amplificación de las incertidumbres es potencial y no exponencial, ello indica que el sistema evoluciona en el borde del caos, en un régimen que se conoce como “caos débil”. Caos débil, estado crítico, transición de fase, borde del caos: estos conceptos son, en general, sinónimos, y se sabe9 que un sistema en este estado maximiza su capacidad de procesamiento de información, su adaptabilidad y su capacidad de aprendizaje.7
Los sistemas débilmente caóticos tienen un rango de predictibilidad mayor que los sistemas fuertemente caóticos, pero siguen siendo intrínsecamente impredecibles. El sueño de los meteorólogos se esfuma: Edward Lorenz comenta que una de las preguntas que más le formulan es la siguiente: ¿Por qué no podemos hacer mejores predicciones del clima? A lo que él suele replicar: “Bueno, ¿por qué deberíamos ser capaces siquiera de hacer predicciones?” Con los sueños de los meteorólogos se desvanecen también los de todos aquellos con vocación de pitonisas: desde los que quieren predecir el comportamiento de la bolsa de valores hasta los que soñaron con encontrar las leyes que determinan el comportamiento de la sociedad.
Sin negar el indiscutible interés de lo anterior, quizá la consecuencia más sobresaliente del experimento de las pilas de arena es la enseñanza de que la consecuencia de la caída de un grano de arena es completamente impredecible y, más aún, que la misma caída puede no tener efecto alguno o provocar una catástrofe. Es decir: a la misma causa, efectos diferentes: ¡la esencia misma de la no-linealidad!
Estos hechos contradicen las nociones comunes de que los fenómenos de la naturaleza son lineales y echa por tierra la validez de expresiones tan comunes en nuestra cultura como: “mismas causas, mismos efectos”, o bien, “a fenómenos complicados, modelos complicados”, “a grandes majes, grandes remedios” y todos los pensamientos, gratos por simplificadores, en los que se cumplen ciertos principios de superposición y para los cuales el todo es la suma de las partes.8
El experimento de la pila de arena, tan sencillo como esclarecedor, muestra que existe una clase de fenómenos que se autoorganizan sin influencia externa y que tenemos que acostumbrarnos a pensar que la naturaleza en que vivimos es intrínsecamente no-lineal, caótica, impredecible y autoorganizada. No será sencillo.
Leyes de potencias
Eadem mutata resurgo
J. Bernoulli
Existe una clase de funciones en matemáticas, las funciones homogéneas
f(x) = cxa
que poseen la siguiente propiedad
f(ax) = f(a)f(x).
Es decir, un cambio de escala en el eje de las abscisas se traduce en un cambio proporcional en la gráfica de la función y este cambio preserva el aspecto de la misma gráfica.
Esta familia de funciones ocupa un lugar importante en el estudio y descripción de la naturaleza; con α = 1 y c < 0 se tiene la ley de Hooke para la fuerza de restitución de un resorte; con α = 2 y c < 0, la ley de la gravitación universal de Newton; si se elige α = 3, obtenemos relaciones alométricas entre dimensiones lineales y volumétricas. A estas leyes se les denomina Leyes de Potencias y tienen la propiedad, derivada de la invarianza en la forma de la función ante cambios de escala, de ser autosemejantes.
La autosemejanza es una propiedad interesante en la naturaleza que está íntimamente relacionada con la geometría fractal. En los fractales clásicos, como el Triángulo de Sierpinsky (fondo de página), la autosemejanza quiere decir que la figura que observamos es independiente de la escala usada en su dibujo; ésta podría ser de micras o de años luz y el objeto de la figura del fondo se vería igual. También se puede destacar el hecho de que cada parte del objeto es semejante al total; un triangulito de los que forman al triángulo completo es idéntico al original.
Esta conducta puede ser más interesante si se observa en objetos naturales: en la figura 2, una fotografía aérea de la costa de Noruega, observamos fiordos pequeños dentro de fiordos grandes y fiordos aún más pequeños dentro de los pequeños y así sucesivamente; como las matrioshkas de los artesanos rusos. Lo notable es que es imposible dilucidar cuál es la escala de la fotografía; se dice entonces que la costa de Noruega no tiene una escala propia o intrínseca y que la misma exhibe autosemejanza, o bien, geometría fractal.
En los últimos veinte años,9 a partir del trabajo pionero de Benôit Mandelbrot (The Fractal Geometry of Nature), se da una explosión en el estudio de la geometría fractal y sus manifestaciones en la naturaleza. Hoy se sabe que la estructura de los alveolos pulmonares, los paisajes montañosos, las ramificaciones arteriales, los deltas de los ríos y muchos otros objetos naturales, asaz disímbolos, presentan geometría fractal.
La pila de arena muestra geometría fractal; la distribución de los tamaños de las avalanchas no tiene una escala propia sino que es autosemejante.
Cretacic park
La idea dominante de la evolución biológica es el esquema darwiniano de cambio gradual y paulatino. Ése es el mejor compromiso que la ciencia victoriana pudo encontrar para maridar el agua y el aceite: el cambio evolutivo y la creencia en las estructuras inmutables de la sociedad y la naturaleza. Ese esquema se ha derrumbado.
Existe evidencia concluyente de que la evolución funciona mediante la alternancia de periodos de calma (estasis) y destellos de intensa actividad evolutiva. “Golpes de reorganización en un mundo de sistemas generalmente estables” en palabras de Stephen Jay Gould, descubridor junto con Niles Eldridge del efecto de equilibrio punteado en la evolución.10
No quiero desaprovechar la oportunidad para expresar mi admiración por Gould; además de ser uno de los grandes difusores de la ciencia de nuestro tiempo, es uno de los enterradores de los argumentos vitalistas y creacionistas. Individuo de amplio criterio y fe progresista, ha combatido en todos los ámbitos las posturas racistas y sexistas que aún existen en los medios académicos: Como científico, puedo refutar el supuesto fundamento genético de la maldad y la sinrazón de los nazis. Pero cuando me enfrento a la política nazi, debo hacerlo como cualquier persona, como un ser humano. Me he ganado el derecho a involucrarme en aspectos morales porque pertenezco a los Homo sapiens y es ése un derecho que abriga a cada uno de los seres humanos que han florecido en este planeta y una responsabilidad para todos los que la puedan ejercer.11
Estoy convencido de que el equilibrio punteado no solamente destierra de las discusiones sobre la evolución las ideas gradualistas, creo tener argumentos que indican que el efecto va aún más allá y que golpea duramente los cimientos de la escuela sintética; pero esto es motivo de otra discusión. Sin regocijo de mi parte, pienso que Gould —pese a él— tiene en la evolución darwiniana el mismo papel que Gorbachov en el socialismo soviético: el del sepulturero involuntario.
Aunque se han publicado buenos trabajos que aducen que el equilibrio punteado es un rasgo de los sistemas autoorganizados, es en el asunto de las extinciones donde las ideas de la criticalidad autoorganizada pueden prestar un buen servicio.
Es habitual que los biólogos traten de explicar las extinciones de las especies mediante argumentos ad hoc; cuando son una o pocas las especies que desaparecen, se esgrimen argumentos ambientales o de dinámica poblacional. En cambio, para las extinciones masivas, se invocan causas exógenas o agentes externos. El mejor ejemplo es la conjetura de la caída de un meteorito como motivo de la extinción del Cretácico, hace unos 65 millones de años, y que provocó la desaparición de estirpes y linajes completos, incluyendo a los dinosaurios. La extinción del Cretácico no es, ni con mucho, la más grande que ha sufrido la vida en la Tierra; sin embargo, es la más publicitada, pues los dinosaurios están de moda y rodeados de glamour después de Jurassic Park. Además, se ha explotado mucho la vía sentimental como, novelescamente, lo hace Stephen Jay Gould: “De no haber habido un impacto que terminase su vigorosa diversidad, quizá [los dinosaurios] sobrevivirían hasta hoy día. Si no hubieran desaparecido, lo más seguro es que los mamíferos se hubieran quedado pequeños e insignificantes (como lo fueron durante los 100 millones de años de dominación dinosauriana). Si los mamíferos hubieran permanecido pequeños, limitados y desposeídos de conciencia, entonces no hubieran surgido los humanos para proclamar su indiferencia [ante la extinción]. O para llamar “Pedro” a sus hijos (sic)”.
No deja de ser simpático que siendo Gould el más reconocido defensor del carácter histórico (y por tanto, contingente, azaroso e irrepetible) de la biología, afirme de manera rotunda y determinística que la desaparición de los dinosaurios definió la emergencia de los humanos (y la de Pedro).
No pongo en duda que muchas de las extinciones individuales se deban a efectos accidentales o exógenos,12 pero no me gusta la actitud generalizada de buscar, y encontrar, explicaciones distintas para diferentes realizaciones de un mismo fenómeno.
En 1967, Luis y Walter Álvarez encontraron indicios de la caída de un gran meteorito en los estratos superiores del Cretácico y emitieron la hipótesis de que este evento habría sido la causa de la extinción de los dinosaurios (se extinguieron muchos otros grupos, pero así se le llama familiarmente a este evento). La comunidad biológica reaccionó de manera violenta en contra por dos razones: primera, porque la hipótesis va contra la idea del cambio gradual y paulatino y, segunda, porque los Álvarez son físicos y a los biólogos les molesta enormemente que los físicos se metan en sus asuntos.13
En 1992 se encontró frente a la costa de Yucatán el cráter de un meteorito con las características predichas por los Álvarez y la actitud de la comunidad biológica ha empezado a cambiar. Sin embargo, me cuento entre los que no se convencen; no porque sea abogado del gradualismo, sino porque la hipótesis me parece insatisfactoria mientras no se expliquen los mecanismos concretos mediante los que ese meteorito putativamente provocó una extinción muy, demasiado, selectiva de algunas familias y géneros y no de otros, mientras no se conozcan los mecanismos físicos de la extinción (¿de qué se murieron?, ¿de hambre?, ¿de frío, de calor?, ¿del susto?) y mientras no se dé una argumentación satisfactoria de los tiempos efectivos de la extinción: aún no se sabe cuánto tiempo abarcó la desaparición e incluso existe evidencia que indica que muchos de los grupos extintos, que se cargan en la cuenta del impacto, ya se habían esfumado de la faz de la Tierra cuando cayó el meteorito.
Quizá todo esto sean detalles y con el tiempo, con ingenio y aplicación, se les pueda forzar a cuadrar dentro de un marco narrativo más o menos coherente. Pero son precisamente el rebuscamiento y la propensión a elaborar narraciones históricas lo que no me gusta; prefiero y pretendo convencerles de que es preferible elaborar teorías verificables aunque éstas posteriormente no pasen por el tamiz de la comprobación: ya vendrán otras y mejores.
En este sentido, soy un defensor de la idea de que los grupos de comunidades de especies forman un sistema interconectado entre sí de manera no-lineal y que los eventos de extinción, independientemente de su magnitud, son parte de una misma dinámica en régimen de criticalidad autorganizada. La caída de un grano de arena puede provocar una gran avalancha o puede no provocar nada: la extinción de una especie puede provocar una avalancha de extinciones o puede no provocar nada.14
Existe trabajo serio en este sentido; aunque las ideas de la criticalidad autoorganizada son jóvenes, ya se tienen modelos muy atractivos que reproducen maravillosamente bien los datos paleontológicos e históricos de las magnitudes y tiempos de extinciones a lo largo de la existencia de la vida en la Tierra. Las publicaciones de Bak y Solé, con sus respectivos colaboradores, que vienen listadas al final, son muy recomendables.15, 16
El asalto al palacio de invierno
Quizás a estas alturas, los lectores hayan sacado ya sus propias conclusiones y estén pensando en otro aspecto polémico de este mundo: las revoluciones sociales. En la primera parte señalé que las convulsiones sociales se estiman como “inconvenientes” pues se les juzga desde el punto de vista de la moral y, como todos sabemos, la moral y la ética no son únicas. José Luis Gutiérrez lo dice así: “La visión inmovilista, que descansa sobre el principio del mantenimiento del statu quo implica una ética autoritaria establecida, de una vez y para siempre, por los grupos dominantes.
“La concepción dinámica, por el contrario, implica necesariamente una ética revolucionaria.”
Me parece inútil argumentar (pero hay que decirlo) que el horror a las revoluciones también proviene del deseo, oculto o confesado, de que nuestro entorno sea apacible y ordenado. A los revolucionarios se los retrata como resentidos llenos de odio (porque su papás eran borrachos y su madres no los querían), como locos o, cuando les va bien, románticos de novela.
Independientemente de que yo pertenezca a la especie extinta de los que admiran a los revolucionarios de la Comuna de París, quiero invitar a los lectores a reconocer que si las sociedades humanas son conjuntos de individuos que interactúan entre sí de manera no-lineal, entonces no es sorprendente la incidencia natural de las revoluciones, pese al horror que provoquen en las buenas conciencias.
Las ideas de la criticalidad autorganizada están penetrando los ámbitos de las ciencias sociales; gana terreno la hipótesis de que las extinciones de civilizaciones complejas —maya, teotihuacana, anazasi, etcétera— son consecuencia natural de la dinámica de sistemas con criticalidad autoorganizada.17
Asimismo, existen grupos de trabajo (consúltese la literatura sugerida) que están formulando teorías macroeconómicas que descansan sobre el mismo formalismo.
No quiero terminar esta sección sin alertar a los lectores contra el uso fácil y acrítico de las ideas de la criticalidad autoorganizada. Desafortunadamente, es muy fácil construir un discurso deslumbrante pero vacío usando su terminología y hay quienes lo hacen; grupos new age, neohippies y, desgraciadamente, académicos de centros de investigación.
Del maligno…
No es fácil aceptar la organización espontánea de la materia, la emergencia de patrones y formas sin causa aparente, la pérdida de la simetría; tampoco lo es conceder que las fluctuaciones de los fenómenos naturales, las pequeñas y las grandes, sigan las mismas leyes, no es fácil. Los medios científicos, integrados por gente entrenada para indagar y para razonar, son paradójicamente reacios al cambio y extremadamente conservadores.
Lo nuevo, lo desconocido, provoca miedo e inseguridad. Max Planck,18 con su característica claridad, nos advierte: “Una innovación científica trascendente no se gana su lugar gradualmente, mediante la persuasión y el convencimiento de sus oponentes. Rara vez sucede que Saulo se torne en Pablo.19 Lo que sucede es que sus oponentes mueren gradualmente y que las siguientes generaciones se familiarizan con las nuevas ideas desde el principio.”
Luzbel, el ángel caído, atenta contra el orden y el equilibrio del mundo; su ciego orgullo lo lleva a tratar de usurpar el lugar del único, del verdadero Dios. A todos aquellos, científicos o no, renuentes al cambio, bien les vendría incluir la siguiente en sus oraciones nocturnas:
Del Maligno, defiéndeme.
En la hora de la muerte, llámame.
Y mándame ir a Ti,
Para que con tus santos te alabe,
Por los siglos de los siglos.
Amén
|
||||||||||||
|
Agradecimientos
José Luis Gutiérrez, Octavio Miramontes y Germinal Cocho contribuyeron con sus comentarios, correcciones y discusiones a la realización de este escrito. La primera parte del recuadro es cortesía de Peter Saunders. |
||||||||||||
|
Referencias Bibliográficas
1. http://www.santafe.edu/-gmk/MFGB/MFGB.html.
2. P. Bak, en Ch. Tang y K. Wiesenfeld, 1988, “Self-organized criticality”, Physical Review A., 38:364-374; y P. Bak, 1997, “How Nature Works”, Springer-Verlag. 3. “Grande” quiere decir, en nuestro contexto, demasiados grados de libertad para intentar resolver las ecuaciones dinámicas, pero muy pocos para que sea aplicable el formalismo de la mecánica estadística. 4. H. Glenn, et al., “Experimental study of critical-mass fluctuations in an evolving sandpile”, 1990, Physical Review Letters 65:1120-1123. 5. P. Bak y Ch. Tang, 1991, Self-organized criticality”, Scientific American (núm. de enero):28-33. 6. La legge e uguale per tutti, reza la constitución italiana; pero el pueblo, como si pensara en lo nuestro, dice: Dai mali costumi nascono le buone leggi. 7. R. Lewin, 1992, Complexity: Life at the Edge of Chaos, McMillan. 8. Aristóteles en su Metafísica (1045a, 10f) enuncia que “El todo es más que la suma de las partes” vaticinando la preocupación moderna por el estudio de las propiedades emergentes. Por su parte, Tito Lucrecio Caro escribe De rerum natura, magna obra científica en verso, y desde ahí opina que sununarum summa aeternum, “la suma de las sumas es la eternidad” vaticinando la infinitud del continuo. 9. Curiosamente, las propiedades matemáticas de los objetos fractales ya estaban completa y formalmente descritas desde principios de siglo, gracias a la obra de Hausdorff, Basicovich, Julia, Fatou y otros investigadores. 10. S. J. Gould y N. Eldridge, 1977, “Punctuated equilibrium; the tempo and mode of evolution reconsidered”, Paleobiology 3:114, 11. S. J. Gould, 1995, Dinosaur in a Haystack, Crown Trade Paperbacks, Nueva York. 12. La colonización europea en África tuvo como efecto inmediato la extinción de varias especies animales y no me atrevería a incluirla en una dinámica autoorganizada. 13. Para desgracia del chauvinismo biológico, la mayoría de los biólogos teóricos son físicos. 14. Los militaristas norteamericanos justificaban lo injustificable: la agresión genocida en Vietnam mediante la teoría del dominó: una vez que un país cayese en manos del comunismo, éste se propagaría como avalancha a los países vecinos. Esta nota ilustra los riesgos del empleo de la falsa analogía. 15. P. Bak, H. Flyvbjerg y K. Sneppen, 1994, “Can we model Darwin?” New Scientist 12:36. 16. R. Solé, J, Bascompte y S. Manrubia, 1995, “Bad genes or weak chaos”, Proceedings of the Royal Society of London 263: 1407. 17. R. Lewin, op cit. 18. Citado por G. Holton en Thematic Origins of Scientific Thought, 1973, Harvard University Press. 19. Dice la Biblia en los Hechos de los Apóstoles que Saulo era un perseguidor de los cristianos y que en una incursión armada, dirigida por él para combatir a los cristianos de Damasco, un rayo del Señor lo derribó de su caballo y el Señor le reveló que Jesús había sido el verdadero mesías. Saulo se convirtió al cristianismo y cambió su nombre por el de Pablo. |
||||||||||||
| ________________________________________ | ||||||||||||
|
Pedro Miramontes Vidal
Miembro del Grupo de Biomatemáticas,
Departamento de Matemáticas, Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||||||||||||
| ___________________________________________________________ | ||||||||||||
|
cómo citar este artículo →
Miramontes, Pedro. 1997. Del maligno, señor, defiéndeme…. Ciencias, núm. 46, abril-junio, pp. 30-37. [En línea].
|
||||||||||||
![]() |
|
||||||||||
| Ana María Cetto y Luis de la Peña | |||||||||||
|
Seguramente los ingleses Robert Boyle y Robert Hooke
no fueron los primeros en observar los sutiles y juguetones colores que presentan las escamas de los peces o las manchas de aceite en el agua cuando son iluminadas con la luz del Sol. En cambio, sí parecen haber sido los primeros científicos en sugerir, cada uno por su cuenta, que este hermoso fenómeno llamado iridiscencia es un indicio de la naturaleza ondulatoria de la luz.
Lo anterior no era poca cosa, considerando la atmósfera de pensamiento mecanicista que, con el éxito de la dinámica newtoniana, se iniciaba precisamente en la patria de Newton; atmósfera que poco más tarde sería dominada por la visión de un Universo cuyos constituyentes todos, grandes o pequeños, obedecen las leyes de la mecánica. No es que el propio Newton estuviese muy seguro de que un modelo corpuscular de la luz pudiera explicar todo lo que de ella había sido observado y lo mucho que él mismo había contribuido a elucidar y que reporta en su magnífico tratado de Óptica. Ciertamente la propagación rectilínea de la luz lo había convencido de que ésta consiste en partículas diminutas que emanan a altísima velocidad de la fuente luminosa. Pero las observaciones de ciertos efectos de la materia en su interacción con los haces luminosos —la refracción y el cambio de velocidad al pasar de un medio a otro, la descomposición de la luz blanca en colores y la formación de los anillos concéntricos que llevan su nombre, entre ellos— no parecían dejarse explicar con base en un modelo simple puramente corpuscular.
Al hecho por todos conocido de que la luz se propaga en línea recta, como lo demuestra la formación de sombras geométricas por cuerpos opacos colocados al paso de la luz, se contrapone, sin embargo, otro hecho que no nos es del todo ajeno: estrictamente, la luz no se propaga siempre en línea recta, como lo demuestra, en una observación meticulosa del borde de una sombra, la aparición de delgadas franjas luminosas en la zona oscura, así como delgadas franjas oscuras del lado iluminado. Para Newton la propagación rectilínea era lo esencial; para Hooke, en cambio, lo importante era la desviación de la propagación rectilínea. Su interpretación de este fenómeno como resultado de la difracción —la conocida desviación de la dirección de propagación de toda onda por efecto de los bordes— fue motivo suficiente para que intentase construir una primera versión de teoría ondulatoria de la luz. En contraste con las ondas en una superficie de agua, la escala a la que se producen los efectos de borde en el caso de la luz es microscópica —piénsese, por ejemplo, en las partículas que al nadar suspendidas en el interior de nuestros ojos producen finas imágenes como encajes de colores, a causa de la luz difractada. Esto indica de qué pequeñísimo tamaño habría de ser la longitud de onda de las vibraciones luminosas; ahora sabemos que para la luz visible es menor que una décima de micra.
Así fue como se inició, hace ya trescientos treinta años, un largo y accidentado capítulo de la historia de la física, que sigue deparando sorpresas, creando controversias y dando qué pensar. Una vez debidamente descartados los fluidos como el flogisto y el calórico, los físicos han concebido dos —y sólo dos— diferentes mecanismos para el transporte o la propagación de materia, energía y otras propiedades físicas, que se excluyen mutuamente: las partículas y las ondas. Se ha intentado una y otra vez explicar la propagación de la luz en términos de uno u otro de estos mecanismos. Pero la luz insiste en no dejarse encasillar por nuestros modelos; elude todo intento de definición excluyente. Durante más de tres siglos una pléyade de científicos han pasado sus mejores horas tratando de entender la luz, de describirla, de descubrir su verdadera naturaleza. Sin embargo, en cada nuevo intento, la luz parece recordarnos que una característica esencial de ella es precisamente su elusividad, su capacidad de escaparse, veloz; su necesidad de moverse siempre porque al dejar de hacerlo cesa su existencia misma.
Pero el caso no está del todo perdido, pues la noción que hoy se tiene del fenómeno luminoso, si bien es incompleta y dista de ser unánime, es mucho más rica que la que pueden haber tenido nuestros antecesores, empezando por el propio Newton, justamente gracias a las contribuciones de todos ellos: Christian Huygens, quien ya alrededor de 1680 explicó la reflexión y la refracción en términos de su principio referido a los frentes de onda como fuentes de nuevas ondas; Erasmus Bartholin y su descubrimiento de la polarización de la luz, indicio inequívoco del carácter transversal de las ondas luminosas (en contraste con las sonoras, que son longitudinales); el médico (físico y filólogo después) Thomas Young, quien, muy en contra de la opinión establecida, interpretó su histórico experimento de la doble rendija como resultado de la interferencia de ondas y desarrolló su teoría matemática; Augustin Fresnel quien, apoyándose en la propuesta de Young, simplificó y perfeccionó el formalismo ondulatorio necesario para la descripción de los fenómenos ópticos; Michael Faraday, quien descubrió por la vía experimental una estrecha relación entre la luz y el electromagnetismo; Armand Fizeau y Léon Foucault, quienes lograron medir la altísima velocidad de la luz en el aire y en el agua; James Maxwell, quien estableció la naturaleza de la luz como radiación electromagnética, describible por medio de sus clásicas ecuaciones; Max Planck, con su hipótesis de cuantización de la energía luminosa; Einstein y sus profundos estudios sobre las propiedades estadísticas de la radiación, su carácter corpuscular y su interacción con la materia; P.A.M. Dirac, quien desarrolló el formalismo de cuantización de la luz, descrita en términos de fotones; Basov, Prokhorov y Townes por haber inventado el máser y el láser; los ópticos que han realizado finísimos experimentos de interferencia y fotodetección en condiciones extremas de intensidad luminosa… y tantos otros que es imposible mencionarlos a todos en este espacio.
El experimento de Thomas Young
Los impresionantes avances de la instrumentación óptica en tiempos recientes, estrechamente vinculados a los nuevos láseres y sistemas de fotodetección y conteo, han dado lugar a una oleada de finos y elaborados experimentos de interferencia, que hasta hace poco no pasaban de ser gedankenexperimente o sueños de la imaginación de los físicos teóricos. Con ellos se están poniendo a prueba —exitosamente—, una tras otra, las predicciones de la teoría. Pero el verdadero éxito de estos experimentos consiste en que siempre arrojan algún resultado que pone a prueba, a su vez, la capacidad de los teóricos de entender el fenómeno e interpretarlo correctamente. Cada nuevo experimento pretende acercarnos más a la realidad, o a algún aspecto de ella. Sin embargo, cuanto más indirecto es el contacto del experimentador con el sistema, por alejarse este último de la escala de sensibilidad humana, tanto mayor es el margen para la interpretación teórica.
En este artículo ofreceremos elementos que ayudan a entender los recientes experimentos de interferencia, desde una perspectiva concreta acerca de los fenómenos cuánticos de la radiación y la materia. Pero, para apreciar en su justo sentido tales experimentos, convendrá partir desde el principio e ir por pasos. Así que remontémonos nuevamente a los inicios del siglo pasado y recordemos la esencia del experimento de Young
En el arreglo presentado esquemáticamente en la figura 1, la luz que emana de una fuente puntual F es interceptada por la pantalla opaca y sólo puede pasar aquélla que atraviesa por las delgadísimas rendijas P1, P2. El patrón de interferencia se produce en la pantalla de proyección, al coincidir los dos haces provenientes de las rendijas; Q representa un punto cualquiera de este patrón. Éste es un experimento sencillo que, con elementos caseros y una cierta dosis de curiosidad y paciencia, uno puede realizar en un cuarto oscuro. Se obtiene una imagen como la de la figura 1b si se emplea una fuente de luz de color puro, o bien una superposición de patrones de diferentes anchos y colores si se emplea luz blanca.
Para entender la formación de esta imagen es necesario pensar que la luz viaja en forma de ondas; no hay otra salida. Originalmente las ondas emanan de un foco puntual y se propagan radialmente hacia la pantalla, formando frentes de onda concéntricos; las dos rendijas actúan como nuevas fuentes de ondas que viajan por separado; pero, ahí donde coinciden estas ondas, se superponen sumando algebraicamente sus amplitudes y dando como resultado el típico patrón en que las zonas oscuras se alternan con las zonas de luz (figura 1c): ahí donde coinciden las crestas o los valles de las dos ondas, las amplitudes se suman; donde la cresta de una onda coincide con el valle de la otra, se cancelan. Nótese que al tener las nuevas fuentes de luz (P1 y P2) un origen común (F), queda garantizada la coherencia de las ondas, que es esencial para generar interferencia; si en su lugar se colocan dos focos independientes no hay una relación constante entre las fases de las ondas que emanan de ellos, y la pantalla de proyección queda totalmente iluminada, por ausencia de interferencia.
A partir del experimento de Young se han desarrollado instrumentos de interferencia de diversos tipos, que varían según el sistema empleado para dividir el haz de luz original; la pantalla con las dos rendijas puede sustituirse con un juego de espejos, o un biprisma, o incluso una lente partida por la mitad. Con un poco más de elaboración, tales instrumentos se convierten en interferómetros ópticos; los hay de haz doble y de haz múltiple, y sirven para realizar tareas de muy alta resolución en metrología y espectroscopía. Por ejemplo, se determina con ellos la forma de una superficie pulida con una precisión hasta de algunas millonésimas de milímetro, o la separación, hasta algunos millones de kilómetros, entre dos estrellas binarias que se encuentran a años luz de distancia.
En otra notable familia de interferómetros, el haz se divide en dos con ayuda de un semiespejo: un espejo especial que, idealmente, refleja la mitad de la luz y deja pasar la otra mitad. A esta familia pertenecen los interferómetros de Michelson, como el que fue empleado en 1881 para el histórico experimento que estableció la constancia de la velocidad de la luz, base actual para la teoría de la relatividad especial.
Un primo popular del instrumento de Michelson, llamado de Mach-Zehnder, se ilustra esquemáticamente en la figura 2. Aquí también el haz de luz incidente se divide por un semiespejo (S1), y los haces separados se recombinan con la ayuda de los espejos (E1, E2) y un segundo semiespejo (S2), después de haber recorrido sendas diferentes. El patrón de interferencia puede registrarse en cualquiera de los dos detectores (D1, D2) que reciben los haces recombinados. Si se coloca un objeto transparente al paso de uno de los haces (el haz 1, digamos), se verá modificado el patrón de interferencia: podrá recorrerse o distorsionarse, según las características ópticas del objeto; así, el patrón de interferencia nos proporciona información sobre el objeto. Si el objeto es opaco, intercepta totalmente el haz 1, y sólo el haz 2 llega a los detectores, sin interferencia.
La familia de interferómetros ha seguido creciendo y multiplicándose, hasta incluir instrumentos basados en técnicas holográficas. Con ellos se pueden registrar y analizar minúsculas deformaciones de un objeto, irregularidades en una superficie, flujos de aire en torno a modelos aerodinámicos, o los patrones de turbulencia en cualquier fluido transparente; las aplicaciones son múltiples. Para los propósitos del presente artículo bastará considerar el experimento de Young, o bien la versión más sencilla del instrumento de Mach-Zehnder ilustrada en la figura 2.
¿Interferencia de fotones?
Cuando, a principios de siglo, se fue consolidando la imagen de la luz como constituida por corpúsculos o paquetes de energía, según los trabajos de Planck y Einstein, comenzaron a surgir serios problemas de compatibilidad con el modelo ondulatorio porque, al tratar de entender los experimentos de interferencia en términos de corpúsculos, emergen naturalmente preguntas como las siguientes: ¿qué papel desempeñan los fotones: acaso interfieren unos con otros, o es que cada uno interfiere consigo mismo?, o si no, ¿cómo es que el fotón que pasa por una rendija se entera de que a cierta distancia hay otra rendija abierta, por la que no está pasando?, ¿acaso el fotón se vuelve onda para pasar por las dos rendijas, y después, al incidir sobre la pantalla, se transforma nuevamente en corpúsculo?
Estas preguntas han recibido cualquier tipo de respuestas, sin que ninguna de ellas pueda decirse que es del todo satisfactoria. Hay quien ha llegado a recurrir inclusive a la conciencia del experimentador como el elemento que decide en qué instante se produce la supuesta metamorfosis onda-corpúsculo…
Al poco tiempo del surgimiento de la hipótesis cuántica, ya en 1909, se diseñaron experimentos de interferencia ex profeso con la esperanza de encontrar respuesta a algunas de estas interrogantes. Era necesario aprender a realizar tales experimentos en condiciones que permitieran poner en evidencia la naturaleza corpuscular de la luz, o sea, en condiciones de muy baja —bajísima— intensidad luminosa.
En las aplicaciones ópticas que mencionamos arriba, la interferometría se realiza comúnmente con una iluminación suficiente para apreciar bien los patrones de bandas claras y oscuras. Para el experimento de Young, por ejemplo, es normal emplear un foco de unos cuantos watts de potencia efectiva. En nuestro lenguaje cotidiano, ésta parece ser una cantidad razonable; pero traducida al lenguaje fotónico, equivale a nada menos que unos cuantos trillones de fotodetecciones por segundo; en otras palabras, cuando un fotodetector recibe una intensidad equivalente a un watt de luz blanca, debe absorber, idealmente, más de 1018 fotones por segundo. En tales circunstancias los brazos del interferómetro están todo el tiempo repletos de fotones que ocupan la misma región del espacio.
Si se desea investigar las propiedades ondulatorias de los fotones —o bien, las propiedades corpusculares de la radiación luminosa— es necesario que esta intensidad se reduzca por muchos órdenes de magnitud. Como el lector puede imaginar, la tarea no es sencilla: se requiere una fuente de luz estable que emita apenas unos cientos de fotones por segundo y que se mantenga encendida durante un largo rato, en total oscuridad ambiente, para producir una imagen clara del patrón de interferencia. Se requiere de un divisor del haz que haga justamente eso: dividirlo en dos, sin alterarlo por absorción o dispersión. El interferómetro debe tener los brazos largos y separados entre sí, para asegurar que no haya interacción entre los dos haces. Se requiere de haces muy bien colimados para que lleguen enfocados hasta los detectores, los cuales deben ser de alta eficiencia para evitar pérdidas de información.
En el transcurso de los últimos cuarenta años, los experimentos se han ido acercando más y más a estas condiciones ideales. Proliferan y se extienden los experimentos: de Hungría a la Unión Soviética, de ahí a Escocia, a Francia, Estados Unidos, Austria… y en cada uno de ellos se introducen nuevas variantes, a menudo sugeridas por los ópticos teóricos, que esperan, en cada ocasión, recibir una respuesta o confirmación “definitiva” de su hipótesis o predicción. Aunque rara vez esta esperanza se ve satisfecha, poquito a poco se va obteniendo un cuadro más completo del fenómeno. Más completo, quizás sí; más comprensible, ya no es tan claro.
Puede ahora decirse con certeza, por ejemplo, que aunque los fotones sean recibidos uno a uno por el detector, juntos van construyendo el patrón de interferencia. Esto quiere decir que en cada fotodetección aislada está presente de alguna forma la información de la existencia de los dos posibles caminos, sin necesidad de que los fotones interaccionen o interfieran entre sí. Ya sea que el fotón viaje por el brazo 1 o por el brazo 2 del instrumento, llegará a un punto del detector que corresponde a banda clara en el patrón de interferencia; ni por error aterriza en una zona oscura. Curiosamente, cuando un objeto opaco interrumpe uno de los caminos, el haz que viaja por el otro camino “recibe” esta información: incide indistintamente sobre todos los puntos del detector, sin señal alguna de interferencia. Desde una perspectiva puramente ondulatoria no hay misterio; el problema surge cuando se quiere entender el comportamiento del componente corpuscular de la luz.
Con estos resultados se pone en evidencia una de las características más singulares y menos comprendidas de los sistemas cuánticos: la no localidad. En cada evento aislado está presente la información del conjunto. Cada una de las fotodetecciones, aun siendo un evento perfectamente localizado en el espacio, obedece a un conjunto de leyes y restricciones determinadas por el arreglo experimental completo. No importa si un fotón dado viajó por el camino 1 o por el camino 2; de todas maneras “sabe” si el otro camino, distante, está abierto o no.
Irónicamente, sin embargo, el experimentador no puede saber por dónde viajó el fotón cuando los dos carninas se encuentran abiertos y libres de obstáculos. Cualquier intento por averiguarlo, se dice, implica una intervención con el experimento, una alteración del estado del sistema observado, que acaba por destruir la interferencia. Una vez más, el fotón lleva las de ganar.
Recientemente algunos físicos se han propuesto retar de nueva cuenta al fotón, proponiendo el concepto de mediciones “libres de interacción”. En su versión más simple, la idea es como sigue: tómese el interferómetro de la figura 2, y colóquense los detectores a la salida de manera que D1 esté en una banda de luz del patrón de interferencia 1, y D2, en cambio, esté en una banda oscura del patrón 2. Cuando los dos brazos están libres de obstáculos, toda la luz será recibida por D1, pero, si en un momento dado, se interpone un obstáculo al paso de la luz en el brazo 1, los dos detectores reciben luz, de manera que cada fotón registrado en D2 señala inequívocamente la presencia de un obstáculo en el brazo 1 —por el que no transitó. Se dice así que el fotón efectuó una “medición” del obstáculo en el brazo 1 sin haber interactuado con él…
El mar de fondo
La situación a la que se ha llegado, apenas bosquejada aquí, recuerda el estado de cosas al que había conducido el modelo de Ptolomeo para el movimiento de los planetas, en la época del Renacimiento: se requerían explicaciones cada vez más elaboradas y argumentos ad hoc cada vez menos convincentes, antes de que la hipótesis heliocéntrica irrumpiera en el panorama y ayudara a poner cada cosa en su lugar. Análogamente, en el caso de la luz, se antoja necesario encontrar un nuevo elemento físico, unificador y simplificador, que permita construir una imagen coherente, tal que las diversas piezas embonen en su lugar sin hipótesis adicionales introducidas ex profeso ante cada nueva sorpresa.
Este elemento debe ser capaz de explicar al menos dos características que están siempre presentes en los experimentos: la aparente no localidad y, al mismo tiempo, la aleatoriedad manifiesta de los eventos individuales. En este contexto resulta muy sugerente aceptar la existencia del vacío electromagnético o campo de radiación de punto cero —ya latente en los trabajos de Max Planck de principios de siglo—, que representa el estado “en reposo” del campo de radiación electromagnética. Se le llama así porque existe aun a temperatura cero, en ausencia de luz. Este mar de fondo, que está siempre presente y permea todo el espacio, es un campo ondulatorio, estocástico, que posee componentes de todas las longitudes de onda. La luz se superpone a él; se dice que es el asiento de los fenómenos luminosos. Tratándose de un campo electromagnético, está sujeto al cumplimiento de condiciones de frontera y de continuidad en presencia de objetos materiales; por ello contiene en su estructura la información de todo el entorno, de la situación experimental completa. Por ejemplo, cuando un interferómetro tiene los dos brazos abiertos, este campo posee determinada estructura; cuando uno de los brazos se cierra, el campo de fondo se entera: en el espacio ocupado por el instrumento, su estructura toda se ve modificada.
Si bien este mar de fondo es invisible por sí solo, es de concebirse que interfiere —en las condiciones experimentales apropiadas— con el campo de radiación fotónica, lo que quiere decir que la luz de cierta longitud de onda interfiere con las componentes de la misma longitud de onda que contiene el campo de punto cero. De esta manera la información “no local” o “global” contenida en él —oculta en ausencia de luz— se imprime en cada evento individual que culmina con una fotodetección —se pone de manifiesto con la presencia de la luz.
Un primer intento en esta dirección lo ha hecho la óptica estocástica, para explicar los resultados de una variedad de experimentos de interferencia sin necesidad de introducir el concepto de fotón. Esta teoría ha sido estudiada con especial énfasis por Emilio Santos en Santander y Trevor Marshall en Manchester. Aún hay mucho que explorar por este camino, para lo cual será necesario desarrollar una teoría más completa que tome también en cuenta la interacción de ambos campos con la materia; pero al menos se vislumbra en principio la posibilidad de construir una imagen más satisfactoria, sin recurrir a fenómenos misteriosos o a la conciencia del experimentador.
Antes de terminar, habría que mencionar que fenómenos ondulatorios análogos a los aquí descritos se dan entre las partículas, como los electrones, por ejemplo. También los electrones poseen propiedades ondulatorias: se refractan, interfieren, se difractan…; también el comportamiento de los electrones es no local y aleatorio.
Según la electrodinámica estocástica —la teoría complementaria a la óptica estocástica orientada a explicar el comportamiento cuántico de la materia—, es posible en principio entender estas singulares características de las partículas si se acepta que detrás del fenómeno de interferencia está una vez más el campo electromagnético de punto cero, el mismo mar oscuro: al interactuar con este fondo ondulatorio, los electrones adquieren movimientos que reflejan su estructura específica según el arreglo experimental. Aquí lo interesante es que una hipótesis única, una causa común, se identifica como la fuente de ambos comportamientos, el de la luz y el de las partículas. Pero esto es material para otra ocasión…
|
|
|
|
||||||||
|
|
|||||||||||
|
Referencias Bibliográficas
Boyer, T. H., 1985, The classical vacuum, Scientific American 253, 70-78, (febrero).
Cetto, A. M., 1996, La Luz. La ciencia desde México, FCE, México. Hecht, E., 1987, Optics, Addison-Wesley, Mass., cap. 9. Kwiat, P., H. Weinfurter y A. Zeilinger, 1996, Quantum seeing in the dark, Scientific American 264, 52-58 (noviembre). Malacara, D., 1989, Óptica básica, FCE, México, cap. IX. Robinson, A. L., 1986, Demonstrating single photon interference, Science vol. 23 1, 671-672 (febrero). Watson, A., 1996, Physicists trap photons and count them one by one, Science 272, 34 (abril). |
|||||||||||
| ___________________________________________________________ | |||||||||||
|
Ana María Cetto
Investigadora del Instituto de Física, Universidad Autónoma de México.
Coordinadora del proyecto del Museo de la Luz.
Luis de la Peña
Investigador emérito de la Universidad Nacional Autónoma de México.
Investigador del Instituto de Física, UNAM.
|
|||||||||||
| ____________________________________________________________ |
|||||||||||
|
cómo citar este artículo →
Cetto, Ana María y De la Peña, Luis. 1997. Luz sobre un mar de fondo. Ciencias, núm. 46, abril-junio, pp. 20-25. [En línea].
|
|||||||||||
![]() |
|
||||||||||
| Shahen Hacyan |
|||||||||||
|
¿Cómo suena el árbol que cae cuando no hay nadie en el bosque que lo escuche?
Koan Zen
|
|
|
|
||||||||
|
“¿Qué es la realidad?” Percibimos el mundo a nuestro
alrededor por medio de nuestros sentidos, pero ¿cómo podemos estar seguros de que éstos no nos engañan? La existencia de una realidad independiente de toda percepción ha sido siempre un problema fundamental de la filosofía y, desde épocas remotas, filósofos idealistas y materialistas se han enfrentado entre sí. Los primeros sostienen que la realidad, tal como la percibimos, es una consecuencia más o menos directa de nuestras ideas, mientras que para los segundos el mundo es absolutamente independiente de nuestro aparato psíquico y existe tal cual independientemente de todo sujeto. Todo esto parecía restringido al estrecho ámbito de las discusiones académicas, pero ahora, gracias a la física cuántica, estamos en posibilidad de aclarar algunos puntos relacionados con la percepción de la realidad. Por primera vez en la historia, se nos presenta la oportunidad de hacer filosofía en un laboratorio.
¿Existe una realidad objetiva?
La posición más extrema del idealismo es el llamado solipsismo, que niega toda realidad externa y reduce toda la percepción a la imaginación pura. Si veo una revista en mis manos y leo un artículo de divulgación científica, es porque me lo estoy imaginando; si una piedra me golpea y siento dolor, todo el proceso también es producto de mi imaginación.
El problema de una realidad externa inquietó bastante a Descartes, quien tuvo que recurrir a su famoso “Pienso, luego existo” para convencerse de su propia existencia. Pero ¿existe lo que está fuera de mí, aquello que llamamos el mundo material? Después de mucho meditar al respecto, Descartes llegó a la conclusión de que podemos estar seguros, por lo menos, de la existencia de Dios, pues seres finitos como nosotros somos incapaces por nuestra propia cuenta de concebir la idea de un Ser Infinito.1 Por lo tanto, debemos concluir que la idea de Dios fue colocada por Él en nuestra mente, y si aceptamos este hecho podemos hacer lo propio con otras ideas. Entre esas ideas innatas que nos sirven para percibir el mundo, se encuentran en primer lugar las ideas matemáticas, ya que “física, astronomía, medicina, y todas las otras ciencias que dependen de la consideración de objetos compuestos, son muy dudosas e inciertas; mientras que aritmética, geometría y otras ciencias de esta naturaleza, que tratan sólo de cosas muy simples y generales, sin mucho preocuparse si están en la naturaleza o no, contienen algo cierto e indubitable. Ya que, duerma yo o esté en vigilia, dos y tres siempre serán cinco y un cuadrado tendrá cuatro lados…”2 Y el inventor de la geometría analítica llega a la conclusión fundamental de que: “Percibimos los cuerpos mismos sólo por la facultad de entender que está en nosotros, y no por la imaginación o los sentidos”.3
El problema de la realidad del mundo exterior pareció pasar a un segundo plano cuando surgió la física newtoniana. Isaac Newton demostró que el movimiento de los planetas es de la misma naturaleza que el movimiento de los proyectiles en la Tierra, y que se puede describir con toda precisión por medio del álgebra y la geometría, esas ciencias que eran las únicas indubitables, según Descartes. Gracias a Newton y las ideas matemáticas innatas, nuestra mente logró aprehender una realidad más allá de lo que hubiera imaginado el filósofo francés.
Los éxitos de la mecánica newtoniana fueron cuestionados por los filósofos idealistas, entre los cuales destaca el obispo irlandés Georges Berkeley, a quien se considera el principal representante del idealismo puro. Si todo lo que sabemos del mundo exterior es a través de nuestras percepciones, ¿para qué necesitamos la materia?, preguntó Berkeley. Podemos prescindir de ella y suponer que no existe más realidad que nuestras ideas. Y en contra de la objeción de que, en tal caso, las cosas deberían desaparecer si nadie las mira; Berkeley argumentó que las ideas son colectivas pues nos están dadas por Dios. La doctrina de Berkeley sería, en cierto sentido, un solipsismo colectivo. En pleno siglo XIX se produjo una violenta reacción contra el idealismo, encabezada por grandes pensadores como Marx y Engels, y poco después Lenin, quienes postularon la existencia de una realidad objetiva, material, absolutamente independiente del sujeto humano, con sus propias leyes, leyes que la ciencia estaba en posición de develar una tras otra.
Sin embargo, el asunto resultó ser más complicado de lo que se imaginaban los filósofos del siglo pasado. Cuando surgió la mecánica cuántica para explicar fenómenos atómicos que escapan de toda explicación intuitiva, el concepto de la realidad volvió a ser cuestionado, pero ahora por físicos y ya no por filósofos.
Nace el cuanto
El nacimiento de la mecánica cuántica se puede situar en 1900, cuando Max Planck descubrió que la radiación de los llamados cuerpos negros (esencialmente un horno cerrado en equilibrio térmico) podía explicarse con la suposición de que la luz se propaga en paquetes de energías. Cada paquete tiene una energía proporcional a la frecuencia de vibración de la onda luminosa; la relación entre energía y frecuencia está dada por la llamada constante de Planck, que es una de las constantes fundamentales de la naturaleza. Para Planck, empero, su descubrimiento sólo era un resultado matemático. Fue Einstein quien, en un célebre artículo publicado en 1905, le dio una interpretación física: la luz se compone de partículas y estas partículas son justamente los paquetes de energía imaginados por Planck. La partícula de luz fue bautizada algunos años después con el nombre de fotón.
El siguiente paso importante fue el descubrimiento en 1911 de que el átomo se compone de un núcleo atómico rodeado de electrones, partículas con carga eléctrica. Poco después, Niels Bohr mostró que las líneas espectrales de la luz emitida por el hidrógeno se deben al “salto” de los electrones de una órbita atómica a otra. Así como los planetas giran alrededor del Sol, los electrones en un átomo giran alrededor del núcleo atómico, pero con la crucial diferencia de que los electrones no pueden estar en cualquier órbita, sino en algunas bien definidas. El salto de una órbita a otra produce la emisión de un fotón con una energía definida por la fórmula de Planck.
Quedaba pendiente elucidar la naturaleza de la luz. La vieja controversia, ¿partícula u onda?, parecía definitivamente resuelta en el siglo XIX, pues uno de los grandes éxitos de la teoría de Maxwell había sido justamente explicar el fenómeno de la luz como una onda electromagnética. Y he aquí que a principios del siglo XX se descubrían fenómenos físicos que indicaban claramente que la luz también se comporta como partícula. Este problema se resolvería en parte en 1924 cuando Louis de Broglie demostrara la dualidad entre onda y partícula en el nivel atómico.
La complementariedad
La coexistencia de dos propiedades contradictorias en un mismo ser es un concepto conocido en muchas doctrinas filosóficas, pero adquiere una característica esencial en el nivel atómico. Una partícula del mundo atómico, como un fotón o un electrón, se comporta a veces como una onda y a veces como una partícula. Así como la luz, que se creía era una onda, exhibe naturaleza de partícula en ciertas circunstancias, de Broglie mostró que, de la misma forma, un electrón puede comportarse como onda. Este hecho explica por qué sólo ciertas órbitas de los electrones en los átomos son estables.
Una onda es un objeto extendido en el espacio que puede pasar simultáneamente por varios lugares distintos; una partícula, en cambio, es un objeto compacto que sólo puede estar en un sitio a la vez. Las ondas tienen la importante propiedad de interferir unas con otras: cuando dos ondas se cruzan, una cresta se suma a otra cresta, pero donde coinciden una cresta y un valle, los dos se cancelan mutuamente. Cuando dos ondas luminosas llegan a una pantalla desde fuentes distintas, producen lo que se llama un patrón de interferencia: una sucesión alternada de zonas brillantes y oscuras (el tamaño de cada zona es de sólo unas micras para la luz visible, por lo que el efecto no se detecta a simple vista). Por el contrario, las partículas sólo pueden amontonarse unas sobre otras sin presentar ninguna interferencia y, por supuesto, una partícula sólo puede pasar por una abertura a la vez (figura 1a).
¿Cómo se manifiesta el hecho de que los electrones se comporten como partículas y ondas? Si son ondas, entonces un haz de electrones que pase por dos agujeros de una pantalla debería presentar un patrón de interferencia al llegar sobre una segunda pantalla, tal como lo hace la luz (figura 1b). Y, en efecto, así sucede en la práctica. Hasta aquí parecería que no hay ningún problema conceptual, pero ¿qué sucede si algún experimentador indiscreto decide observar por cuál abertura pasa cada electrón, uno por uno? Esto se puede lograr poniendo en cada orificio de la primera pantalla algún detector de electrones que haga “clic” al paso de una partícula; después de lo cual, miramos la segunda pantalla y vemos cómo caen los electrones sobre ella. Pero, si se observan los electrones… ¡no se forma ningún patrón de interferencia! Los electrones simplemente se amontonan enfrente de cada orificio, tal como lo harían las partículas comunes y corrientes. De algún modo, si un observador humano diseña un experimento para ver a los electrones como ondas, éstos se comportan como ondas, y si diseña un experimento para verlos como partículas, entonces se comportan como partículas. El experimento mencionado contiene el misterio fundamental de la mecánica cuántica, como bien lo señaló Richard Feynman (recomendamos al lector interesado la discusión original de Feynman).4
La necesidad de una descripción dual de la naturaleza fue reconocida por Niels Bohr, quien la llamó complementariedad. Dos descripciones distintas, y hasta contradictorias entre sí, se complementan para aprehender la realidad. Pero el punto esencial en el que insistió Bohr es que el acto de observar la realidad influye en cuál de esos aspectos se manifestará, de modo tal que cuando observarnos uno de los aspectos, debemos renunciar al otro. Si veo al electrón como onda, excluyo toda posibilidad de percibirlo como partícula y viceversa.
La complementariedad también se manifiesta en otro aspecto: la descripción en términos espaciales y dinámicos. En principio, en la mecánica clásica, se puede especificar simultáneamente la posición de una partícula y su velocidad. Pero posición y velocidad en la mecánica cuántica son descripciones complementarias. De acuerdo con el famoso principio de incertidumbre de Werner Heisenberg, determinar la posición de una partícula influye sobre su velocidad y viceversa. En el mundo cuántico, si decido medir con gran precisión la posición en el espacio de un electrón, tendré necesariamente que alterar su velocidad y esto será a costa de perder la precisión con la que puedo determinar sus propiedades dinámicas; del mismo modo, un experimento diseñado para determinar con gran precisión la velocidad de un electrón afectará su posición y no me permitirá saber con exactitud dónde se encuentra.
¿Tienen, entonces, la posición y la velocidad existencias objetivas, independientes de un observador?
La función de onda
Las bases físicas y conceptuales de la mecánica cuántica empezaban a quedar bien establecidas en los años veinte, pero faltaba un aparato matemático que permitiera resolver problemas específicos en forma sistemática. Ese formalismo teórico finalmente surgió en 1926, cuando Erwin Schrödinger encontró la famosa ecuación que lleva su nombre. Schrödinger demostró que los problemas que surgen en la mecánica cuántica se pueden resolver formalmente encontrando lo que los matemáticos llaman los “valores propios” de una cierta función compleja, la función de onda ψ
¿Qué describe esta función de onda? Originalmente, el mismo Schrödinger pensaba que una partícula atómica, como el electrón, era literalmente una onda, por lo que había que regresar al concepto de la materia como un continuo, en contra de la hipótesis de los átomos. Sin embargo, Max Born propuso una interpretación alterna que, hasta ahora, es la más aceptada y que Niels Bohr adoptó de inmediato. En la interpretación de Born, la función de onda (o más precisamente su módulo al cuadrado) representa la probabilidad de encontrar una partícula con ciertas propiedades. Por ejemplo, la función de onda de un electrón expresada en términos de coordenadas espaciales proporciona la probabilidad de encontrar a la partícula en cada punto del espacio.
Sin embargo, la interpretación probabilística de Born no estaba exenta de dificultades conceptuales, como él mismo estaba consciente, pues escribió: “A pesar de que los movimientos de las partículas no están determinados más que por probabilidades, estas mismas probabilidades evolucionan de acuerdo con leyes causales”. Para aclarar este problema y muchos otros relacionados surgió lo que llegó a llamarse la interpretación de Copenhague de la mecánica cuántica, en honor a la ciudad de residencia de Niels Bohr, su principal defensor.
En la mecánica clásica, si se conocen la posición y la velocidad iniciales de una partícula, o en general de cualquier sistema físico, entonces las ecuaciones de movimiento permiten calcular, al menos en principio, la posición y velocidad del sistema en cualquier otro momento posterior. En este sentido, la mecánica clásica es una teoría causal: a cada causa corresponde un sólo efecto, y este efecto es susceptible de conocerse. Por supuesto, en la práctica, un problema puede ser tan complicado que encontrar una solución exacta es imposible, pero esto no se debe a limitaciones de principio de la mecánica cuántica, sino a dificultades técnicas y limitaciones de nuestro conocimiento de la situación real. La física clásica es una teoría completa, aunque en la práctica debamos a menudo recurrir a una descripción probabilística. Por ejemplo, calcular el resultado de un volado es tan complicado que, para fines prácticos, es más simple afirmar que la probabilidad de que una moneda caiga de un cierto lado es de 50 por ciento. Donde hay conocimiento incompleto o demasiado complejo, más vale recurrir a una descripción estadística, por muy completa que sea la teoría.
De acuerdo con la interpretación de Copenhague de la mecánica cuántica, la función de onda describe el conjunto de todos los posibles estados de un sistema físico en condiciones específicas. El hecho de hacer una medición equivale a forzar al sistema a manifestarse en uno de esos posibles estados, y un conocimiento total de la función de onda permite calcular la probabilidad de que ese estado sea el resultado de la medición efectuada. Pero, por otra parte, la ecuación de Schrödinger permite calcular exactamente la función de onda para cualquier tiempo si se conoce esa misma función de onda en algún momento inicial, por lo que la mecánica cuántica es una teoría causal. Cabe entonces cuestionar la interpretación de esta teoría necesariamente en términos de probabilidades, ya que se recurre a la probabilidad cuando una teoría no permite un conocimiento completo y causal de la realidad.
La solución al problema anterior la ofreció Heisenberg, con base en el principio de incertidumbre que lleva su nombre. La indeterminación del estado de un sistema se produce por el acto de observar y medir, porque hay un límite a la certidumbre con la que se puede conocer el estado de un sistema físico, un límite inherente a todo proceso de medición. Mientras no se interfiera con un sistema por medio de la observación, la función de onda de ese sistema físico contiene todas las posibilidades en “potencia”, en el sentido utilizado por Aristóteles. Cuando un observador toma conciencia del resultado de una observación, se produce una “reducción” del conjunto de posibilidades, que equivale a una transición brusca de lo posible a lo real. Por lo tanto, las probabilidades que describe la función de onda son probabilidades que se anticipan a una posible medición. En ese sentido, son “probabilidades en potencia” que no afectan la precisión con la que se puede estudiar el estado de un sistema. En resumen, la mecánica cuántica es una teoría causal y completa, y las incertidumbres asociadas a las probabilidades se deben sólo a la intervención de un observador.
Así, de acuerdo con la interpretación de Copenhague, un átomo (o una partícula como el electrón) puede estar en varios estados simultáneamente. El acto de observarlo lo fuerza a pasar a uno de esos estados y manifestarse en él. Esta interpretación pone especial énfasis en la inseparabilidad del sujeto y del objeto, de modo tal que el concepto ingenuo de realidad objetiva pierde su sentido obvio, pues, ¿qué es esa realidad antes de hacer una observación?
La interpretación de Copenhague no fue del agrado de todos los físicos. Entre sus críticos más severos destacan nada menos que Einstein y Schrödinger, dos de los fundadores de la mecánica cuántica. El creador de la teoría de la relatividad siempre pensó que la mecánica cuántica, cuyos éxitos son indiscutibles, era una etapa previa a una teoría del mundo más profunda, que habría de surgir en el futuro y que le diera lugar a una concepción de la realidad más acorde con nuestras ideas intuitivas. “¿Acaso la Luna deja de existir cuando nadie la mira?”, preguntó. A lo cual Bohr contestó que la Luna es un objeto macroscópico al que no afecta el hecho de que se le observe; pero, por el contrario, para “ver” un átomo es necesario bombardearlo con luz, lo cual perturba forzosamente su estado.
El gato de Schrödinger
A Schrödinger, que estaba del lado de Einstein en contra del bando de Copenhague, se le debe una famosa paradoja. Imaginó un experimento mental para cuestionar las interpretaciones de la nueva teoría propuesta por sus colegas: supongamos que se encierra un gato en una caja, junto con un detector de radiación (por ejemplo, un contador Geiger), el cual puede accionar un mecanismo para destapar una botella con gas venenoso. Se pone en la caja un átomo de alguna sustancia radiactiva para que, en el momento en que se produzca la emisión radiactiva, se desencadene el mecanismo que mata al gato. Ahora bien, de acuerdo con la interpretación favorita de Bohr y Heisenberg, mientras nadie observa lo que sucede dentro de la caja el átomo está simultáneamente en dos estados —emitió radiación y no la emitió— y, por tanto, el gato está vivo y muerto a la vez. Sólo cuando se observa lo que sucedió en la caja se define el destino del felino.
Durante varias décadas, la paradoja del gato de Schrödinger perteneció al ámbito de los experimentos mentales. Fue sólo recientemente cuando los físicos experimentales lograron crear un estado parecido, aunque restringido al mundo atómico. En un experimento reportado en 1996 por un equipo de la Universidad de Boulder, en Colorado,5 se utilizó un átomo ionizado de berilio en lugar de un gato. El experimento consistió en aislar ese átomo, colocarlo en una trampa electromagnética y, por medio de láseres acoplados a las frecuencias del átomo, influir sobre sus electrones para ponerlo en dos estados distintos simultáneamente, en analogía con el gato vivo y muerto a la vez. El siguiente paso fue separar esos dos estados y comprobar que se ubican en dos lugares distintos. Los detalles técnicos rebasan las intenciones de este artículo, pero la conclusión a la que llegaron los físicos de Boulder es que el mismo átomo en dos estados distintos se había separado una distancia de 80 millonésima de milímetro. Esta separación es demasiado pequeña en nuestra escala común para invocar el milagro de la ubicuidad, pero es una distancia considerable en el nivel atómico porque corresponde a unas mil veces el tamaño típico del átomo de berilio. Lo importante, sin embargo, es que el experimento parece confirmar una de las predicciones de la mecánica cuántica que más frontalmente choca con nuestro sentido común.
La paradoja EPR
EPR son las iniciales de Einstein y dos colaboradores suyos, Boris Podolsky y Nathan Rosen, quienes en 1935 escribieron un pequeño artículo sobre los fundamentos de la física cuántica que, al igual que el gato de Schrödinger, causó un revuelo que todavía no termina. Y no es para menos, pues el tema central de su trabajo es la realidad objetiva y la existencia de una misteriosa interacción que no tiene equivalente en el mundo macroscópico y a la cual Einstein alguna vez llamó “fantasmagórica acción a distancia”.
La esencia de la paradoja es la siguiente: como ya mencionamos, la mecánica cuántica según la interpretación de Copenhague no trata de “objetos” como el átomo o el electrón, sino del conjunto de todos los posibles “estados” en los que éstos se encuentran. Antes de observarse, un átomo está en un conjunto de estados posibles; al efectuarse una medición se interfiere con ese conjunto, de modo tal que sólo uno de ellos se manifiesta al observador.
Pues bien, argumentaron EPR, si es así, entonces consideremos dos partículas que actúan entre sí durante un cierto tiempo y luego se separan, de tal modo que ya no puedan influir la una en la otra. Según la interpretación de Copenhague, después de la separación, las partículas de todos modos permanecen en un “estado enredado” común a las dos, y por tanto el hecho de observar una de las partículas debe determinar el estado de la otra, por muy lejos que se encuentre. En principio podríamos tener una de las partículas en la Tierra y transportar la otra a Marte. En el momento de observar la partícula terrestre influimos instantáneamente en la que está en otro planeta.
En particular, sería posible determinar la posición exacta de la partícula lejana midiendo con toda precisión la posición de la partícula que se quedó en la Tierra. De esta forma, la situación espacial de la otra partícula adquiere una realidad objetiva. Del mismo modo, se puede determinar con toda precisión la velocidad de esa partícula lejana, si decidimos medir la velocidad de la que nos quedó cerca, y esta medición le confiere también realidad objetiva a la velocidad de la partícula lejana. Tenemos entonces la extraña situación en la que la realidad objetiva de la velocidad y la posición de una partícula lejana, digamos en Marte, depende de la clase de mediciones que decidamos hacer en la Tierra. La conclusión de EPR es que tanto posición como velocidad tienen realidad objetiva, a pesar del principio de incertidumbre de Heisenberg, y si la mecánica cuántica no les puede conferir esa realidad, la culpa es de la mecánica cuántica por ser una teoría incompleta. La única manera de evitar esta conclusión es suponer que existe una interacción instantánea a distancia, independiente de la distancia de separación… ¡lo cual debe ser absurdo!
En efecto, parece absurdo que las partículas, que pueden en principio influir entre sí innumerables veces, puedan seguir influyendo unas en otras, aun cuando se han separado totalmente. Una interacción así implicaría que todo está relacionado entre sí en forma no predecible. No tenemos garantía, por ejemplo, de que los átomos de nuestro cerebro no dependan de lo que ocurra a otros átomos en algún lugar remoto de la Tierra con los que interactuaron hace millones de años. El otro aspecto de la paradoja es que, de acuerdo con la teoría de la relatividad que fundó el propio Einstein, ningún cuerpo material o señal puede viajar a mayor velocidad que la luz, la cual es un límite natural y absoluto a todo movimiento en el Universo. La acción a distancia que implica la mecánica cuántica en la versión de Copenhague violaría descaradamente esta restricción.
El teorema de Bell
Todo permanecía en el reino de los experimentos mentales hasta que, en 1965, John Bell ideó un método práctico para decidir entre las posiciones de Bohr o Einstein. Ya en los años cincuenta, David Bohm había sugerido una variante del experimento mental de EPR que lo acercaba un poco más a la realidad. En la versión de Bohm, se utiliza el hecho de que las partículas atómicas poseen lo que se llama espín, que es algo equivalente a la rotación sobre su eje de un cuerpo macroscópico. Este espín es mensurable y tiene la importante propiedad de estar cuantizado, en el sentido de que sólo puede tener un número pequeño de ciertas orientaciones muy precisas, pero no arbitrarias, a lo largo de un eje determinado.
Sean entonces dos partículas emitidas en direcciones opuestas, de tal modo que su espín total sea cero (esto puede lograrse con el decaimiento radiactivo de un núcleo, por ejemplo). Sin entrar en los detalles técnicos por razones de espacio, mencionemos la esencia del experimento propuesto por Bohm: de acuerdo con la mecánica cuántica, si se mide la dirección del espín de una de las partículas, la dirección del espín de la otra queda determinada, aunque las dos partículas se encuentren tan alejadas que no haya ninguna conexión causal entre ellas. Una vez más, la “fantasmagórica acción a distancia” de la que hablaba Einstein interviene para influir en la orientación del espín de dos partículas alejadas.
El experimento sugerido por Bohm permitió a John Bell proponer una manera de cuantificar la relación entre partículas alejadas. La idea consiste en medir, para cada partícula del par separado, las direcciones de los espines a lo largo de dos ejes que se rotan arbitrariamente, y luego calcular la correlación estadística entre los valores obtenidos. Bell demostró un teorema según el cual la correlación predicha por la interpretación de Copenhague debe violar ciertas desigualdades algebraicas que involucran estas correlaciones, mientras que cualquier otro mecanismo basado en una correlación clásica (que no implique efectos estrictamente cuánticos) sí satisface esas mismas desigualdades.
El experimento sugerido por los trabajos de Bohm y Bell fue realizado finalmente en un laboratorio francés en 1985, y desde entonces se ha repetido en diversas modalidades. Se utilizan dos fotones emitidos por un mismo átomo en direcciones opuestas y se mide su polarización colocando un par de polarímetros a diferentes ángulos. La correlación estadística entre esas mediciones viola claramente las desigualdades de Bell y, por tanto, los experimentos parecen darle la razón a Copenhague.
¿Existe entonces una acción instantánea a distancia? Gracias al trabajo de Bell, se ve que en realidad es imposible influir o transmitir cualquier tipo de información por el mecanismo ideado por EPR. Lo que predice la mecánica cuántica es una cierta correlación estadística que se debe por entero a la existencia de estados enredados, los cuales no tienen ningún equivalente en nuestro mundo macroscópico. Al promediarse sobre un conjunto de mediciones, desaparece la acción a distancia y la mecánica cuántica se reconcilia con la teoría de la relatividad. Así pues, la correlación cuántica es exclusiva del mundo atómico y es del todo ajena a nuestra experiencia cotidiana… lo cual, de todos modos, no le quita su misterio.
Sin embargo, se ha sugerido muy recientemente que el tipo de correlación propuesto por EPR podría servir parcialmente para transmitir información de un lugar a otro.6 El método consistiría en transportar por medios convencionales una parte de la información (por ejemplo, la mitad de los bytes necesarios para reconstruir una imagen o un texto) y el resto por interacción cuántica. De esta forma se podría recuperar toda la información ahorrando canales de comunicación. El proceso no contradice el principio de la velocidad de la luz como límite, porque parte de la información tiene que viajar por medios convencionales (ondas de radio, corrientes eléctricas, etcétera) y es sólo después de recibirla que se puede reconstruir el material original. Quizás se pueda aplicar esa técnica en el futuro.
Epílogo
Durante décadas, la mecánica cuántica fue una teoría cuya efectividad nadie negaba, pero cuyos fundamentos estaban envueltos en el misterio. Las paradojas como la del gato de Schrödinger o la interacción EPR fueron propuestas en los años treinta cuando apenas se estaba consolidando la nueva visión del mundo atómico. Estas paradojas que idearon los fundadores de la mecánica cuántica fueron, en sus tiempos, del dominio exclusivo de los experimentos mentales pues no se podían comprobar directamente con átomos o partículas aislados. En la actualidad, atraen de nuevo la atención de los físicos gracias a los avances tecnológicos de la últimas décadas.
Con la invención del láser en los sesenta y, más recientemente, el perfeccionamiento de las trampas de partículas —que permiten aislar y guardar un átomo solitario—, los experimentos mentales de los años treinta se han vuelto reales. Ahora los físicos tienen los medios para estudiar directamente la extraña realidad del mundo atómico… seguramente surgirán nuevas sorpresas.
|
|||||||||||
|
|
|||||||||||
|
Referencias Bibliográficas
1. No olvidemos, sin embargo, que “el Dios de los filósofos y los sabios no es el Dios de Abraham, Isaac y Jacobo”, como lo señaló Pascal muy oportunamente.
2. Descartes, Meditaciones metafísicas, (1641), Primera meditación. 3. Ibid., Segunda meditación. 4. R. Feynman, Lecture notes in physics (vol. III) (Addison and Wesley, 1968). Véase también Six Easy Piece, (Addison and Wesley, 1995). 5. Véase Science, vol. 272, p. 1101 (1996). 6. Véase Science, vol. 274. p. 504 (1996). |
|||||||||||
| _________________________________________ | |||||||||||
|
Shahen Hacyan
Investigador titular del Instituto de Física y profesor de la Facultad de Ciencias de la Universidad Nacional Autónoma de México. Premio de la Third World Network of Scientific Organizations (TWNSO).
|
|||||||||||
|
____________________________________________________________
|
|||||||||||
|
cómo citar este artículo →
Hacyan, Shahen. 1997. Los misterios del mundo cuántico. Ciencias, núm. 46, abril-junio, pp. 12-18. [En línea].
|
|||||||||||
![]() |
|
|||||||||
| Marcelino Cereijido | ||||||||||
|
“Hacer ciencia” consiste, por decirlo así, en dos procesos
o momentos; en el primero, creativo, a uno se le ocurren cosas o tiene sensaciones que invaden su razonamiento: se siente incómodo con la explicación que otros le dan a cierto fenómeno, se le ocurre una alternativa mejor, le surgen dudas acerca de que algo haya sido medido correctamente, advierte que cierto factor no se ha tomado en cuenta, o por el contrario, que cierta variable no tiene la importancia que se le ha atribuido. En el segundo momento uno pone a prueba la ocurrencia que surgió en el primero, comienza a tramar la manera de probar si es cierto, y adopta protocolos y estrategias para hacer demostraciones que convenzan al prójimo. Este segundo proceso es casi completamente consciente y relativamente fácil, pues basta con estar entrenado en cierta disciplina, aprender a usar aparatos, adiestrarse en la recolección de datos, saber manejar la bibliografía. En cambio, el primer momento, el creativo, es muy difícil, porque no sabemos por qué se nos ocurren las cosas, o qué hacer para que nos surjan ideas originales.
Es como si, de pronto, nuestro inconsciente seleccionara de su descomunal archivo1 el consejo que nos dio un maestro hace quince años y lo pusiera en el foco de nuestra atención: como si buscara el comentario que nos hizo un colega durante una charla informal, lo desempolvara y lo destacara sobre nuestra mesa de trabajo, como si cubriera con una bruma de olvido las objeciones que suele hacer cierto competidor empecinado2 o iluminara con un poderoso reflector un hecho que, de otra manera, podría parecer trivial. Todos estos recuerdos, olvidos, desdenes y señalamientos resultan de procesos inconscientes, de cuyos mecanismos sólo tenemos un conocimiento precario.3
A veces el inconsciente resulta ser mucho más inteligente y “mejor investigador” que el consciente, pero funciona cuando le viene en gana. Así, Otto Loewi sospechó en 1903 que los nervios liberan mediadores químicos, pero a lo largo de los siguientes 17 años no pudo imaginar ninguna manera de demostrarlo, hasta que recién en 1920 ¡soñó! el protocolo experimental que necesitaba. Por el contrario, a Arquímedes se le ocurrió su famoso principio mientras se bañaba. En su libro Á la recherche du temps perdu, Marcel Proust se maravilla ante el hecho de que, cuando prueba cierto bizcocho (madelaine), se le presenta una remembranza en la mente.
El componente racional
No existe ninguna receta para que se nos ocurra algo original. En un pedido de donativo podemos prometer que haremos tal o cual estudio, pero no podemos asegurar que nos surgirán ideas originales. Nuestro inconsciente no firma la solicitud del donativo. Por otra parte, casi nunca se nos ocurre una hipótesis completa; a lo sumo sospechamos algo de ella, pero ese material ya es suficiente para jugar con él, discutirlo en el pizarrón con nuestros colaboradores, darle vueltas, exagerarlo, agregarle o quitarle detalles, ridiculizarlo, enojarnos porque quien lo ridiculiza es un detestable colega hasta que, al cabo de cierto tiempo, se puede convertir en el germen de un modelo. Entonces sí, nuestro entrenamiento en el método experimental, o cualquier otra forma de validación de hipótesis, aconsejará qué experimento realizar, qué variables estudiar, qué tipo de controles hacer.
En cuanto a cómo hace ese inconsciente para asociar, seleccionar y transformar elementos, se sabe muy poco, de modo que lo que sigue no es más que una conjetura en boga. Si no perteneciéramos a una sociedad no tendríamos lenguaje, seríamos locos. Pero, por (y para) pertenecer, tenemos que restringirnos, ejercer una censura sobre nuestro inconsciente y no dejar que se exprese libremente. No extraña pues que las cosas más reprimidas sean las sexuales. Sigmund Freud advirtió que para expresar las cosas censuradas, el inconsciente recurre a triquiñuelas propias del contrabandista, por ejemplo, realiza desplazamientos. Así, hurgando en los motivos que alguien pudo tener para soñar con aplicarle una inyección a una monja (“hermana”) que estaba “reza que te reza”, un psicoanalista podría llegar a descubrir que el sujeto tiene deseos de hacer algo tan prohibido como acostarse con su hermana Teresa. También encontró que el inconsciente recurre a condensaciones, con las que construye un objeto nuevo en el que sintetiza cosas diversas. Así, soñar con una corona suele condensar la idea de una reina, la madre, el poder.
Luego el lingüista Roman Jakobson advirtió que los desplazamientos y las condensaciones propuestos por Freud para interpretar ciertas neurosis aparecen también en el lenguaje diario, aunque no nos estemos refiriendo a cosas prohibidas. Llamó metonimia a ese volcar los contenidos de una idea en otras (desplazamiento) y tomar la parte por el todo, como cuando llamamos “el espada” a un torero que, además de espada, tiene otros objetos y atributos; o cuando decimos “se hizo a la vela”, dando por sentado que alguien tomó un barco que además de velas tiene casco, timón, ancla, etcétera; y llamó metáforas a las sustituciones de una cosa por otra que tiene un sentido parecido y puede por eso representarla, como cuando decimos “Cuidado, hay moros en la costa”, “Mario come como pelón de hospicio”, “Parir chayotes”, “Julián es una pata de perro”, “Bulmaro fuma como chacuaco”, Las metonimias y metáforas son características de la poesía pero, en realidad, abundan también en el lenguaje cotidiano.
Cabe advertir que, si bien comenzamos ocupándonos de cómo se hace ciencia, las metáforas y las metonimias son recursos para hacer literatura. Es que el inconsciente ofrece ocurrencias, como un bosque ofrece árboles, pero está en nosotros convertir la madera en una silla, un ropero, una escalera, una canoa. Lo que hagamos con los sentimientos y ocurrencias que genera el inconsciente decidirá si solucionaremos un problema económico, compondremos una sinfonía, haremos tal o cual movimiento de las piezas de ajedrez, pasaremos la pelota hacia el compañero de la izquierda o escribiremos un poema. La obra depende de que el creador sea un científico, un jugador de futbol o de ajedrez, un pintor, un literato o un bailarín.
Este tema se enmarca en uno mucho mayor, que podríamos llamar “la emergencia del significado”, que se refiere al momento en el que se le encuentra sentido, se interpreta, un galimatías que hasta ahora resultaba incomprensible sobre sueños, datos experimentales, tablas con niveles de contaminación, trazados electrocardiográficos, migración de golondrinas, franjas de electroforesis, estadísticas sociales. Luego tomamos los datos e ideas que ya hemos expresado, el bosquejo que hemos dibujado, o el borrador de un cuento, como si se tratara de algo externo. Entonces decidimos borrarle esta línea, hacer más grande la cabeza, emplear óleo o acuarela, usar un fotómetro, fundamentarlo matemáticamente, realizar experimentos adicionales, escoger personajes, encuadres narrativos, escenarios.
Entre el orden y el caos
En todo momento hay una frontera entre lo conocido (orden) y lo desconocido (caos). Hubo una época en que no se sabía que existieran células, bacterias, virus, muones ni hoyos negros. Luego se descubrieron las células y entre éstas las bacterias, pero todavía se seguían desconociendo los virus, los muones y los hoyos negros. Así llegamos al presente, en el que todas esas cosas ya son conocidas y están incorporadas al reino ordenado del conocimiento, pero en el que por supuesto ignoramos qué descubriremos en el futuro. El investigador trabaja justamente en esa frontera. Toma una porción del caos, lo estudia, lo explica y lo incorpora al patrimonio ordenado del saber. Pero no es el único que trabaja en ese límite. Así, Herbert Read, en su libro Imagen e idea, señala que un siglo antes de que aparecieran los grandes geómetras griegos, los artesanos ya decoraban sus vasijas con flores y pájaros geometrizados. Antes de que Freud estudiara a los celosos, Shakespeare había creado un Otelo que mató a Desdémona, su mujer, porque cuando ésta no pudo encontrar un pañuelo que él le había regalado, aquél lo atribuyó a una infidelidad. Antes de que florecieran los grandes economistas del siglo pasado, ya los literatos habían escrito sobre los desposeídos, los miserables y los bajos fondos de la sociedad.
Analicemos otro ejemplo. A principios del siglo XIX se conocía el concepto de “equilibrio”, situación en la que un sistema permanece constante porque no cambia nada. Pero, años más tarde, los termodinamistas se dieron cuenta de que hay una situación parecida, que después llamaron “estado estacionario”, en la que si bien nada cambia, de todos modos ocurren muchos procesos, sólo que están contrapuestos y balanceados. Así, si hay un litro de agua en una cacerola, podemos decir que está en equilibrio. Pero si el cacharro tiene un orificio por el que pierde agua y lo compenso reponiéndola pacientemente con un gotero, el sistema no está en equilibrio, sino en estado estacionario. Tengo que trabajar para que la cantidad de agua no cambie. Del mismo modo, si al bajar por la escalera mecánica de una gran tienda, me encuentro con un amigo que sube por la escalera común, puedo quedarme conversando un momento si salto de escalón en escalón. Mi amigo permanece fijo en su lugar porque no efectúa ningún trabajo (equilibrio), en cambio yo no bajo ni subo porque hago el trabajo de compensar el movimiento mecánico de los escalones (estado estacionario). Se trata de conceptos termodinámicamente fundamentales, en cuyo detalle no nos detendremos. Lo importante es que antes de que los termodinamistas introdujeran estos conceptos formales, los literatos ya encontraban situaciones comparables a “estados estacionarios”. Así, en el libro de Lewis Carroll, Through the Looking-Glass, Alicia advierte que, a pesar de estar corriendo, no se mueve de su sitio. “Qué raro —comenta— en mi país, si alguien corre así, al cabo de un rato se encuentra en otro lugar”, a lo que la reina le responde: “Pues en este país, ése es el trabajo que cuesta quedarse en el mismo sitio”. En un libro muy posterior, Il Gattopardo, Tomasi Giuseppe di Lampedusa habla de un príncipe que recrimina a su sobrino Tancredi por haberse metido a luchar políticamente contra los intereses de su clase. Tancredi entonces responde: “Pero tío… si deseas que todo permanezca como está, es necesario que todo cambie”. Justamente, hoy en política se llama “gatorpardismo” a los discursos y leyes que aparentemente son revolucionarios, pero que están compaginados de modo que se anulen unos a otros y dejen la situación tal como está.
Como estas relaciones entre originalidad y realización y entre arte y ciencia están muy lejos de ser entendidas, ayudémonos analizando otros aspectos de la novela. Hubo un momento de la historia en la que los seres humanos comenzaron a distinguir entre las cosas que se dan espontáneamente sin su intervención, como pastos, víboras, rocas, ríos, montañas, planetas (naturaleza), de aquellas que producían ellos: tazas, ropas, mesas, novelas, teoremas, canciones (cultura). A un pedazo de mármol natural no le daban tanto valor como a una escultura. Si alguien cultivaba un jardín, lo cuidaba de la maleza. Como el ser humano daba por sentado que había sido creado a imagen y semejanza de Dios, y Descartes había enunciado su famoso Cogito ergo sum, lo humano y pensante no sólo era, sino que además era bueno, pero las cosas naturales, como no podían pensar, no se consideraban tan buenas. Dado que se suponía que las mujeres no pensaban como los hombres, no se les daba igual valor y así se fundamentó cierto machismo. La naturaleza se consideraba salvaje y hasta perversa, y en cambio la cultura tenía un efecto bondadoso y refinador. Las novelas solían versar sobre un joven ágil y bestial, semejante a un criminal león-rey de-la-selva, que comía como un marrano, se sonaba los mocos con los dedos y, cuando se encontraba sexualmente excitado, raptaba alguna mujer arrastrándola por los cabellos. De pronto, albricias, el muchacho bestial y “primitivo” se enamoraba de una joven exploradora que lo traía a la ciudad, se instruía, vestía ropas elegantes, leía a Homero en griego y a Lucrecio en latín, y tenía gustos tan refinados que la sociedad lo confundía con un noble. A veces estos autores no estaban tan convencidos de que la sangre roja de un rústico pudiera realmente virar al azul de los nobles y, por las dudas, en el último capítulo introducían alguna condesa que descubría que el bruto era en realidad un hijo que había perdido durante un paseo por África, o que había sido raptado por unos piratas jamaiquinos. Dicho sea de paso, estos prejuicios concordaban con el pensamiento esencialista que imperaba. Pero otros sentían que era al revés, que el ser humano es originalmente bueno y la cultura lo degenera, y en consecuencia narraban en sus obras las desventuras de alguna campesinita cándida, dulce y buena, que al llegar a la ciudad y ponerse en contacto con la civilización se convertía en una prostituta alcohólica.
Más tarde, los zoólogos explicaron que el león no es un animal selvático, sino de pradera, que no mata por ser criminal, sino para comer, y escoge de preferencia animales debilitados o defectuosos, fáciles de cazar y todos los miembros del grupo se reparten una única presa. A su vez, los antropólogos comprendieron que los habitantes de las selvas no son “primitivos”, en el sentido de que no corresponden necesariamente a un estado ancestral del hombre de Occidente. Entonces, escritores como el Marqués de Sade cayeron en la cuenta de que la naturaleza no tiene valores, que es indiferente al destino humano, que una víbora no es vil ni traicionera, ni una hiena taimada, ni una paloma amante de la paz, y que los volcanes entran en erupción y los terremotos derrumban ciudades sin relación alguna con que en ella vivan el galán con la heroína o el malvado con la pérfida.
Con esto queremos señalar que hay problemáticas que unos tratan teológicamente y otros filosóficamente, biológicamente, o literariamente, porque su entrenamiento les permite ocuparse de unos aspectos y no de otros, pero que es falso suponer que la ciencia, las artes, la filosofía y la tecnología son caminos paralelos que no tienen nada en común o que no interaccionan.
Sociología del sentir y del saber
De modo que la sociedad no sólo tiene investigadores que trabajan en la frontera entre orden y caos, sino también artistas que captan otros tipos de regularidades. Los cineastas expresan esos órdenes en películas sobre los moribundos, los valientes, la pareja, la soledad, la injusticia que acaso sólo el arte puede manejar.
La etapa siguiente de esa transformación del caos en orden son los ensayistas, que toman conceptos que ya son comparables, ordenables, discutibles y refutables, es decir, que ya se los puede manejar con la razón, pero que todavía están verdes4 como para que los trate la ciencia. Una de las razones de que no estén suficientemente digeridos como para que los trate la ciencia es que a veces tienen demasiadas variables. Por ejemplo, si desean analizar por qué los rubios no se casan con los negros, pueden traer a colación razones geográficas (no frecuentan los mismos lugares), económicas (tienen trabajos distintos), educativas (su preparación no les permite ingresar a las mismas universidades), económicas (aunque tengan el mismo nivel de conocimiento, no pueden pagar las mismas colegiaturas), prejuicios (pueden decir que los otros huelen mal) y una multitud de argumentos cuya selección depende de quién los escoge, a qué lector van dirigidos, si resulta políticamente oportuno tocar esos temas. Pero así y todo, siempre quedan fuera muchas variables que otros especialistas no hubieran menospreciado. Así, un sociólogo puede comparar un grupo de negros con otro de güeros de igual coeficiente intelectual, para ver si se refleja en la matrícula de tal o cual universidad; pero pueden surgir antropólogos que critiquen el no haber considerado ciertas razones económicas, que cuestionen la forma en que se ha medido el coeficiente intelectual, o que de plano condenen el uso de tales coeficientes.
Vemos entonces que hay una especie de “metabolismo” social, que parece comenzar con los artistas, pasar por los ensayistas y llegar más tarde a los científicos, pero que no termina ahí, pues luego vienen los tecnólogos que tratan de ver si lo aprendido tiene alguna utilidad.
Literatura
Con esos conceptos en mente, enfoquemos ahora el caso de la literatura. La literatura es muy amplia, pues va del cuento de diez renglones a la novela de varios tomos, de una historia con hombres de Neanderthal a la narración de un futuro viaje interplanetario, de la poesía erótica al himno patriótico, y de lo autobiográfico y documental a lo ajeno y ficticio. Pero a pesar de esa diversidad la mayoría de las obras reflejan las preocupaciones y visión del mundo del momento, aspecto que ya hemos ilustrado con los análisis de equilibrio/estado estacionario, cultura/naturaleza.
Cuanto más antiguo es el periodo histórico en cuestión, tanto más claramente se advierte que la ciencia, la arquitectura, la literatura, la sociología, las costumbres y las creencias de un periodo tienen grandes denominadores comunes. Eso no se debe a que se hayan puesto de acuerdo sino a que, cuando se habla de ciencia, arquitectura, literatura, sociología, costumbres y creencias, se está descuartizando la realidad para adecuar sus diversas partes a categorías académicas, o a la forma en la que cada uno la siente y expresa, pero que luego, siglos más tarde, al mirarlas retrospectivamente, aparecen como facetas de una realidad unificada.
Para avanzar entonces en estas interrelaciones consideremos el caso de la perspectiva. Un italiano de hace mil años, al mirar en lontananza y advertir que su hermano se veía mucho más chico que el gato, entendía que éste estaba más cerca. ¿Por qué no lo advirtieron los pintores?, ¿por qué la humanidad tuvo que esperar hasta Giotto di Bondone (1266-1337) para aprender a pintar en perspectiva? Es cierto que el problema de la perspectiva dependió de la maestría de los pintores; pero veamos cómo incidió la sociedad. Por ejemplo, la Iglesia católica prohibía representar a Jesús con una figura más pequeña que la de los apóstoles, los nobles no querían aparecer en el cuadro pintados por debajo de los plebeyos. Luego, cuando un conde ganaba una batalla, no permitía que se lo retratara en un plano posterior al que ocupaba el enemigo derrotado. Había que ponerle un taparrabos a Cristo para que no se notara su falo circuncidado y se recordara así su origen judío. Había que ocultar el sexo de los ángeles. ¿Te das cuenta de la forma en que la pintura estaba condicionada por la religión, la vanidad y los prejuicios?
Algunos aspectos de la literatura cambian con el tiempo, pero otros parecen eternos. Así, lo que escribieron Gutierre de Cetina y Julio Cortázar sobre los ojos de sus amadas difiere en el estilo, pero no en el sentimiento. En cambio las referencias a las mujeres y al amor que hicieron Sor Juana Inés de la Cruz y Simone de Beauvoir, además de diferir en el estilo, revelan una concepción del mundo totalmente distinta. Sucede que en la literatura el componente racional puede ser mucho más grande que en otras artes. Nadie recriminaría a Giorgio de Chirico por pintar caballos verdes o a Rufino Tamayo por representar peras azules. Si en cambio lo hiciera un biógrafo de Emiliano Zapata nos resultaría difícil aceptarlo. Pero tampoco podemos generalizar ni establecer normas rígidas, pues uno lee con todo respeto las rarezas que escriben James Joyce en su Finnegans Wake o a Lezama Lima en su Paradiso. En Redoble por rancas, Manuel Scorza, para reflejar los despojos que padecen los indios, hace que los límites de la compañía minera Cerro de Paseo se desplacen vertiginosamente por el paisaje, como si tuvieran vida propia y tragaran vorazmente los pueblitos de los coyas. Los artistas son sensibles y reflejan en sus cuadros novelas, películas y obras de teatro las condiciones del mundo en que trabajan. Dadas las miserias del mundo en que vivimos, algunas obras, más que describir, parecen denunciar. Pero no necesariamente surgen del deseo de denunciar, ni del compromiso político, ni de una supuesta obligación de representar exactamente lo que ven, sino porque, viviendo en la época en que viven, los escritores son como son, sienten como sienten y escriben como escriben. Cabría preguntarse si acaso los hermanos Grimm y Emilio Salgari vivieron en regiones habitadas por hadas, ogros, brujas, piratas y corsarios. Por supuesto que no. Pero así y todo reflejan a los intelectuales de la época, la relación de una sociedad con sus fantasías, esperanzas y temores. El hecho de que Rimsky-Korsakov haya dedicado gran parte de su obra a ogros, hadas y genios encerrados en lámparas de aceite, no describe a la sociedad en que vivió como tema, pero así y todo nos refleja el sentimiento y problemática que ocupaba a los músicos de su época.
Para relacionar la ciencia con la literatura tampoco hace falta que el escritor sepa de semiconductores y cosmología, ni que esté al tanto de los últimos adelantos de la cristalografía del RNA. Así, Jorge Luis Borges, sin invadir el terreno de la mecánica cuántica, plantea en El aleph la visión de un todo complejo y polifacético, y en su Jardín de los senderos que se bifurcan utiliza una realidad que se va dividiendo en mundos paralelos. En Las ruinas circulares, Borges nos habla de un personaje que sueña a un segundo personaje, y luego le asaltan dudas sobre su propia naturaleza (si acaso él será un hombre real o estará siendo soñado por algún otro), y con ello llega a lo más hondo de la relación del sujeto con el mundo, sin dejar de hacer literatura, ni ofrecer una hipótesis científica sobre la relación mente/realidad.
La Babel intelectual
Hemos dicho anteriormente que la realidad no se divide en un terreno científico, otro arquitectónico ni otro poético, pues esas son divisiones académicas o del quehacer humano. Pero la vastedad del conocimiento y la imposibilidad de que un solo individuo pueda manejar tanta información nos lleva a especializar. Unos somos investigadores, otros literatos, otros músicos y otros administradores. Esta especialización, junto con las dimensiones gigantes de nuestras casas de estudio y de nuestras ciudades, hace que las personas que investigan en un parchecito minúsculo de la ciencia sólo se encuentren, intercambien y discutan con quienes hacen casi exactamente lo mismo, y que quienes escriben poemas no tengan contacto alguno con quienes estudian problemas botánicos.
En la mayoría de las disciplinas esta falta no resulta tan evidente ni importante. Es irrelevante que un bailarín sea incapaz de sumar dos más dos, o que un químico tenga oído de artillero. En cambio la literatura ignorante e insensible resulta espantosa, pues nos somete a best-sellers, folklorismos exagerados, culebrones con dramas familiares chabacanos, o relatos autobiográficos en los que el autor recuerda con cursilonga emoción cuánto lo quería su nana, o que en el verano iba a cabalgar al campo de su abuelo, o los sentimientos místicos que le inspiraba la vieja iglesia de su pueblo. Pero es muy raro que alcancen la profundidad necesaria para referirse a los valores o a la visión del mundo en que todo eso estaba inmerso. Duele constatar que los grandes problemas de nuestro tiempo, del ser humano que vive en el milenio que está por acabar y en nuestra Tierra, casi no aparecen en nuestra literatura.
Se trata de fenómenos sociales cuya solución se nos escapa. De todos modos, es importante tener en claro que la literatura no es un pasatiempo para escritores y que la investigación del mundo en que vivimos no es patrimonio exclusivo de los científicos.
|
|
|
|
|||||||
|
Notas
1. Nuestro inconsciente contiene el nombre de parientes, de compañeros de escuela, anécdotas que nos ocurrieron a lo largo de nuestra vida, argumentos de películas que hemos visto, números de teléfonos, nombres de calles, itinerarios de viajes juveniles, reglas ortográficas que nos enseñaron nuestros maestros o que aprendimos por nosotros mismos, cuentos picarescos, imágenes de cuadros, recuerdos de goles, recetas de cocinas, lugares donde guardamos los calcetines, maneras de preparar el arroz, rutas para regresar a casa, significado de una pipa dibujada en la puerta de un baño, cumpleaños de nuestros hermanos, papelones, amores, temores, planes, consejos, amenazas, poesías, letras de tangos...
2. Dos amigos viajaban en tren por el campo y uno señaló: “Mira esas ovejas, no están esquiladas”, y su compañero aceptó a regañadientes: “… bueno, si… de este lado”. 3. Cogito (cum agito) del latín “pensar”, significa “sacudir junto”. Muchas personas, cuando escuchan cosas discordantes o incongruentes, hacen la morisqueta de entrecerrar los ojos y agitar la cabeza, como si trataran de que se les vuelvan a juntar las piezas de un pensamiento desbaratado por la paradoja que acaban de escuchar. Intellego (inter lectum) del latín “seleccionar entre”, significa “entender”, “advertir” o “darse cuenta” de cuál solución es la correcta. 4. ¿Ves? Decir que los conceptos todavía “están verdes” es emplear una metáfora. A veces el inconsciente resulta ser mucho más inteligente y “mejor investigador” que el consciente, pero funciona cuando le viene en gana.
|
||||||||||
|
Referencias Bibliográficas
F. Blanck-Cereijido y M. Cereijido, 1988, La vida, el tiempo y la muerte, FCE. México.
M. Cereijido, 1994, Ciencia sin seso locura doble, Siglo XXI, México. M. Cereijido, 1995, Orden, equilibrio y desequilibrio, una introducción a la biología, Universidad de Zacatecas, Dirección General de Investigación y Posgrado, México. M. Cereijido y F. Blanck-Cereijido, 1997, La muerte y sus ventajas, FCE, México. |
||||||||||
| ____________________________________________________________ | ||||||||||
|
Marcelino Cereijido
Investigador titular del Departamento de Fisiología, Biofísica y Neurociencias del Centro de Investigación y Estudios Avanzados (CINVESTAV) del Instituto Politécnico Nacional.
|
||||||||||
| ____________________________________________________________ |
||||||||||
|
cómo citar este artículo →
Cereijido, Marcelino. 1997. Ciencia y literatura entre el orden y el caos. Ciencias, núm. 46, abril-junio, pp. 4-9. [En línea].
|
||||||||||





