revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 Temas selectos de geografía de México

 
PortadaB6
El clima de la ciudad de México
Ernesto Jáuregui Ostos
Instituto de Geografía, unam
Plaza y Valdés, 2000. 131 pp.
 
 
 
   
México a través de los mapas
Héctor Mendoza Vargas
 
Instituto de Geografía, unam
Plaza y Valdés, 2000. 203 pp.
     
HTML ↓ PDF ← Regresar al índice
     
México a través de los mapas reúne varios ensayos en torno a la historia general de la cartografía mexicana y sus vínculos con la historia política del país. México se distingue fundamentalmente por la riqueza de su tradición en la elaboración de mapas. Así, por ejemplo, en Mesoamérica se elaboraron mapas de pequeña y gran escala, usando una práctica particular y signos convencionales propios, distintos a los de Europa. Una vez establecidos en América, los españoles emplearon a los indígenas en la elaboración de imágenes para Felipe II, las cuales representan una fusión única entre lo indígena y lo europeo. Al lado de esos mapas sincréticos se encuentran durante los siglos xvi y xvii mapas y planos hechos por los ingenieros de la Corona con fines militares y los de los misioneros jesuitas, en lo que constituye el primer intento por elaborar mapas de gran escala de los territorios del interior.
Además de la obra borbónica y la de los ilustrados, otros de los ejemplos analizados en esta obra son la labor fronteriza de los ingenieros y el trabajo de Antonio García Cubas, cuyo Atlas geográfico de 1858 dio una idea a los mexicanos de la forma general y las nuevas dimensiones
de su país, o el mapa de Francisco Calderón de 1910, que muestra el desarrollo de núcleos urbanos y una densa red de comunicaciones. Para el siglo xx se discuten la creación de nuevas oficinas geográficas y la obra más distinguida de la geografía universitaria, el Atlas nacional de México. Durante quinientos años la historia de México ha sido reflejada con fidelidad a lo largo de su cartografía, situación que los ensayos de esta obra colectiva logran delinear.
En El clima de la ciudad de México, Ernesto Jáuregui Ostos describe los principales rasgos del clima de la ciudad y los probables cambios observados desde la llegada de los españoles hasta el presente. Si bien las características generales del clima de la cuenca han permanecido invariables en los últimos siglos en cuanto a su “estacionalidad” (es decir, sigue observándose una estación de lluvias y otra de secas), el cambio de uso de suelo, la desecación de los lagos, la tala de bosques y la creciente urbanización han modificado la temperatura, la humedad y, quizá, la lluvia en el ámbito de la ciudad. Pero sin duda el componente que ha sufrido una mayor alteración y deterioro es la calidad del aire que respiramos y que está en el origen de las diversas enfermedades respiratorias y cardiovasculares que padece la población en la capital.
Ambos libros pertenecen a la colección “Temas selectos de geografía de México”, editada por el Instituto de Geografía en colaboración con la editorial Plaza y Valdés, la cual contará con ciento nueve títulos.
Fragmentos del resumen.
_______________________________________________________________
 

como citar este artículo

sin autor. (2001). Temas selectos de geografía de México. Ciencias 63, julio-septiembre, 79. [En línea]
 
← Regresar al índice
  P01 P02  
 
 
     
Breve cronología de la genética
 
Jorge González Astorga
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La genética es uno de los puntales teóricos más importantes de la biología contemporánea, y sin embargo es una ciencia relativamente nueva. Es por eso que la construcción de la genética durante el siglo xx constituye uno de los retos intelectuales de mayor calibre. Y aunque la genética es una ciencia de este siglo, que inicia formalmente con el redescubrimiento de las leyes de Mendel en 1900, no fue sino hasta 1906 que William Bateson acuñó el término y escribió el primer libro de genética: Mendel’s Principles of Heredity: A Defence. Para esto, los avances teóricos y metodológicos del siglo xix fueron trascendentales en el fundamento de las bases de la genética del siglo xx.
 
Durante la segunda mitad del siglo xix, en el periodo de 1850 a 1900, la biología surgió de los últimos vestigios medievales y aristotélicos, generándose una visión unificada cuyo paradigma no es esencialmente distinto del nuestro. Por una parte, la teoría celular se había establecido ya en la década de los treintas, pero en 1858 el fisiólogo alemán R. Virchow introdujo una generalización adicional: el principio de la continuidad de la vida por división celular, que en síntesis se contempla en una frase célebre: omnis cellula e cellula. Con esto, la célula quedó establecida como la unidad de la vida y reproducción de los organismos. Este reconocimiento, como unidad de reproducción y continuidad, llevó a la generación espontánea y al preformacionismo a los terrenos de la metaciencia. En este sentido, cualquier organismo se origina de una simple célula mediante un proceso de ontogénesis, a través de sucesivos pasos de diferenciación de un huevo indiferenciado. Esto hace a la célula el contenedor de las potencialidades para generar un organismo. Este planteamiento teórico llevó a la búsqueda de la base material de la herencia.
 
A mediados del siglo xix, Darwin introdujo en El origen de las especies la segunda unificación importante de la biología, esto es: la teoría de la evolución biológica. Fundamentalmente, Darwin explica que las formas orgánicas existentes proceden de otras distintas que existieron en el pasado, mediante un proceso de descendencia con modificación. Para llegar a esto sintetizó sistemáticamente evidencias procedentes de muy diversas disciplinas de la ciencia de la época, como son la geología, donde tomó el principio del uniformitarismo de Charles Lyell; la paleontología, que cimentó su planteamiento sobre las relaciones ancestro-descendencia y sobre la distribución de las especies a nivel macrogeográfico; también, su gran experiencia como naturalista le permitió conocer la gran diversidad y variedad de organismos que se distribuyen en los trópicos; esto lo llevó a entender, en parte, la importancia de las relaciones inter e intraespecíficas como fuerzas motoras de la evolución; por último, y no menos importante, la influencia de las teorías socioeconómicas de Thomas Malthus y Adam Smith fortalecieron aún más su planteamiento teórico. Con estos antecedentes, la síntesis de estas disciplinas convergieron en una explicación de un proceso natural para la evolución orgánica: la selección natural. Con la finalidad de imponer esta concepción Darwin incorporó una nueva y radical perspectiva: el pensamiento poblacional. En contradicción con la visión esencialista dominante en su tiempo, la variación individual, lejos de ser trivial, era para Darwin la piedra angular del proceso evolutivo. Son las diferencias existentes entre los organismos al seno de las poblaciones las que, al incrementarse en el espacio y en el tiempo, constituirán la evolución biológica. La teoría general de la evolución de Darwin fue casi inmediatamente aceptada por la comunidad científica, pero su teoría de la selección natural (teoría particular) tuvo que esperar hasta los años treintas del siglo xx para que recibiera la aceptación unánime.
 
Un hueco importante en el esquema de Darwin era el de la explicación del origen y el mantenimiento de la variación genética sobre la que opera la selección natural. Posterior a la publicación de El origen de las especies, en 1868, Darwin intentó explicar el fenómeno de la herencia a través de la hipótesis provisional de la pangénesis. Ésta es el resultado de un intenso trabajo de recopilación e interpretación de gran número de observaciones y experimentos, que se encuentran en un tratado de dos volúmenes: The Variation of Animals Under Domestication. Allí postula la existencia de partículas hereditarias o de reproducción, que llamó gémulas. Cada parte del organismo, e incluso partes de las células, producen sus propias y específicas gémulas; estas partículas fluyen por todo el cuerpo, de modo que en cada parte, como en los óvulos y espermatozoides, pueden encontrarse todos los tipos de gémulas. Para esto, las células reproductoras tienen la potencialidad de desarrollar un organismo completo. Contrariamente a las conclusiones a las que llegó en 1859, su hipótesis de la herencia resultó incorrecta, como se demostró posteriormente por, entre otros, su sobrino Francis Galton en un experimento de transfusión sanguínea recíproca entre dos líneas de conejos que diferían en el color del pelaje. De cualquier manera, el trabajo y entusiasmo de Darwin estimuló el pensamiento genético.
 
En 1865, tres años antes de la publicación del tratado de Darwin sobre la herencia, el monje austriaco Gregor Mendel publicó en el Boletín de la Sociedad de Ciencias Naturales de Brno su trabajo "Experimentos de hibridación en plantas", en el cual resume los experimentos que había llevado a cabo durante casi diez años en el frijol Pisum sativum. El trabajo de Mendel se enmarcaba dentro del paradigma de la teoría de la evolución, pues una de las razones para efectuar dicho trabajo era "alcanzar la solución a un problema cuya importancia para la historia evolutiva de las formas orgánicas no debería ser subestimada" (en sus propias palabras). En su base experimental está el paradigma del análisis genético y su trabajo es considerado el fundamento de la ciencia genética. La fuerza de este trabajo radica en un diseño experimental sencillo, aunado a un análisis cuantitativo de sus datos. Experimentalmente demostró que: i) la herencia se transmite por elementos en forma de partículas, refutando la herencia mezclada, y ii) que el mecanismo de la herencia sigue normas estadísticas sencillas, resumidas en dos principios. Pero el momento histórico no era aún propicio y el nuevo paradigma de la genética debería esperar más de treinta años guardado en los archivos de un monasterio del centro de Europa. Y en realidad no fue, como se ha creído, porque su trabajo fuera desconocido, sino porque los experimentos de Mendel fueron simplemente despreciados. Se sabe que Mendel intercambió correspondencia con el alemán Carl Nägeli, uno de los más prominentes botánicos del momento, quien no pareció muy impresionado por su trabajo y le sugirió a Mendel que estudiara otras especies vegetales, entre ellas una del género como Hieracium, en la que Nägeli estaba interesado. En ella Mendel no encontró normas consistentes en la segregación de sus caracteres y empezó a creer que sus resultados eran de aplicación limitada, por lo que su fe (que la debería tener por decreto) y entusiasmo en su labor como experimentador disminuyó. No fue sino hasta mucho tiempo después de la muerte de Mendel, en 1903, que se descubrió que un tipo especial de partenogénesis ocurre en Hieracium spp., lo que genera desviaciones muy significativas de las proporciones mendelianas esperadas. Debido al olvido y a la desidia de su trabajo, se puede afirmar que sin Mendel la genética posiblemente sería la misma, lo cual nos lleva a la conclusión de que cuando la historia se estudia como recapitulación de fechas y personajes nos hace percibir a los genios como simples pensadores de la época.
 
En la década de los setentas las técnicas citológicas emergentes, como el microtomo y las lentes de inmersión en aceite, condujeron al descubrimiento del proceso de la fecundación (la fusión de los núcleos del óvulo y del espermatozoide para formar el núcleo del huevo) y la mitosis. Por esa época Nägeli enunció la teoría del idioplasma, que establece que el núcleo celular es el vehículo de la herencia. En 1883 van Beneden, experimentando con el nemátodo Ascaris spp., descubrió el proceso de la meiosis, reconociéndose por fin la individualidad de los cromosomas. T. Boveri, entre 1888 y 1909, demostró que los cromosomas mantienen su estabilidad a lo largo de las generaciones. Así, a partir de 1880 existía un acuerdo generalizado de que el material hereditario residía en los cromosomas, aunque esto no estuvo completamente claro hasta 1916.
 
 
 
El embriólogo alemán August Weismann desarrolló en 1885 su teoría de la continuidad del plasma germinal. En ésta se reconocen dos tipos de tejidos en los organismos, el plasma somático y el plasma germinal, que en nuestros días vendría siendo el germen del fenotipo y del genotipo, respectivamente. El plasma somático o somatoplasma forma la mayor parte del cuerpo de un individuo, mientras que el germoplasma es una porción inmortal de un organismo que tenía la potencialidad de reproducir al individuo. A diferencia de la teoría de la pangénesis, el germoplasma no proviene del somatoplasma ni se forma nuevamente en cada generación, sino que constituye la continuidad de la información genética entre generaciones. La teoría de Weismann rechazaba rotundamente la herencia de los caracteres adquiridos haciendo un mayor énfasis en el material hereditario. Se le llamó neodarwinismo a la síntesis de la teoría de la evolución por selección natural y la hipótesis del plasma germinal de Weismann. En 1883 Weismann propuso la teoría de que las partículas hereditarias o bióforas eran invisibles, autorreplicativas y asociadas con los cromosomas de un modo lineal, postulando que cada biófora estaba implicada en la determinación de una característica o atributo. Esto nos lleva a pensar que su intuición fue realmente prodigiosa. En 1871 Fiedrich Miescher aisló nucleína de núcleos de células humanas de pus; hoy sabemos que esta nucleoproteína forma la cromatina. Posteriormente, en 1886, el citólogo norteamericano E. B. Wilson relacionó la cromatina con el material genético.
 
El siglo xx
 
Con el inicio del siglo xx se produjo una explosión de descubrimientos que revolucionaron a la ciencia de la genética y que continuaría a un ritmo vertiginoso. En la primera década se llevó a cabo la síntesis de los trabajos genéticos (hibridación experimental) y citológicos. Esta fusión simboliza a la genética en su mayoría de edad, iniciándose como una ciencia propia e independiente. Los albores del siglo xx iniciaron con el redescubrimiento de las leyes de Mendel por los trabajos de tres ilustres botánicos: Carl Correns, Hugo de Vries y Eric von Tschermak, a las que el británico William Bateson daría un gran impulso, generándose la integración de los estudios genéticos y citológicos. En 1902, Boveri y Sutton se percataron, de forma independiente, de la existencia de un estrecho paralelismo entre los principios mendelianos, recién descubiertos, y el comportamiento de los cromosomas durante la meiosis. En 1906, Bateson, quien en 1901 había introducido los términos alelomorfo, homocigoto y heterocigoto acuñó el término genética para designar "la ciencia dedicada al estudio de los fenómenos de la herencia y de la variación". En 1909 el danés Wilhelm Johannsen introdujo el término “gen” como “una palabra [...] útil como expresión para los factores unitarios [...] que se ha demostrado que están en los gametos por los investigadores modernos del mendelismo”.
 
 
 
Durante la segunda década de este siglo Thomas Hunt Morgan inició el estudio de la genética de la mosca de la fruta Drosophila melanogaster. En 1910 descubrió la herencia ligada al cromosoma X, así como la base cromosómica del ligamiento. Tres años después, A. H. Sturtevant construyó el primer mapa genético y en 1916 Calvin Bridges demostró definitivamente la teoría cromosómica de la herencia mediante la no disyunción del cromosoma X. En 1927 H. J. Muller publicó su trabajo en el que cuantifica, mediante una técnica de análisis genético, el efecto inductor de los rayos X de genes letales ligados al sexo en Drosophila. A principios de la década de los años treintas Harriet Creighton y Barbara McClintock, en el maíz, y Gunter Stern, en Drosophila, demostraron que la recombinación genética está correlacionada con el intercambio de marcadores citológicos. Todos estos descubrimientos condujeron a la fundación conceptual de la genética clásica. Los factores hereditarios o genes eran la unidad básica de la herencia, entendida tanto funcional como estructuralmente (la unidad de estructura se definía operacionalmente por la recombinación y la mutación). Espacialmente, los genes se encuentran lineal y ordenadamente dispuestos en los cromosomas como las cuentas en un collar.
 
Paralelamente a estos avances, un conflicto que había surgido en 1859 con la aparición de El origen de las especies de Darwin empezó a resolverse. Era el problema de la naturaleza de la variación sobre la que actúa la selección natural. Para esto, Darwin puso énfasis en la evolución gradual y continua que transforma la variación dentro de las poblaciones en variación entre poblaciones; otros, como Thomas Huxley, e inicialmente Galton (cuyo libro Natural Inheritance está considerado como fundador de la biometría) creían que la evolución ocurre de forma relativamente rápida y discontinua, por lo que la selección natural usaba principalmente variación discontinua, por lo que la variación continua no poseía ningún valor evolutivo a sus ojos. Con el fortalecimiento del mendelismo este antagonismo se acentuó hasta convertirse en un conflicto entre los biometristas, por un lado, apoyando la evolución discontinua o por saltos, y los mendelianos, por el otro, que estudiaban la variación en los caracteres físicos cuantitativamente y apoyaban la evolución darwiniana. Estos últimos tenían como cabeza teórica a Bateson, Morgan y Hugo de Vries, mientras que Karl Pearson y W. F. R. Weldom (junto con Galton, que se les unió ideológicamente después) fueron los puntales de la escuela biométrica. En medio de este conflicto, en 1908 se formuló la ley del equilibrio de Hardy-Weinberg, que relaciona las frecuencias génicas con las genotípicas en poblaciones panmícticas o con cruzamientos al azar, lo cual permite cuantificar la evolución. Entre los años 1918 y 1932 la polémica entre biometristas y mendelianos quedó resuelta finalmente: Ronald Fisher, Sewall Wright y J. B. S. Haldane llevaron a cabo la síntesis del darwinismo, el mendelismo y la biometría, y fundaron la teoría de la genética de poblaciones. De manera independiente, Fisher es el responsable directo, y en este sentido la historia (mito o realidad, no es claro todavía) dice que el comité de redacción del Proceedings of the Royal Society de Londres no publicó en 1916 el artículo de Fisher, por la aversión que el comité tenía contra todo lo que tuviera sabor mendelista. Y no fue sino hasta dos años más tarde que Transactions of the Royal Society de Edimburgo lo publicó. En este artículo Fisher desarrolla de manera sumamente elegante el modelo infinitesimal, que es la base de la genética cuantitativa teórica y aplicada a los programas de mejoramiento genético en animales y plantas. En su base teórica proporciona una magistral objetivación de la naturaleza de la variación continua de los caracteres cuantitativos, entendidos como aquellos cuya variabilidad observable se debe principalmente a la segregación de varios loci, que pueden ser modificados por la acción del ambiente. Lo relevante de esta propuesta radica en que los caracteres cuantitativos se pueden entender con una base genética mendeliana discreta. Kempthorne, discípulo de Fisher, reconoce no haberlo entendido en toda su expresión, lo cual lo llevó a escribir su libro An Introduction to Genetic Statistics, para ponerlo al alcance de los genetistas y en general como una propuesta entendible del razonamiento fisheriano desde el punto de vista cualitativo.
 
Por otro lado, el desarrollo de los modelos matemáticos de la acción de la selección natural quitó los velos en cuanto a si esta fuerza microevolutiva podía o no producir cambios importantes, incluso cuando sus coeficientes eran débiles: la selección volvió a adquirir un papel preponderante como proceso evolutivo directriz. Con la genética de poblaciones la teoría de la evolución se presenta como una teoría de fuerzas interactuantes: la selección, la mutación, la deriva genética, la endogamia y la migración. Éstas actúan sobre un acervo genético que tiende a permanecer invariable como consecuencia de la ley del equilibrio de Hardy-Weinberg, que a su vez es una extensión de la primera ley de Mendel (segregación independiente) a las poblaciones. Así, la genética de poblaciones se estableció como el núcleo teórico y el componente explicativo “duro” de la teoría de la evolución. Posteriormente, la integración de la genética de poblaciones con otras áreas como la biología de poblaciones, la sistemática y taxonomía, la paleontología, la zoología y la botánica, generaron durante el periodo comprendido entre 1937 y 1950 la teoría sintética de la evolución. En ésta se produce la mayor integración de disciplinas, nunca antes alcanzada, de una teoría evolutiva.
 
A partir de los cuarentas se aplicaron sistemáticamente las técnicas moleculares, con un éxito extraordinario en la genética. Para esto, el acceso al nivel molecular había comenzado y la estructura y función de los genes era el próximo frente del avance genético. En 1941 George Beadle y E. L. Tatum introdujeron la revolución de Neurospora, estableciendo el concepto de un gen una proteína, por lo que los genes son elementos portadores de información que codifican a las enzimas. En 1944 Oswald Avery, Colin McLeod y Maclyn McCarty demostraron que el "principio transformador" es el adn.
 
El año 1953 representa un momento culminante: James Watson y Francis Crick interpretaron los datos de difracción de rayos X de Maurice Wilkins junto con los resultados de la composición de bases nucleotídicas de Erwin Chargaff, concluyendo que la estructura del adn es una doble hélice, formada por dos cadenas orientadas en sentidos opuestos, esto es: antiparalelas. La estructura de tres dimensiones (3-D) se mantiene gracias a enlaces de hidrógeno entre bases nitrogenadas que se encuentran orientadas hacia el interior de las cadenas. Dicha estructura sugería, de un modo inmediato, cómo el material hereditario podía ser duplicado. Una estructura tan simple proveía la explicación al secreto de la herencia: la base material (adn), la estructura (doble hélice 3-D) y la función básica (portador de información codificada que se expresa y se transmite íntegramente entre generaciones); así, el fenómeno genético era, por fin, explicado. Por lo anterior, no debe sorprendernos que el descubrimiento de la doble hélice se considere el más revolucionario y fundamental de toda la biología; aunque en esta visión en mucho han influido las modas de máxima complejidad de sentirse “biólogo molecular” en los ochentas y noventas.
 
En 1958 Matthew Meselson y Franklin Stahl demostraron que el adn se replicaba de manera semiconservativa. El problema de cómo la secuencia del arn se traduce en secuencia proteica se empezaba a resolver. Un triplete de bases (codón) codifica un aminoácido. Inmediatamente se establece el flujo de la información genética: el Dogma Central de la Biología Molecular. Ese mismo año Arthur Kornberg aisló la polimerasa del adn y en 1959 Severo Ochoa aisló por vez primera el arn polimerasa, con lo que inicia la elucidación del código. En 1961 Sidney Brenner, François Jacob y Meselson descubrieron el arn mensajero. En 1966 Marshall Nirenberg y Har Gobind Khorana terminaron de develar el código genético. Paralelamente a estos descubrimientos, Seymour Benzer publicó sus primeras investigaciones sobre la estructura fina del locus rii en el fago t4. Años antes, en 1961, Jacob y Monod propusieron el modelo del operón como mecanismo de regulación de la expresión génica en procariontes. Charles Yanofsky demostró la colinearidad entre genes y sus productos proteicos, en 1964. Dos años después R. Lewontin, J. L. Hubby y H. Harris aplicaron la técnica de la electroforesis en gel de proteínas al estudio de la variación enzimática en poblaciones naturales, obteniéndose las primeras estimaciones de la variación genética de algunas especies. En 1968 hizo su aparición la teoría neutralista de la evolución molecular, introducida por M. Kimura, que da la primera explicación satisfactoria al exceso de variación genética encontrada en los datos de las electroforesis de enzimas en poblaciones naturales; para esto su propuesta es que gran porcentaje de esa variación es selectivamente neutra y, dado esto, la tasa de sustitución de bases o aminoácidos por mutación, es directamente proporcional a la tasa de evolución: nace el reloj molecular.
Con el inicio de la década de los setentas surgieron técnicas muy sofisticadas de manipulación directa del adn. Así, en 1970 se aislaron las primeras endonucleasas de restricción y H. Temin y D. Baltimore descubrieron la reverso transcriptasa (enzima típica de los retrovirus como el vih). En 1972, en el laboratorio de Paul Berg, se construyó el primer adn recombinante in vitro. El año 1977 fue muy importante, pues se publicaron las técnicas de secuenciación del adn de Walter Gilbert y de Frederick Sanger; Sanger y sus colegas publicaron, a su vez, la secuencia completa de cinco mil trescientos ochenta y siete nucleótidos del fago f x171; varios autores descubrieron que los genes de los organismos eucariontes se encuentran interrumpidos: descubren los intrones. En 1976 salió a la venta The Selfish Gene, del controvertido evolucionista Richard Dawkins; su planteamiento es sencillo: los cuerpos (soma) son efímeros en la evolución, lo que importa es la transferencia de los genes (germen) a las generaciones futuras; así, esta propuesta es un eco weismaniano en el tiempo.
 
Entre 1981 y 1982 fueron creados los primeros ratones y moscas transgénicos. A su vez, Thomas Cech y Sidney Altman, en 1983, descubrieron que el arn tiene funciones autocatalíticas. En ese año M. Kreitman publicó el primer estudio de variación intraespecífica en secuencias de adn del locus Adh (alcohol deshidrogenasa) de Drosophila melanogaster. A principios de la década de los ochentas R. Lande y S. Arnold introdujeron el análisis estadístico multivariado en los estudios de selección fenotípica y genotípica en la naturaleza. A mediados de esa misma década se iniciaron los estudios que abordan el problema de la conservación de la biodiversidad con una perspectiva genética, los cuales prevalecen hasta nuestros días. En 1986 Kary Mullis presentó la técnica de la reacción en cadena de la polimerasa (pcr). En 1990 Lap-Chee Tsui, Michael Collins y John Riordan encontraron el gen cuyas mutaciones alélicas son responsables directas de la fibrosis quística. Ese mismo año Watson y muchos otros lanzaron el proyecto del genoma humano, cuyo objetivo es mapear completamente el genoma de Homo sapiens y, finalmente, determinar la secuencia completa de bases nucleotídicas en esta especie que creó (por llamarle de algún modo) la ciencia genética.
Referencias bibliográficas
 
Berry, R. J. 1982. Neo-Darwinism. Londres, E. Arnold.
Bowler, P. J. 1983. The Eclipse of Darwinism: Anti-Darwinian Evolution Theories in the Decades Around 1900. Baltimore, Universidad John Hopkins.
Bowler, P. J. 1992. The Fontana History of Environmental Sciencies. Fontana Press.
Bowler, P. J. 1989. The Mendelian Revolution: The Emergence of the Hereditarian Concepts in Modern Science and Society. Londres, Athione.
Dunn, L. C. 1965. A Short History of Genetics. Nueva York, McGraw-Hill.
Gardner, E. J. 1972. History of Biology. 3a. ed. Nueva York, Macmillan.
Harris, L. 1981. Evolución. Génesis y revelaciones. Barcelona, Hermann Blume.
Mayr, E. 1982. The Growth of Biological Thought. Diversity, Evolution and Inheritance. Cambridge, Universidad de Harvard.
Moore, J. A. 1993. Science as a Way of Knowing. The Foundations of Modern Biology. Cambridge, Universidad de Harvard.
Olby, R. C. 1991. El camino hacia la doble hélice. Madrid, Alianza.
Olby, R. C. 1966. Origins of Mendelism. Londres, Constable.
Portugal, F. H. y J. S. Cohen. 1977. A Century of dna. Cambridge, mit Press.
Provine, W. B. 1971. The Origins of Theoretical Population Genetics. Chicago, Universidad de Chicago.
Stent, G. S. y R. Calendar. 1978. Genetics: An Introductory Narrative. 2a. ed. San Francisco, Freeman.
Stigler, S. M. 1986. The History of Statistics: The Measurement of Uncertainty Before 1900. Cambridge, Universidad de Harvard.
Stuble, H. 1972. History of Genetics. Cambridge, mit Press.
Sturtevant, A. H. 1965. A History of Genetics. Nueva York, Harper and Row.
Watson, J. D. 1968. La doble hélice. Barcelona, Salvat. 1987.
Watson, J. D. y J. Tooze. 1982. The dna Story. San Francisco, Freeman.
Jorge González Astorga
Instituto de Ecología, A. C.
_______________________________________________________________
 

como citar este artículo

González Astorga, Jorge. (2001). Breve cronología de la genética. Ciencias 63, julio-septiembre, 70-77. [En línea]
    Regresar al índice artículo siguiente
Invitación a las gemometrías no euclidianas
 
PortadaB6
Ana Irene Ramírez Galarza y Guillermo Sienra Loera
Las Prensas de Ciencias.
Facultad de Ciencias, unam.
   
HTML ↓ PDF ← Regresar al índice / artículo siguiente →
     
En este libro se cuenta la historia de los descubrimientos que cambiaron la forma del pensamiento en lo que respecta a los conceptos geométricos desarrollados por el ser humano desde la Antigüedad hasta el Renacimiento. Estos descubrimientos tomaron forma en lo que se ha llamado geometrías no euclidianas.
 
Una de las claves iniciales fue el concepto de paralelismo introducido formalmente por el matemático griego Euclides alrededor del siglo iii a. C. en su obra Elementos, uno de los libros más editados de todos los tiempos. Desde el punto de vista del gran geómetra Félix Klein, puede decirse que la geometría euclidiana estudia aquellas propiedades de los cuerpos que no cambian cuando los desplazamos, los rotamos o los reflejamos.
 
La evolución de la geometría fue muy pobre durante los veinte siglos siguientes a la época de Euclides, sobre todo por la falta de conceptos fundamentales tanto de las matemáticas como de los de límite y continuidad, y la falta de una notación adecuada en el álgebra. Pero hubo una contribución importante, no matemática, debida al cambio de filosofía que en todos los órdenes de la vida introdujo el Renacimiento. La preocupación renacentista por obtener un método para lograr una buena representación plana de escenas o cuerpos tridimensionales llevó a los
artistas plásticos a precisar las nociones de un punto de fuga (antecedente de los puntos al infinito en matemáticas) y de línea del horizonte, logrando con ello establecer las reglas del dibujo en perspectiva. Las peripecias que los artistas en su búsqueda de las reglas de la perspectiva y el camino de dichas reglas debieron recorrer hasta transformarse en conceptos matemáticos son parte de esta historia.
 
Los primeros resultados en geometrías no euclidianas fueron obtenidos por dos estudiosos de la lógica, Saccheri y Lambert. La parte dramática de la historia de las geometrías elíptica e hiperbólica fue lograr la declaración de su existencia por los científicos más reconocidos de entonces, pues existía la convicción de que la única geometría era la euclidiana, y parte del discurso de filósofos muy respetados se había interpretado en ese sentido. A la dificultad de entender el planteamiento matemático debió añadirse el miedo a los beocios, seguidores a ultranza de los filósofos mencionados. Una vez extendida la noción de geometría, y habiendo superado el concepto euclidiano del espacio, se planteó su desarrollo a través de los trabajos de Bernhard Riemann, y su unificación a través de las ideas de Klein, quien finalmente define a la geometría como el estudio de los invariantes bajo un grupo de transformaciones.
 
Fragmento de la introducción.
_______________________________________________________________
 

 

como citar este artículo

Ramírez Galarza, Ana Irene y Sienra Loera, Guillermo. (2001). Invitación a las geometrías no euclidianas. Ciencias 63, julio-septiembre, 78. [En línea]
 
← Regresar al índice / artículo siguiente →
  P01 P02  
 
 
     
Valores morales y valores científicos
 
Fernando Savater
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Me gustaría hablar en favor de la comunicación social de la ciencia y por qué desde mi punto de vista la comunicación social de la ciencia es algo importante. Existe una visión general del asunto que nos indica que tanto en el terreno científico como en el ético o moral se dan posturas contrapuestas, intuiciones diferentes, caminos divergentes o formas explicativas desiguales. De modo que aparece el debate. No se parte de una homogeneidad, de un acuerdo total, sino que existe un debate.
 
Lo que ocurre es que en el debate científico hay un árbitro enormemente eficaz. Y aunque no siempre fiable, ya que los oráculos de este árbitro son un poco oscuros, inescrutables, después de todo es el árbitro que zanja las cuestiones entre los científicos. Ellos pueden no ponerse de acuerdo entre sí, porque están sujetos a pasiones u obnubilaciones como el resto de los seres humanos, pero hay un árbitro que antes o después los pone de acuerdo y decide quién va por el buen camino y quién no. Y ese árbitro es la realidad, la realidad exterior.
 
La existencia de una realidad objetiva, externa, zanja las discusiones entre los científicos. Es una realidad que a veces cuesta interpretar porque no se da sin esfuerzo ni de una manera fácil, pero, en último término, el científico que acierta a utilizarla como argumento a su favor, obviamente, termina “llevándose el gato al agua” en cualquier debate con los científicos.
 
Esto hace que los enfrentamientos en el campo científico no sean nunca tan agónicos como lo son en el campo moral o ético, porque ahí la pelea siempre puede ser zanjada antes o después y, salvo casos de verdadera ofuscación irracional, todos terminan dándose cuenta de que esto es lo que hay y lo otro queda descartado, queda arrumbado por la contrastación con la realidad misma.
 
El problema del campo moral es que no existe una realidad moral objetiva como existe en el campo que trata o estudia el conocimiento científico. Por lo tanto, es fácil para cada uno de nosotros, o por lo menos tenemos una esperanza razonable, de que a la pregunta qué debo creer respecto de una cuestión que de hecho la ciencia o la historia puede verificar, tengo posibilidad de dar una respuesta convincente y de zanjar mi duda o las disputas que tengo con otro, mientras que la pregunta qué debo hacer probablemente seguirá siempre reducida a una dimensión mucho más subjetiva.
 
No estoy inventando grandes cosas, sigo la exposición clásica de Bernard Williams sobre estos temas. Si lo que quiero preguntarme es qué debo creer respecto, por ejemplo, de la altitud del Mulhacén, a si el estroncio es o no un metal, o si Wagner y Verdi se encontraron personalmente alguna vez, hay posibilidades de recurrir a una realidad que zanje mis dudas o que las aclare en buena medida.
 
Cuando me pregunto qué debo hacer en cuestiones morales, si, por ejemplo, es lícita la clonación humana o si bombardear un país es decente y bueno o no, ahí no hay una realidad exterior objetiva a la que pueda acudir para responder mis dudas.
 
En el fondo, lo que los teóricos anglosajones de la ética llaman “el argumento de la tercera persona”, es decir, ni tú ni yo, sino la tercera persona, la objetividad, no suele valer en el campo de la moral, que está siempre encerrado en la pugna entre el tú y el yo.
 
No quiere decir que esa pugna sea totalmente infranqueable a argumentos racionales. También en esas argumentaciones entre el tú y el yo existe la posibilidad de usar bases empíricas, de utilizar conocimientos sobre historia, economía, psicología, etcétera, que enriquecen el juicio moral. Pero, obviamente, nunca terminan por desembocar por sí mismos en un juicio moral.
 
Ningún conocimiento empírico por sí mismo desemboca en un juicio moral. Es decir, puedo saber cuántas personas civiles morirán si se bombardea determinado país, pero eso en sí mismo no es un juicio moral. Puedo ser más o menos preciso, puedo incluso conocer si esas personas civiles pertenecerán a determinadas capas sociales, si serán niños o no. Todo eso me completará el marco sobre el cual después debo juzgar, pero, evidentemente, ninguno de esos datos empíricos, ninguno de los conocimientos que han llevado a poder poseer armas destructivas de determinado alcance ni ningún otro tipo de conocimiento imaginable de este orden me pueden dar la solución moral a mi duda. La solución moral sólo la puedo exponer como una convicción razonada, pero nunca concluyente por el refrendo de una realidad moral comparable con la realidad objetiva exterior.
 
Y ésa es la gran dificultad de las argumentaciones éticas y morales. Por eso, el único equivalente que podemos buscar o encontrar a la realidad objetiva en el campo de la moral son las otras personas, los otros argumentadores en el momento de plantearnos las dudas de las cuestiones morales. Es decir, como no puedo acudir a una realidad moral en sí, podemos, a partir de los datos y de los conocimientos empíricos que aporten las diversas vías del conocimiento de la realidad, establecer un cierto debate entre sujetos, que nunca será plenamente objetivo, porque, como digo, está hecho por sujetos. Siempre recuerdo la lección de mi viejo amigo el poeta Pepe Bergamín, a quien reprochaba frecuentemente su arbitrariedad razonante, que a veces llegaba a lo caprichoso, pero siempre muy divertida y genial. Alguna vez le decía: “pero qué subjetivo eres, Pepe, es que eres incapaz de un mínimo de objetividad”, y él me decía: “mira, si yo fuera objeto, sería objetivo, pero como soy sujeto, soy subjetivo”. Algo de eso hay, es decir, como somos sujetos, necesariamente al hablar de los sujetos tenemos que ser subjetivos, tenemos que incluir criterios subjetivos en nuestra forma de pensar.
 
Esto es lo que en otras ocasiones he tratado de explicar cuando hablaba, repitiendo líneas de pensamiento comunes de nuestro tiempo, de la contraposición entre lo racional y lo razonable como dos vertientes posibles de la razón.
 
Lo racional es lo que nos faculta para el trato con los objetos, es decir, lo que hace al mundo inteligible y practicable.
 
El conocimiento científico nos acerca a los objetos y realidades de este mundo y nos los hace inteligibles y practicables. Esto es muy importante desde todo punto de vista, porque tiene unos ecos sociales en el bienestar, en el desarrollo, etcétera.
 
Para conocer racionalmente los objetos tenemos que conocer sus propiedades, de qué están hechos, a qué reaccionan, cuál es la causalidad que opera en ellos. Ése es el conocimiento racional de los objetos. En cambio, el reconocimiento de los sujetos es diferente, por eso utilizaba la expresión razonable y no racional. Razonable, porque dentro de nuestro conocimiento de los sujetos no solamente hay que incluir sus propiedades, la causalidad que opera en ellos o sus circunstancias objetivas, sino también sus deseos, proyectos, orientaciones o valoraciones propias, hacia dónde quieren ir, hacia dónde quieren llegar, cuál es su visión de las cosas o qué objetivos se proponen.
 
Todo eso cuenta si quiero tener una visión razonable del otro, si quiero tener una visión meramente racional en el sentido objetivista de los otros. No quiere decir que sea más científico, sino al contrario: me pierdo la dimensión verdaderamente propia y peculiar de los seres humanos que es tener dimensiones subjetivas, que no se puede contraponer a esa tercera persona que decide las cuestiones, puesto que son de alguna manera expresión de un mundo propio, o si queremos, de una libertad de opción.
 
Esa libertad de opción no se puede nunca terminar de prever ni de calcular. Antes se decía que el mundo era algo previsible y, evidentemente, es previsible saber dónde estará el día 14 de enero del año 2030 el planeta Marte. Lo que es difícil es saber dónde estará en ese momento una persona determinada que tenga una capacidad de opción sobre su propio destino, sobre su propio camino.
 
Prever aquello en lo cual sólo influyen causas mecánicas ya es difícil y complejo y se ha visto que hay estructuras más o menos disipativas y azarosas que intervienen en la realidad y que hacen que esos cálculos plenamente deterministas no puedan darse ni siquiera con los objetos. Pero no con los sujetos, en los que uno de los elementos que interviene es la voluntad propia y la de los otros; es decir, puedo interactuar con los otros sujetos, de tal manera que sus decisiones vayan en un sentido o en el otro, cosa que no me ocurre con el resto de la realidad.
Por lo tanto, es razonable saber que aunque puedo estudiar aspectos objetivos de los sujetos, también debo relacionarme subjetivamente con ellos porque es la forma de conocerlos e incluso de influir o actuar sobre ellos mejor.
 
De modo que los valores morales quieren ser valores razonables, no meramente racionales, pues no son constataciones meramente de hecho, sino que tienen esa otra dimensión de comprensión del mundo subjetivo. Obviamente, cuando se contraponen los valores científicos con los valores morales, a veces, hay un cierto encasillamiento por parte de los que piensan desde una perspectiva opuesta.
 
Existen visiones científicas que opinan que la visión objetiva del mundo no puede detenerse ni cortocircuitarse por consideraciones de lo meramente razonable, es decir, que lo racional es lo que tiene que seguir adelante y lo razonable está siempre teñido de superstición, de elementos atávicos, que antes o después deben ser desdeñados. Esta forma de ser refleja en esa frase que se suele repetir mucho cuando se discute sobre algún avance científico (que no progreso, porque mientras que el avance puede ser algo objetivamente comprobable, el progreso introduce elementos morales distintos) y se trata de valorar moralmente: siempre que alguien dice que es inútil discutir porque todo lo que puede hacerse científicamente se hará. Este tipo de planteamiento es muy común cuando se habla de la clonación.
 
Primero, es un argumento que tiene un fondo un poco absurdo, porque naturalmente los juicios éticos sólo pueden hacerse sobre lo que puede hacerse. Nadie se plantea problemas morales sobre lo imposible, por lo tanto, decir que todo lo que puede hacerse se hará, es anular toda la posibilidad de juicio de los seres humanos sobre las cosas que ocurren en el mundo y los procesos en los que ellos mismos están incursos, porque si verdaderamente Aristóteles no se planteó nunca el problema de la clonación es porque en su época no se podía hacer y los problemas morales sólo se plantean allí donde la acción humana puede intervenir.
Pero, por otra parte, se da al proceso científico un camino como si de alguna manera fuera sobre rieles, como si el proceso científico-tecnológico tuviera que seguir un camino determinado y que no pudiera ser juzgado, interpretado ni desviado.
 
Es verdad que a veces hay formas de progreso tecnológico que han despertado alarmas injustificadas en la sociedad. Recuerdo una vez que cayó en mis manos un libro muy divertido sobre las opiniones que tenían los psiquiatras ingleses del siglo pasado sobre los trastornos mentales que sufrirían las personas viajando en los primeros trenes. Parece que ver pasar por la ventanilla vacas a cuarenta kilómetros por hora hacía que uno llegara a Liverpool en un estado lamentable. O como la degeneración de las relaciones humanas que iba a traer el teléfono porque los seres humanos dejarían de hablarse unos a otros y sólo lo harían por teléfono (y eso que todavía no conocían los teléfonos móviles que realmente empieza a parecer un cierto peligro con respecto a aquello que antes se temió). Todos éstos son temores morales de grandes cambios morales y sociales que no han ocurrido y que no tienen mucha base.
 
Ahora bien, la invención de la bomba atómica y otras armas destructivas ha traído temores y dudas morales que creo están perfectamente justificadas; asimismo, la posibilidad de una restricta manipulación genética que convirtiese al ser humano en materia genética, o la idea de que los seres humanos provienen de una materia genética y no de una afiliación de hombres y mujeres, tiene, por supuesto, graves implicaciones éticas y morales y es justificado no tomar una postura crítica ni de aprobación sin más, sino obviamente una actitud de cuestionamiento y de debate. Es imposible que alguien diga: esto puede ser o esto debe ser, sobre todo si tomamos en cuenta la cuestión que decíamos del carácter necesariamente subjetivo de la actitud moral; subjetivo no quiere decir relativo o relativista o irracional, sino que no hay una posibilidad de referencia que todos deban asumir y que esté fuera de nosotros.
 
Pero el debate sí se puede establecer, sí hay razonamientos que hacer, por ejemplo, por decir una opinión mitológica que, no sé si tenga alguna base real, se atribuye a Werner von Braun, el padre de las v-1 y v-2 alemanas durante la Guerra Mundial, que cuando estaba trabajando en proyectos de la nasa que tenían que ver con cohetes espaciales, alguien le preguntó: “¿no siente remordimiento, preocupación, angustia por haber producido aquellos elementos destructivos que asolaron Londres?”, y éste contestó: “Mire, en aquel momento, como científico, mi problema empezaba simplemente cuando el cohete despegaba y acababa cuando el cohete caía, pero mi problema no concernía de dónde salía o a dónde llegaba después”. No sé si lo dijo. De todas maneras, esto en algún momento puede ser una tentación que reclama que la sociedad intervenga: nadie puede abstraerse así de la repercusión social de su trabajo, en el mero plano de la objetividad, desconociendo que vive entre seres dotados de subjetividad y por lo tanto no sólo racionales sino también razonables.
 
Esto hace que la moral no pueda convertirse en juez de la ciencia y que incluso intente bloquear caminos determinados de investigación, de conocimiento, puesto que el conocimiento siempre es positivo; saber dónde estamos y qué ocurre siempre es bueno.
 
Pero también es verdad que no se puede admitir simplemente que la ciencia es como una locomotora que va con los frenos rotos y por la vía a toda velocidad sin que nadie pueda detenerla. Ahí realmente hay una necesidad de debate, un ejercicio de humildad y profundización sobre los planteamientos valorativos y científicos y sobre la contraposición de ambos. En este sentido, es importante la comunicación social de la ciencia, porque es imposible realizar juicios morales mínimamente lícitos y lógicos si se desconoce absolutamente de lo que se está hablando. Por eso, a veces, respecto a cuestiones que el sensacionalismo pone de moda, hay unos debates feroces sobre la posibilidad de que miles de “hitleres” corran por el mundo y nadie se preocupa, o por lo menos muy pocos, de aclarar hasta qué punto se está discutiendo algo real, una extrapolación, una fantasía.
 
Creo que la comunicación social podría no dar la impresión falsa a la gente de que va a haber un tipo de realidad exterior que va a zanjar todas nuestras dudas morales. No va a suceder eso, porque no pertenece a ese campo la decisión moral de un ideal de vida, no pertenece a la realidad objetiva de la vida.
 
La ciencia trata de lo que es, y la moral de lo que debe ser. No corren por la misma pista. Naturalmente para saber lo que debe ser es necesario conocer lo que es y las posibilidades de transformación de los que es, pero el ideal o el proyecto de lo que debe ser no puede surgir simplemente del conocimiento de lo que es.
 
Por lo tanto, ahí hay que comunicar la base científica, incluso el hábito de razonamiento argumentado que la ciencia brinda, y que es importante para las discusiones, y saber que, en el campo moral, lo más parecido que existe a esa realidad exterior, tercera persona que zanja la cuestión entre el tú y el yo, es el conjunto del resto de la sociedad, el conjunto de los otros seres que pueden intervenir y argumentar de una forma sometida a la razón pero no exclusivamente con una visión objetivista sino también incluyendo proyectos, deseos, ambiciones, temores, etcétera.
 
Y hay un aspecto por el cual es muy importante la comunicación social de la ciencia. Creo que es falso el dilema entre ciencia sí y ciencia no. Es absurdo. El dilema es entre ciencia y falsa ciencia, entre ciencia y falsos sustitutos de la ciencia. Porque, como ciencia, tiene que haber un conocimiento orientado a la vez a lo inteligible y a lo practicable, a la comprensión y a la transformación o a la obtención a veces ávida de riquezas, placeres, posibilidades de actividad, etcétera. A partir de la existencia de estos elementos se va a buscar en la ciencia verdadera, una ciencia sometida a los parámetros de una racionalidad estricta, se va a buscar en el mundo de lo irracional, de lo fantástico, a veces incluso en el mundo de las supersticiones nocivas, dogmáticas, que van a darse por científicas. Pensemos que aberraciones como el racismo se han presentado como científicas, y aún quedan atisbos, por ejemplo, en la forma en que ciertos genetistas se refieren a las condiciones éticas o a las preferencias sexuales de las personas. Esta posibilidad de la falsa utilización de la ciencia es la razón por la que es necesario explicar la ciencia.
 
A veces, porque se ofrece como ciencia cualquier cosa, la palabra ciencia y científico ya es prestigiosa. Recuerdo cuando estuve en un kashba, en un país árabe, donde se ofrecían artesanías y objetos, y noté que los vendedores se acercaban entusiasmados gritando ¡video!, ¡video! Yo veía que eran objetos que nada tenían que ver con un video, hasta que me explicaron que la palabra video era como una cosa ponderativa.
 
A veces, decir que algo es científico, sea o no verdad que es científico, es algo que ya no se puede discutir y debatir. Por ejemplo, cuando venía en el avión leí unas declaraciones de Rouco Varela que defendía la asignatura de religión afirmando que no tienen nada que ver con un catecismo, sino que es una asignatura científica porque, aunque a nivel más o menos infantil, es una teología para niños. Claro, dice él, a ver quién se atreve a decir que la teología no es científica. No quisiera pecar de arriesgado y diría que, efectivamente, la teología es científica en el mismo sentido en que lo es, por ejemplo, el Manual de zoología fantástica de Jorge Luis Borges, obra deliciosa, interesantísima de lectura, pero sería muy raro que se diera como materia obligatoria en las facultades de ciencias biológicas. Por la misma razón que, pese al enorme interés y agrado que produce, el Manual de zoología fantástica de Borges debe ser leído en otro contexto y no en el de los estudios biológicos, quizás deberíamos reservar ese tipo de ciencia teológica para aficionados más decididos y las materias del bachillerato dedicarlas a la difusión social de la ciencia en el sentido habitual del término o de algunas cuestiones valorativas, como la ética ciudadana, que también tiene importancia y compromete la marcha de la sociedad.
 
Por eso es importante la difusión social, la comunicación social, la elucidación social de la ciencia. El científico no es brujo. A pesar de que pueda encerrarse, clausurarse, en realidad está actuando de la manera más pública del mundo porque lo está haciendo en el órgano que todos compartimos, que no es la genealogía ni la raza ni la tradición ni la lengua, sino la función racional.
 
Precisamente, a diferencia de los que dicen “escuchadme a mí, creedme, yo lo he visto”, el científico dice “ponte aquí, mira por dónde estoy mirando y lo verás tú también”. Eso es la difusión social que me parece importante tanto por sus contenidos como por la misma actitud de humildad y de sometimiento a la prueba, al racionamiento y, en caso de que la realidad no nos sirva para zanjar cuestiones morales, al menos al intercambio de aportaciones razonables, incluso ciertas
Ponencia Marco. Comunicar la Ciencia en el Siglo xxi. I Congreso sobre Comunicación Social de la Ciencia. Granada, marzo de 1999.

Fernando Savater
UniveNota
_______________________________________________________________

como citar este artículo
Savater, Fernando. (2001). Valores morales y valores científicos. Ciencias 63, julio-septiembre, 4-10. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Espacio, tiempo y realidad.
De la física cuántica a la metafísica kantiana
 
 
Shahen Hacyan
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La Crítica de la razón pura de Kant empieza con la frase: “No hay duda de que todo nuestro conocimiento comienza con la experiencia”. Pero unos renglones más abajo, su autor precisa: “Si bien todo nuestro conocimiento comienza con la experiencia, de ningún modo se infiere que todo se origine de la experiencia. Por el contrario, es muy posible que nuestro conocimiento empírico sea una combinación de aquello que recibimos a través de nuestros sentidos, y aquello que la capacidad de cognición proporciona por sí misma”. Dicho de un modo más cercano a nuestra experiencia moderna, el cerebro tiene que venir con algún programa “de fábrica” que nos permita procesar los estímulos captados por los sentidos; un programa con el cual podamos ordenar la experiencia sensorial y darle coherencia a nuestras percepciones. Si no tuviéramos ese programa, sólo percibiríamos una sucesión interminable y abigarrada de estímulos del mundo exterior.
 
Kant postuló la existencia de cosas inaccesibles a los sentidos, a las que llamó cosas-en-sí, que forman parte de una realidad que existe independientemente de la conciencia. Las cosas-en-sí no son directamente perceptibles, pero producen sensaciones en nuestra mente, con las cuales ésta reconstruye la realidad. La tesis de Kant es que el espacio y el tiempo no se encuentran en el mundo de las cosas-en-sí, sino que forman parte de nuestro aparato de cognición. El espacio y el tiempo son formas de percepción. El espacio nos permite la intuición del mundo exterior, mientras que el tiempo nos permite ordenar el mundo interior de nuestros pensamientos.
Si Kant tenía razón es algo que todavía está sujeto a discusión. Por ahora, sólo podemos decir que su concepción del mundo no está en contradicción con la teoría de la relatividad y la mecánica cuántica. Estas dos teorías fundamentales de la física moderna, que, desde perspectivas distintas, cambiaron radicalmente nuestras ideas sobre el espacio, el tiempo y la causalidad, parecen confirmar la tesis de Kant hasta cierto punto.
 
Tiempo
 
Después de que Newton postulara la existencia de un tiempo absoluto, los físicos no se preocuparon demasiado por el concepto del tiempo. Sin embargo, era evidente que las ecuaciones de Newton, que describen la evolución dinámica de un sistema físico, no cambian su forma si se invierte en ellas el sentido del tiempo. Los planetas del Sistema Solar podrían girar en un sentido o en otro, sin que un observador lejano que filmara el curso de los astros pudiese determinar si está observando la película proyectada al derecho o al revés.
 
El asunto empezó a preocupar a los físicos en el siglo xix cuando surgió la termodinámica, inicialmente para describir el funcionamiento de las máquinas de vapor. Un concepto fundamental de la termodinámica es la entropía, que es, en cierta forma, una medida de la energía que ya no se puede aprovechar (por ejemplo, el calentamiento de una máquina por la fricción de sus partes es, en cierta forma, energía desperdiciada). La segunda ley de la termodinámica postula que la entropía debe aumentar, o permanecer al menos constante, a medida que transcurre el tiempo. Ésta es la única ley de la física clásica en la que aparece una distinción entre pasado y futuro, pero es una ley empírica. Ni las ecuaciones de la mecánica, ni ninguna ley fundamental de la física implican que exista una dirección del tiempo; pasado y futuro son sólo conceptos relativos. Y sin embargo, la experiencia nos enseña todo lo contrario…
 
Mucho físicos del siglo xix trataron de demostrar la segunda ley de la termodinámica a partir de principios fundamentales, pero Ludwig Boltzmann es el único a quien se le puede adjudicar un éxito parcial. Boltzmann creía firmemente en la existencia de las moléculas y desarrolló lo que se conoce actualmente como la teoría cinética, rama de la física que estudia el comportamiento estadístico de sistemas compuestos de un número muy grande de partículas en interacción. Las moléculas se mueven y chocan unas con otras constantemente, intercambiando energía entre ellas. Boltzmann mostró que la segunda ley se puede demostrar a partir de este movimiento azaroso y de principios estadísticos: el tiempo transcurre en un sentido, del pasado al futuro, porque es inmensamente más probable que suceda así. Si no sucede al revés, no es porque sea imposible, sino porque es inmensamente improbable.
 
Tomemos el ejemplo de un vaso de agua cuyo contenido se derrama en el suelo. Éste es un proceso muy probable y ocurre comúnmente. Pero a nivel microscópico el charco en el suelo está formado de billones de billones de moléculas que se mueven azarosamente. En principio, podría suceder que estas moléculas, por pura coincidencia, coordinaran sus movimientos espontáneamente de tal suerte que brincaran de regreso al vaso. Este proceso es muy improbable, por lo que nunca lo observamos. Es tan improbable como ganar la lotería en un sorteo en el que el número de billetes se escribe con varios trillones de dígitos (en comparación, el número de átomos en el Universo visible no necesita más de ochenta dígitos para escribirse).
En cambio, para una molécula sola, la probabilidad de que “caiga” desde una altura de un kilómetro es casi la misma de que regrese espontáneamente a esa altura, debido al choque con otras moléculas. ¡Gracias a que la segunda ley de la termodinámica no se aplica a moléculas, existe la atmósfera que respiramos!
 
Así estaba la situación cuando, en 1905, Albert Einstein presentó la teoría de la relatividad. En esta teoría no existe un tiempo absoluto, sino lapsos que dependen de cada observador. Einstein mostró que existe una conexión básica entre espacio y tiempo, y que un intervalo de tiempo o una sección de espacio pueden variar según el observador, de modo tal que la duración de los procesos depende del sistema de referencia desde el cual se observan. Por ejemplo, el tiempo transcurrido en una nave espacial que se mueve (con respecto a la Tierra) a una velocidad muy cercana a la de la luz es sustancialmente menor al tiempo medido por los que se quedan en la Tierra: los viajeros pueden regresar y encontrarse a sus hijos o nietos más viejos que ellos mismos. Este efecto se ha comprobado perfectamente para las partículas subatómicas generadas con velocidades muy grandes (el tiempo del viajero se contrae con respecto al tiempo del observador fijo, por un factor ÷1–(v/c)2, donde v es la velocidad del viajero).
 
A pesar de lo espectacular que es la relatividad del tiempo predicha por la relatividad de Einstein, esta teoría no explica el fluir del tiempo, como tampoco lo hace la física newtoniana. Por eso, quizás, en ese aspecto es más fundamental la teoría de Boltzmann, con su énfasis en la manifestación estadística de los procesos microscópicos.
 
El punto esencial es que para una partícula del mundo atómico no existe distinción entre pasado o futuro. Este hecho se manifiesta en una forma muy espectacular si tomamos en cuenta a las antipartículas. En el mundo de las partículas subatómicas existe una simetría tal que a cada partícula le corresponde una antipartícula, con esencialmente las mismas características, excepto la carga eléctrica, que es de signo contrario; por ejemplo, al electrón le corresponde, como antipartícula, el positrón, que es idéntico al electrón excepto por su carga positiva. Pero la simetría es completa sólo si se incluye el espacio y el tiempo. Más precisamente, se puede demostrar rigurosamente, en el marco de la teoría cuántica de las partículas elementales, que las leyes de la física permanecen inalteradas si se invierten el espacio y el sentido del tiempo, y se intercambian simultáneamente partículas por antipartículas. Dicho de otro modo, una antipartícula se comporta exactamente como una partícula, vista en un espejo, que viaja hacia atrás en el tiempo.
 
En resumen, el tiempo surge sólo cuando percibimos sistemas de billones de billones de átomos (como son todas las cosas que observamos directamente).
 
Nace el cuanto
 
El nacimiento de la mecánica cuántica se puede situar en diciembre de 1900, cuando Max Planck demostró que la radiación de los llamados cuerpos negros (esencialmente un horno cerrado en equilibrio térmico) podía explicarse con la suposición de que la luz se propaga en paquetes de energías. Pero lo que para Planck era sólo un truco matemático resultó tener una profunda implicación. Cinco años después de la publicación de su trabajo, el entonces joven y desconocido Albert Einstein mostró que el efecto fotoeléctrico podía explicarse muy bien suponiendo que la luz está hecha de partículas de energía pura. Por si fuera poco, en 1913, Niels Bohr se basó en el mismo concepto de Planck para formular su teoría del átomo y explicar el espectro de la luz emitida por el hidrógeno; en el modelo de Bohr, los electrones se encuentran sólo en ciertas órbitas alrededor del núcleo atómico, y la emisión de luz ocurre en paquetes de energía cuando un electrón brinca de una órbita a otra.
 
Los físicos estaban perplejos: después de un largo debate, que se remonta a los tiempos de Newton y Huygens, y habiéndose finalmente convencido de que la luz era una onda, ésta resultaba ser más bien una partícula. La solución del problema (o más bien su disolución, como diría Feyerabend) llegó en 1924, cuando Louis de Broglie propuso la hipótesis de que todos los objetos del mundo atómico tienen propiedades tanto de onda como de partícula. La luz no es una excepción a esta regla: la partícula de la luz —que ahora llamamos fotón— también se comporta como onda.
 
Esta dualidad propia de los objetos atómicos condujo a Bohr a plantear su Principio de Complementariedad. Si diseñamos un experimento para ver un electrón en cuanto partícula, éste no manifestará ningún comportamiento de onda; y viceversa. La intervención del observador —o más específicamente: el diseño del experimento— obliga a los objetos atómicos a manifestarse de una u otra forma, incompatible la una con la otra.
 
La complementariedad se manifiesta en el famoso Principio de Incertidumbre de Heisenberg. Se trata de la incertidumbre asociada a la medición simultánea de dos propiedades complementarias de un sistema, como pueden ser la posición y la velocidad, la energía y el tiempo… o las propiedades de onda y partícula. Implica que la precisión de una medición es a costa de la precisión de otra medición.
 
Lo esencial del principio de Heisenberg no es que haya una incertidumbre en una medición —cosa inevitable incluso en la física clásica—, sino que la observación de un sistema atómico, hecha por un sujeto humano, tenga consecuencias sobre su realidad objetiva. Por ejemplo, si decido medir con absoluta precisión la velocidad de un electrón, entonces el electrón puede estar en cualquier lugar del Universo: la velocidad adquiere realidad física, a costa de que la pierda la posición. Y viceversa si prefiero medir la posición con absoluta precisión. El principio de incertidumbre vuelve indefinida la frontera entre sujeto y objeto.
 
Realidad y causalidad
 
En 1930, el formalismo matemático de la mecánica cuántica había sido plenamente establecido, pero las interpretaciones filosóficas eran objeto de acalorados debates. De acuerdo con la interpretación de Copenhague —ciudad natal de Niels Bohr, su principal proponente—, un átomo (o una partícula como el electrón) puede estar en varios estados simultáneamente. Es el acto de observarlo el que lo obliga a pasar a uno de esos estados y manifestarse en él. Esta interpretación pone especial énfasis en la inseparabilidad del sujeto y del objeto, de modo tal que el concepto de realidad objetiva pierde su sentido obvio; pues ¿qué es esa realidad antes de hacer una observación? Es el acto de observar lo que asigna realidad a las cosas.
 
En la mecánica cuántica, un sistema se describe por su función de onda, que es la solución de Schrödinger, la ecuación fundamental de los fenómenos cuánticos (no relativistas). Pero, de acuerdo con la interpretación de Copenhague, la función de onda describe el conjunto de todos los posibles estados de un sistema físico en condiciones específicas. El hecho de hacer una medición equivale a forzar al sistema a manifestarse en uno de esos posibles estados, y el conocimiento total de la función de onda permite calcular sólo la probabilidad de que ese estado sea el resultado de la medición efectuada.
 
La función de onda no permite saber cuándo un sistema pasará de un estado a otro; sólo permite saber cuál es la probabilidad de que lo haga. En los átomos, los electrones pueden efectuar “saltos cuánticos” de una órbita a otra, sin que se pueda, por cuestiones fundamentales, predecir cuándo lo harán. Éste es el indeterminismo que tanto molestaba a Einstein, quien, años después, afirmaría que él no podía creer en un “Dios que juega a los dados”.
 
La indeterminación del estado de un sistema se debe al acto de observar y medir, porque hay un límite a la certidumbre con la que se puede conocer el estado de un sistema físico. Este límite es inherente a todo proceso de medición y está relacionado con el principio de incertidumbre de Heisenberg. Como lo señaló él mismo, mientras no se interfiera con un sistema por medio de la observación, la función de onda de ese sistema físico contiene todas las posibilidades en “potencia”, en el sentido utilizado por Aristóteles. Cuando un observador toma conciencia del resultado de una observación, se produce una “reducción” del conjunto de posibilidades, que equivale a una transición brusca de lo posible a lo real. Por lo tanto, las probabilidades que describe la función de onda son probabilidades que se anticipan a una posible medición. En ese sentido, son “probabilidades en potencia” que no afectan la precisión con la que se puede estudiar el estado de un sistema.
 
En la mecánica clásica, si se conocen la posición y la velocidad iniciales de cualquier sistema físico, las ecuaciones de movimiento permiten calcular, al menos en principio, sus posiciones y velocidades en cualquier otro momento posterior. En este sentido, la mecánica clásica es una teoría causal: a cada causa corresponde un efecto, y este efecto es susceptible de conocerse. La física clásica es una teoría completa, aun si, en la práctica, debamos recurrir a una descripción aproximada cuando se trata de sistemas muy complicados.
 
La mecánica cuántica, de acuerdo con Bohr y Heisenberg, también es una teoría causal y completa, pero la intervención de un observador introduce una incertidumbre inevitable. Sólo se puede calcular la probabilidad de obtener un cierto resultado en una medición. Una vez más, lo anterior conduce a cuestiones filosóficas fundamentales sobre la existencia de la realidad objetiva y la causalidad.
 
¿Existe contradicción entre la causalidad física y la libre voluntad? Ésta es una vieja discusión filosófica. Para Kant, la causalidad de la física newtoniana (la que él pudo conocer en su tiempo) no implica una falta de libertad para las acciones humanas. La solución de esta aparente contradicción, según él, radica en el hecho de que “un objeto puede tomarse en dos sentidos; primero, como un fenómeno, segundo, como una cosa en sí”; pero el principio de causalidad se refiere sólo al fenómeno. Las cosas en sí están fuera del tiempo y no obedecen a leyes causales.
Cabe mencionar que la incertidumbre propia de la mecánica cuántica ha sido retomada por científicos modernos para afirmar la libertad del pensamiento. Así, John Eccles, destacado neurofisiólogo que estudió los procesos de sinapsis en el cerebro humano, argumentó que éstos se rigen por las leyes cuánticas, dejando así margen para la voluntad de la mente humana.
 
El gato de Schrödinger
 
Así pues, un sistema atómico estaría en todos sus posibles estados mientras no sea observado. El asunto no está exento de paradojas, como hizo notar el mismo Schrödinger al proponer la siguiente situación. Supongamos que ponemos un núcleo radiactivo en una caja: si nadie lo observa, el núcleo está en dos estados simultáneamente: ha emitido y no ha emitido radiación. Si ponemos ahora un detector Geiger que, a su vez, acciona un mecanismo que destapa una botella con gas venenoso, y colocamos un gato en la caja, el felino estará en dos estados: vivo o muerto.
 
¿Por qué no se manifiesta un gato de Schrödinger en nuestro mundo macroscópico? La situación se aclaró sólo en años recientes: la respuesta debe buscarse en un fenómeno conocido como “decoherencia cuántica”. Cuando un sistema está en interacción con un aparato macroscópico de medición o, en general, con su entorno, la función de onda pierde la coherencia entre sus diversas partes y se transforma rápidamente en una suma estadística; por ejemplo: tal probabilidad de que el gato esté vivo o de que esté muerto.
 
En el mundo de los átomos, en cambio, la decoherencia es muy lenta en comparación con los tiempos característicos de los procesos atómicos y, en consecuencia, se puede tener superposiciones simultáneas de diversos estados. En 1997, un equipo de físicos logró construir un estado como el del gato de Schrödinger, pero utilizando un átomo en lugar de un felino; el mismo átomo apareció en dos posiciones simultáneamente, separadas por una distancia de ochenta nanómetros, mucho mayor que el tamaño de un átomo. El experimento se ha repetido también para estados de fotones, siendo posible incluso rastrear la decoherencia, y más recientemente con estados de corrientes en superconductores.
 
Un concepto básico de la mecánica cuántica, como lo es el principio de superposición, podría conducir a posibles aplicaciones tecnológicas. El tamaño de los circuitos electrónicos de las computadoras ha ido disminuyendo con los años y, de seguir esta tendencia, es posible que en unas cuantas décadas los mismos átomos se puedan utilizar como componentes. Las nuevas computadoras se regirían entonces por las leyes de la mecánica cuántica, con la posibilidad de hacer cálculos en paralelo, en estados superpuestos. Incluso, se conocen ya algunos algoritmos que permitirían efectuar operaciones que quedan fuera del alcance de las computadoras actuales. Las computadoras cuánticas, si llegaran a concretarse, serían los dignos herederos del gato de Schrödinger, ya que funcionarían con base en el mismo principio. Incluso se puede especular que una computadora cuántica podría reproducir más fielmente el comportamiento del cerebro.
 
Espacio
 
La interpretación de Copenhague no fue del agrado de todos los físicos. Entre sus críticos más severos destaca nada menos que Einstein. El creador de la teoría de la relatividad siempre pensó que la mecánica cuántica, cuyos éxitos son innegables, era una etapa previa a una teoría del mundo más profunda, que habría de surgir en el futuro y que le daría lugar a una concepción de la realidad más acorde con nuestras ideas intuitivas.
 
Einstein, junto con sus colegas Podolsky y Rosen, ideó un experimento mental en el que dos partículas atómicas están inicialmente en interacción y, en algún momento, se separan. De acuerdo con la mecánica cuántica, si uno mide la posición de una de las partículas puede deducir la posición de la otra y asignarle, así, realidad física a las posiciones en el espacio tanto de una como de la otra partícula. Del mismo modo, midiendo la velocidad de una, puede deducirse la velocidad de la otra, y así asignarle realidad física a las velocidades de las dos. Lo paradójico del asunto es que la separación entre las dos partículas es totalmente arbitraria, a pesar de lo cual, la medición de una partícula determina la realidad física también de la otra. La mecánica cuántica implica entonces la existencia de una “acción fantasmal”, declaró Einstein algunos años más tarde.
 
El meollo del asunto consiste en que dos o más partículas atómicas pueden, en general, estar en lo que se llama un “estado enredado”, lo cual no tiene equivalente en el mundo macroscópico. En tal estado, la distancia espacial entre dos partículas no juega ningún papel; el hecho de hacer una medición en una influye instantáneamente en la otra, aun si las dos se encuentran en extremos opuestos de nuestra galaxia. Tal “comunicación” instantánea viola uno de los principios fundamentales de la teoría de la relatividad: nada puede viajar más rápido que la luz. Pero tal parece que el espacio no tiene existencia en el mundo cuántico.
 
El asunto se habría quedado en el reino de los experimentos mentales si no fuera porque, en 1965, John Bell encontró una manera cuantitativa de comprobar si efectivamente existe la acción fantasmal. Si dos fotones son emitidos por un átomo en direcciones opuestas, se puede medir la probabilidad de que cada fotón tenga una cierta polarización. La mecánica cuántica predice que, para dos fotones en estado enredado, la probabilidad de medir un cierto ángulo de polarización en un fotón depende de lo que un observador lejano decida medir en el otro fotón. Las interacciones cuánticas se producen como si hubiera una transmisión instantánea de información. Esto parece contradecir la teoría de la relatividad, pero hay que recordar que las partículas no tienen realidad física antes de ser detectadas; sólo después de realizar las mediciones y comparar los datos es posible deducir que una partícula “supo” instantáneamente lo que le sucedió a su compañera lejana. Bell mostró que es posible cuantificar la correlación entre los fotones, de tal modo que es posible distinguir tajantemente entre la predicción de la mecánica cuántica y cualquier otra que no implique la existencia de la acción fantasmal.
 
En 1982 fue realizado por primera vez, en un laboratorio francés, un experimento con parejas de fotones emitidos en direcciones opuestas. Al medir las correlaciones entre los ángulos de polarización de los fotones se encontró un resultado que, de acuerdo con la predicción de Bell, confirmaba la interpretación de Copenhague. La existencia de la acción fantasmal quedó así confirmada. Por si quedaban dudas, el mismo tipo de experimento se repitió en 1997, en Ginebra, enviando los pares de fotones por medio de fibras ópticas, a dos regiones separadas diez kilómetros: una vez más, los resultados confirmaron la predicción de la física cuántica.
 
Así pues, en el mundo de los átomos donde rigen las leyes de la física cuántica suceden cosas muy extrañas que ponen en entredicho los mismos conceptos de espacio y tiempo. El espacio pierde su sentido habitual y se manifiesta por la intervención del sujeto que observa. Los experimentos en las últimas dos décadas han establecido plenamente la existencia de una interacción que no respeta ninguna separación espacial.
 
Para que quede claro que la filosofía tiene aplicaciones tecnológicas, señalaremos que el tipo de correlación propuesto por Einstein y colaboradores puede utilizarse hasta cierto punto para transmitir información de un lugar a otro. Esta aplicación de la física cuántica ya se ha vuelto realidad. El método consiste en transportar por medios convencionales una parte de la información (por ejemplo, la mitad de los “bits” necesarios para reconstruir una imagen o un texto) y el resto por interacción cuántica.
 
Siguiendo con esta idea, el año 2000 empezó con el anuncio espectacular de una aplicación más de la “acción fantasmal”: la criptografía cuántica. Tres equipos de científicos lograron desarrollar, en forma independiente, las técnicas para crear claves por medio de transmisiones cuánticas. En este esquema se envían, por fibras ópticas, pares de fotones en estados enredados a dos receptores distintos; éstos miden las polarizaciones de los fotones variando el ángulo de sus respectivos polarizadores en forma aleatoria; después, se comunican por medios tradicionales (y públicos) sus ángulos de polarización y una parte de sus mediciones; la otra parte de sus mediciones, la que no revelan, les sirve para generar un número clave.
 
La idea esencial es que el número clave, generado en dos lugares distintos, sólo puede ser reconstruido por sus receptores y sólo ellos lo conocen. Por lo tanto, lo pueden utilizar para codificar y descodificar los mensajes que quieran intercambiarse. El método tiene la gran ventaja de ser totalmente a prueba de espías, ya que la información enviada por los canales públicos para construir la clave es incompleta y tiene que combinarse forzosamente con los fotones enredados. Si algún intruso intercepta esos fotones, les asigna realidad física antes de que lleguen a sus destinatarios legítimos y revela, de esa forma, su fechoría.
 
Gödel, Einstein, Kant
 
Kurt Gödel es bien conocido por un famoso teorema. El teorema de Gödel muestra la imposibilidad de construir un sistema lógico libre de contradicciones, en el que cualquier proposición pueda probarse o refutarse.
 
Los trabajos de Gödel sobre lógica matemática se remontan a los años treintas, cuando él trabajaba en la Universidad de Viena. Al empezar la Segunda Guerra Mundial, Gödel huyó de Austria y llegó a Estados Unidos, donde se estableció en la Universidad de Princeton. Allí conoció a Albert Einstein, otro ilustre refugiado político, y los dos científicos desarrollaron una estrecha amistad que habría de perdurar hasta la muerte del gran físico en 1955.
 
Seguramente influenciado por su amigo Einstein, Gödel empezó a interesarse en la teoría de la relatividad general durante su estancia en Princeton. Esta teoría postula que la gravitación se debe a la curvatura del espacio-tiempo, espacio de cuatro dimensiones que posee una geometría no euclidiana; la distribución de la materia en el Universo determina su geometría. Como una de las primeras aplicaciones de su teoría, Einstein había propuesto, años atrás, un modelo de universo en el que el espacio se cierra sobre sí mismo, al igual que la superficie de una esfera, de tal modo que si una nave espacial viaja siempre en la misma dirección, daría la vuelta al universo y regresaría a su punto de partida.
 
En 1947, Gödel publicó un trabajo sobre relatividad general que, hasta la fecha, sigue despertando interés por sus extrañas implicaciones. Se trata de una solución de las ecuaciones de Einstein que representa un universo en rotación. Lo curioso es que, en el universo de Gödel, es posible dar la vuelta y regresar no sólo al mismo punto en el espacio —tal como en el universo de Einstein—, sino también al mismo instante en el tiempo. En otras palabras, en el universo de Gödel existen trayectorias de eterno retorno, sin distinción entre pasado y futuro.
 
La conclusión principal de Gödel no es tanto que se pueda construir una máquina del tiempo, ya que, para entrar en un ciclo eterno, una nave espacial tendría que moverse a una velocidad cercana a la de la luz y recorrer una distancia comparable al radio del Universo. La implicación esencial es que la distinción entre pasado y futuro no está implícita en la teoría de la relatividad, ya que esta teoría no excluye el eterno retorno. El sentido del tiempo debe buscarse en algún otro principio fundamental.
 
Con motivo del septuagésimo aniversario de Einstein, Gödel escribió un ensayo filosófico en el que, con base en la teoría de la relatividad, analiza la idea de Kant de que el tiempo no es más que una forma de percepción. Gödel hace notar que la teoría de Einstein elimina la noción de un tiempo absoluto y el concepto de simultaneidad, lo cual, para Gödel, es una evidencia de que el tiempo no tiene una realidad objetiva. Incluso, esta teoría ni siquiera excluye la posibilidad de un tiempo circular, como muestra la existencia de la solución que él encontró. Así, concluye: “Tenemos una prueba inequívoca para el punto de vista de aquellos filósofos como Parménides, Kant, y los idealistas modernos, que niegan la objetividad del cambio y consideran a éste una ilusión o una apariencia producto de nuestro modo especial de percepción”.
 
En su respuesta al planteamiento de su amigo, Einstein reconoce la seriedad del problema. El hecho de que el futuro no pueda influir causalmente sobre el pasado está relacionado con la ley del aumento de la entropía, pero, dice Einstein, eso sólo se aplica a dos sucesos suficientemente cercanos. Decir que un suceso a antecede un suceso b tiene sentido físico gracias a esta ley, pero no es evidente, reconoce Einstein, que el orden causal siga teniendo sentido si a y b están muy separados entre sí en el espacio, como sucede en el universo de Gödel.
 
Gödel dejó después de su muerte varios manuscritos entre los cuales se cuentan varias versiones previas del ensayo mencionado. En esos manuscritos presenta una concepción más detallada de su posición con respecto a la filosofía de Kant, que, por alguna razón, no se decidió a hacer pública en su momento. Gödel manifiesta estar de acuerdo parcialmente con Kant: admite su concepción del tiempo como una forma de percepción, pero duda que lo mismo se pueda aplicar al espacio. Sin embargo, hay que recordar que Gödel escribió en una época en la que todavía no se había establecido plenamente la existencia de la acción fantasmal, que conduce a replantear el concepto de espacio, como mencionamos más arriba.
 
Empero, Gödel señala claramente su posición personal sobre la existencia de las cosas-en-sí, cuyas similitudes con las cosas del mundo cuántico no se le escapan. Los átomos son inaccesibles directamente a nuestros sentidos, y su existencia es ajena al espacio y al tiempo. Al respecto, Gödel considera que el punto de vista de Kant “debe ser modificado si uno quiere establecer acuerdo entre su doctrina y la física moderna; es decir, debe presuponerse que el conocimiento científico es capaz, al menos parcialmente y paso por paso, de ir más allá de las apariencias y aproximarse al mundo de las cosas”.
 
•••
 
“Es sólo desde el punto de vista humano que podemos hablar de espacio, objetos extendidos, etc.”, escribió Kant. La física cuántica no contradice esta afirmación: los objetos del mundo atómico no tienen dimensión o extensión, sólo algunos parámetros específicos como la masa, la carga eléctrica o el espín; son objetos que a veces se comportan como partículas y a veces como onda, dependiendo de cómo el sujeto decide observarlos. Electrones o fotones pueden estar simultáneamente en varios puntos del espacio e influir unos en otros como si el espacio y el tiempo no existieran para ellos; como fenómenos, sólo existen para nosotros, que los percibimos con nuestros sentidos, con el intermedio de aparatos de medición que extienden nuestras posibilidades sensitivas en forma extraordinaria.
 
Kant no podía prever los avances de la ciencia moderna, pero seguramente le habría gustado ver cómo la física cuántica y la teoría de la relatividad lograron penetrar en un mundo cuyos objetos recuerdan tanto a las cosas-en-sí. Un mundo donde tiempo, espacio y causalidad no tienen el carácter que les asignamos comúnmente.
Referencias bibliográficas
 
Aspect, A. et al., 1982. “Experimental Realization of the Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A New Realization of Bell´s Inequalities”, en Physical Review Letters, 49, 91.
Aspect, A. et al. 1982. “Experimental Test of Bell´s Inequalities Using Time-Varying Analyzers”, en Physical Review Letters, 49, 91. 1804.
Bell, J. 1965. Physics, 1, 195.
Bell, J. 1987. Speakable and Unspeakable in Quantum Mechanics. Cambridge.
Blatter, G. 2000. “Schrödinger´s Cat is Now Fat”, en Nature, 406, 25.
Bohm, D. 1951. Quantum Theory. Prentice Hall.
Bohr, N. Philosophical Writings, vols. i, ii y iii. Ox Bow Press.
Bouwmester, D., A. K. Ekert y A. Zeilinger. 2000. The Physics of Quantum Information.
Brune, M. et al. Observing the Progressive Decoherence of the “Meter” in a Quantum.
Eccles, J. C. 1994. How thw Self Controls its Brain. Springer-Verlag.
Einstein, A., B. Podolsky y N. Rosen. 1935. “Can Quantum Mechanical Description of Reality be Onsidered Complete?”, en Physical Review, 47, 777.
Gödel, K. 1949. “A Remark About the Relationship Between Relativity Theory and Idealistic Philosophy”, en P. Schilpp, ed. Albert Einstein: Philosopher Scientist.
Gödel, K. 1995. “Some Observations About the Relationship Between Theory of Relativity and Kantian Philosophy”, en S. Feferman et al., eds. Kurt Gödel: Collected Works, vol. iii, p. 202.
Heisenberg, W. 1958. Physics and Philosophy. Harper.
Jennewein, T. et al. 2000. “Quantum Cryptography with Entangled Photons”, en Physical Review Letters, 84, 4729.
Kant, E. 1781 y 1787. Crítica de la razón pura.
Kant, E. 1783. Prolegómenos a toda metafísica del porvenir.
“Measurement”, en Physical Review Letters, 77, 4887. 1996.
Monroe, C. et al. 1996. “A Schrödinger Cat Superposition State of an Atom”, en Science, 272, 1131.
Naik, D. S. et al. 2000. “Entangled State Quantum Cryptography: Eavesdropping on the Ekert Protocol”, en Physical Review Letters, 84, 4733.
Tittel, W. et al. 2000. “Quantum Cryptography Using Entangled Photons in Energy-Time Bell States”, en Physical Review Letters, 84, 4737.
Tittel, W. et al. 1998. “Violation of Bell Inequalities by Photons More than 10 km Apart”, en Physical Review Letters, 81, 3563.
Yourgrau, P. 1999. Gödel Meets Einstein: Time Travel in the Gödel Universe. Open Court.
Shahen Hacyan
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Hacyan, Shahen. (2001). Espacio, tiempo y realidad. De la física cuántica a la metafísica kantiana. Ciencias 63, julio-septiembre, 15-25. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Un siglo en la construcción de un mapa del mundo cuántico
 
Sergio F. Martínez
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Un mapa puede decirnos muchas cosas. El mapa de un tesoro nos dice dónde está el tesoro y esto puede requerir una larga búsqueda. Si llegamos a una isla en la que hay una montaña con forma de cara de pirata al pie de la cual corre un río que hace una cierta curva, y si en el mapa hay una montaña con forma de pirata y un río con esa curva pensamos que por lo menos ya hemos encontrado la isla del tesoro.
 
Usamos las convenciones implícitas y explícitas en el mapa para hacer inferencias con respecto a dónde estamos y sobre cómo llegar al tesoro o a una ciudad. En general un mapa nos permite orientarnos, y por lo tanto predecir determinado tipo de sucesos, como un resultado de nuestras acciones. Un mapa de la ciudad de México nos permite predecir que si estamos cerca de Ciudad Universitaria y tomamos al norte llegaremos al centro de la ciudad. Sabemos, sin embargo, que el mapa no nos va a decir nada en relación con la gente que vamos a encontrar en el camino, ni si hay una gasolinera en el camino, aunque ésa es una información que muchas veces aparece en un mapa de carreteras. Consideramos obvio que el mapa nos dice algo respecto de un tipo de cosas muy especiales y no sobre muchas otras, pero es importante recalcar que este hecho que consideramos obvio es el resultado de expectativas generadas como parte de una cultura, expectativas que son parte de lo que entendemos por saber leer un mapa.
 
 
 
 
 
 
Alguien podría pensar en la existencia de algo como un mapa maestro de carreteras por ejemplo, un mapa fundamental, que permitiera prever todo lo que encontraríamos en cualquier camino. Podríamos tener en una supercomputadora un mapa de México lo suficientemente completo como para que por medio de un sistema de zoom, como ya existen en muchas enciclopedias electrónicas, lo pudiéramos ver con la escala que quisiéramos y con los detalles deseados. Pero si reflexionamos un momento, o nos acordamos de algunos de los mapas de Borges, es claro que esta idea no puede ser sino una fantasía. Un “mapa completo” de una ciudad ¿va a incluir los baches de las calles o no?, ¿va a incluir información que nos diga la pendiente de una calle, las corrientes de agua subterránea que pasan por el lugar, la intensidad del campo magnético terrestre, o la altura sobre el nivel del mar de cada metro cuadrado? En primer lugar tendríamos que ponernos de acuerdo respecto de qué vamos a entender por “completo”, y esto no es fácil. Podríamos pensar que caracterizar un mapa completo de carreteras es fácil, pues simplemente es un mapa que contiene todas las carreteras. Pero esta respuesta es claramente insuficiente para caracterizar en general un mapa completo de carreteras. No es claro qué es una carretera. ¿Vamos a incluir carreteras de primera y segunda, o también de tercera? ¿Vamos a incluir brechas por donde sólo circulan vehículos de doble transmisión, o los caminos por donde sólo circulan motocicletas? Ciertamente podemos pensar que nos podemos poner de acuerdo con respecto a qué sería un mapa completo, pero también tendríamos que aceptar que la decisión de qué es un mapa completo va a depender de los fines para los que pensamos que va a ser utilizado el mapa. Parece que sería simplemente ininteligible pensar en un mapa que fuera completo con relación a cualquier fin que podamos tener. Si nuestro interés es viajar en automóvil nos van a interesar los mapas que tengan las carreteras por las que los automóviles pueden circular, e información relativa a dónde hay una gasolinera o un restaurante. Si nuestro interés es viajar en bicicleta otro tipo de mapa nos sería más útil, y por lo tanto el criterio de lo que sería un mapa completo sería diferente.
 
 
Una teoría científica es un tipo de mapa, sólo que a diferencia de lo que usualmente entendemos por mapa no es una descripción sólo de lo que es (o lo que ha sido) el caso (pertinente a un cierto fin), sino que muchas veces es una caracterización de lo que es posiblemente “el caso” en un cierto ámbito de la experiencia. Muchas teorías de las ciencias naturales y sociales son en parte caracterizaciones o clasificaciones de procesos históricos,
y por lo tanto descripciones de lo que es el caso, y en parte son caracterizaciones de lo que es posible. Muchas teorías de la física, y en particular las llamadas teorías fundamentales, pueden caracterizarse como caracterizaciones de lo que es posible, no de lo que es el caso. La teoría de Newton nos dice que si una cierta distribución de materia tiene lugar entonces habrá un cierto tipo de fuerza. Esa cierta distribución de materia puede ser que no exista en ningún lugar del universo. La teoría de la evolución nos dice que si hay una cierta presión de selección en una población un determinado carácter va a tender a extenderse en la población. Puede ser que no exista tal población.
 
 
 
Qué es posible y qué no es un tipo de pregunta que no podemos respondernos sentándonos a meditar; requiere la determinación de lo que usualmente denominamos como “leyes de la naturaleza”, o la “estructura causal del mundo”. Durante muchos siglos se pensaba que la estructura causal del mundo estaba caracterizada por lo que tenía que suceder necesariamente, y la estructura de la ciencia por lo que era posible deducir de teorías que considerábamos verdaderas, o aproximadamente verdaderas. Incluso en el siglo xx muchos científicos estuvieron de acuerdo con Einstein en que “la tarea suprema del físico es llegar a aquellas leyes universales y elementales de las que el cosmos puede construirse por deducción pura”. En este caso la estructura de lo posible podía identificarse con (o describirse por medio de) la estructura deductiva de las teorías que buscaba la ciencia. Pero esta identificación de la estructura de lo posible con la estructura deductiva de las teorías ha sido muy cuestionada, y hoy día está claro que la estructura de las teorías es algo más que su estructura deductiva, y que entender la estructura de lo posible requiere que tomemos en cuenta aspectos contingentes del mundo, y en particular elementos prácticos o tecnológicos que van más allá de la estructura de teorías específicas.
 
 
 
Una teoría científica toma en cuenta de muchas maneras aspectos contingentes del mundo en su estructura. Esto es algo muy claro en la teoría de la evolución de Darwin, o en teorías de la geología, en donde la historia juega un papel muy importante en caracterizar las categorías de cosas de las que habla la teoría. Pero muchos físicos y filósofos de la ciencia piensan que la diferencia entre la física y otras disciplinas científicas tiene que ver con el hecho de que la física, a diferencia de otras ciencias, no está “infectada” por lo contingente en sus teorías. Por lo menos en el sentido que lo contingente sólo entra en la caracterización de lo que es el caso, no en la caracterización de lo que es posible. En particular esto es claro en la manera como se piensa en la física clásica que una teoría de la mecánica es completa. Una teoría de la mecánica es completa si podemos caracterizar por medio de un cierto formalismo generalmente asociado con una ecuación fundamental, y un número determinado, relativamente pequeño de magnitudes, el comportamiento de los sistemas en el tiempo. En este tipo de caracterización lo contingente sólo entra en las condiciones iniciales y de frontera que nos permiten resolver las ecuaciones. La mecánica cuántica fue a lo largo del siglo xx el instrumento más importante para entender el sentido en el cual la estructura de lo contingente puede entrar en la caracterización de la estructura de lo posible en la física.
 
 
 
Uno de los grandes fundadores de lo que conocemos hoy día como la teoría de la mecánica cuántica es Niels Bohr. Una de las ideas centrales que introduce Bohr como parte de la primera teoría cuántica es que un enunciado como “un electrón tiene una posición x en un tiempo t” adquiere sentido sólo en un contexto experimental, no hay tal cosa como el hecho de la posición del electrón independientemente del contexto experimental en el cual medimos la posición. Exactamente cómo entendemos este tipo de aseveraciones, y qué implicaciones tiene nuestra manera de entender este tipo de contextualización de lo que consideramos objetivo para nuestro concepto de “realidad física”, es un tema que estuvo en el centro de la filosofía de la física durante todo el siglo xx.
 
 
 
De acuerdo con la teoría cuántica, en un arreglo experimental en el que medimos la posición no es posible que se manifieste como una cantidad determinada el momentum. Y si medimos el momentum y luego regresamos a medir la posición vamos a encontrar que por lo general la posición ha cambiado de manera impredecible. Algunas interpretaciones de la mecánica cuántica sugieren que esta incompatibilidad implica que algún elemento subjetivo entra en la caracterización del proceso físico de medición. Es claro que de aceptar este tipo de interpretaciones subjetivistas llegamos muy fácilmente a la conclusión de que hay aspectos contingentes que entran en la teoría física a nivel fundamental. Pero esto nos dejaría con toda una serie de preguntas respecto de la manera como tiene lugar esa incorporación de lo contingente. Parecería que tendría que asumirse (y algunos físicos lo han hecho) que la mecánica cuántica apunta a que la conciencia es un hecho fundamental del universo, como lo es la energía por ejemplo. Pero hay muchas maneras de entender un proceso de medición cuántica en las que no es necesario incorporar elementos subjetivos. Algunas de estas propuestas parten de una lectura a pie juntillas del formalismo y sugieren que en realidad nuestro universo es un multiuniverso de universos paralelos, con copias de cada uno de nosotros en cada uno de esos universos paralelos. Otra manera de rechazar el subjectivismo que parece requerir la interpretación de la mecánica cuántica es por medio de la propuesta que apunta que simplemente la mecánica cuántica no es una teoría completa en el sentido que no nos dice todo lo que tendría que decirnos una teoría de los procesos fundamentales de la física. La situación es análoga al caso en el que un mapa no tiene todas las calles por donde podemos ir de un lugar a a un lugar b.
 
 
 
Podría ser que las partículas poseen todas las propiedades todo el tiempo, pero la mecánica cuántica no es como se pensaba una teoría fundamental que nos dé una descripción completa de los factores que juegan un papel en la caracterización de la dinámica de las partículas elementales y los cuerpos que la componen. Esta alternativa sugiere que la mecánica cuántica tiene que enriquecerse con la descripción adicional de algunas “variables ocultas”.
 
 
La idea de esta última alternativa para entender el resultado de los experimentos fue concretizada en un famoso trabajo publicado por Einstein, Podolski y Rosen en 1935. Ellos muestran que o bien la mecánica cuántica describe influencias entre sistemas que tienen lugar a distancia, sin mediación de procesos físicos conocidos, o bien la mecánica cuántica es “incompleta” en el sentido que no describe todas las propiedades que las partículas tienen de hecho. La discusión anterior respecto de las dificultades para entender qué puede querer decir que un mapa es completo debe de alertarnos a potenciales dificultades análogas relativas al concepto de teoría completa que se está utilizando.
 
 
 
La discusión se da entre aquellos que asumen que la realidad microscópica seguramente está constituida por partículas que tienen las propiedades clásicamente reconocidas, y que esas propiedades son todo lo que es necesario conocer para poder entender la estructura de lo real, o para ser más cuidadosos (y más exactos creo yo), la estructura de lo posible, y aquellos que piensan que la mecánica cuántica nos obliga a reconocer que la descripción clásica de las propiedades relevantes para describir la realidad física (i.e. la estructura de lo posible) tiene que abandonarse por una nueva manera de describir qué es una propiedad, o qué es un sistema físico. Antes de adentrarnos en la discusión vale la pena acordarnos del famoso experimento pensado (y su interpretación) al que se refiere el trabajo Einstein, Podolski y Rosen.
 
 
 
Supongamos que se crean dos partículas a partir de una fuente común en un tipo de estado que permite la mecánica cuántica y que se conoce como “enredado” (entangled). Se asume que tanto el momentum total como la (diferencia en) posición son cantidades conservadas (i.e. cantidades que obedecen un principio de conservación). Consideremos qué sucede con la partícula a la izquierda. Si conocemos su posición podemos inferir la posición de la partícula a la derecha por el principio de conservación de la posición total. Con el momentum podemos razonar de manera análoga. Pero como la mecánica cuántica asume desde Bohr que la posición y el momentum son cantidades incompatibles no podemos medirlas con exactitud para la partícula izquierda (ni para la derecha) en un mismo tiempo. Sin embargo, asumamos que a una cierta hora un científico decide medir ya sea la posición o el momentum en la partícula a la izquierda. Esto permitiría atribuirle a la partícula a la derecha ya sea una posición definida o un momentum definido en el tiempo de la medición. El argumento de Einstein, Podolski y Rosen es que es absurdo suponer que los procedimientos que se llevan a cabo localmente en una partícula puedan afectar la otra (que puede estar tan lejos como queramos inmaginarnoslo) al mismo tiempo. De aquí se infiere que la partícula de la derecha debe de tener tanto una posición como un momentum definido en el tiempo en el que tiene lugar la medición, en contra de lo que asume la mecánica cuántica. En todo caso, ellos plantean un dilema: o estamos dispuestos a aceptar que la mecánica cuántica describe procesos que actúan a distancia, algo que parecería dar un paso hacia atrás en el desarrollo de la física, o bien la mecánica cuántica es incompleta. En otras palabras, o bien la mecánica cuántica es no local o bien es incompleta. En la segunda mitad del siglo xx se buscaron formulaciones precisas tanto de la idea de localidad como de la idea de completitud que permitan resolver este dilema planteado por medio de experimentos mentales.
 
 
 
En primer lugar, es claro que la manera de formular la dicotomía en el trabajo citado es demasiado simplista. El tipo de localidad de la que ellos hablan puede entenderse de varias maneras. Por ejemplo, puede formularse como la conjunción de dos tesis: realismo: las partículas poseen valores definidos para todos sus atributos en todo tiempo, y localismo: estos atributos no pueden ser afectados instantáneamente por procesos físicos, tales como mediciones, que involucran otras partículas en localizaciones espaciales diferentes.
 
 
 
El realismo local caracterizado por la conjunción de estas dos tesis puede mostrar que implica algo falso. Por lo que al menos una de las dos tesis, el realismo o el localismo, es falsa. Es muy común en la literatura especializada llegar a la conclusión de que debemos de rechazar la tesis del realismo porque el localismo está apoyado por la otra gran teoría de la física del siglo xx, la teoría de la relatividad. Puede aceptarse que la mecánica cuántica es no local, pero en un sentido que no permite la existencia de efectos controlables que viajen a mayor velocidad que la luz, y por lo tanto que no contradiga la prohibición relativista con relación a causación más rápida que la luz. Es posible formular más precisamente las tesis del realismo y el localismo de manera tal que sus implicaciones ontológicas sean más claras. Por ejemplo, es posible reformular la primera tesis, la tesis del realismo, diciendo que: 1) todos los observadores locales pueden ser especificados independientemente de las propiedades globales del sistema combinado.
 
 
 
Y podemos reformular la tesis del localismo diciendo que: 2) los valores de cualquier observable local que pueden ser observados no pueden cambiarse alterando el arreglo de una pieza remota de equipo que forme parte del contexto de medición para el sistema compuesto.
 
 
Puede mostrarse que ambas tesis junto con algunos principios que son aceptados sin controversia, llevan a una contradicción. Como en la versión menos precisa que mencionamos anteriormente, la manera más común de resolver esta contradicción es diciendo que la primera no puede violarse porque esto implicaría que podemos modificar instantáneamente, y a nuestra discreción, las estadísticas de la medición de un tipo de sistema como el planteado por Einstein, Podolski y Rosen en un lugar distante, y esto se considera que entra en conflicto con la teoría de la relatividad y por lo tanto no puede violarse. Pero este tipo de argumento deja de lado el hecho que la aceptación de la no localidad abre la posibilidad que de alguna manera la noción de causa asociada con la física relativista no sea extendible a toda la física, o simplemente que sea una concepción de causa que debamos abandonar. El reconocimiento de esta posibilidad ha motivado diferentes intentos por probar de manera independiente el principio de la no señalización a distancia implícito en la segunda tesis. Pero todas las pruebas parecen basarse en diferentes versiones del supuesto de localidad expresadas en lenguaje técnico que son ajenas al formalismo de la mecánica cuántica, por lo que surge la duda si todas estas pruebas son en el fondo circulares.
 
 
 
Otro problema que genera la consideración del tipo de situaciones propuesto por Einstein, Podolski y Rosen es que la tesis del realismo reformador implica el colapso del principio reduccionista del todo a las partes, un principio que se conoce como el principio de la reducción parte-todo. Implícitamente esta tesis nos dice que las propiedades que podemos atribuir a colecciones de partículas pueden explicarse como una “suma” de las propiedades de las partículas constituyentes. En otras palabras, parece ser que el rechazo de ésta nos obliga a concluir que los sistemas cuánticos son tales que en general no tienen partes independientemente de la manera como esas partes se examinan experimentalmente. Sin embargo, de esto no tiene que concluirse, como a veces se concluye, que no podemos hablar de la realidad de los sistemas cuánticos, o que una metodología reduccionista ya no tiene cabida en la mecánica cuántica. Las cosas son más complicadas. De un par de partículas que constituyen un sistema del tipo planteado por Einstein, Podolski y Rosen podemos decir que algunas propiedades globales, como el momentum angular, tienen valores definidos, y podemos hablar de estos atributos como atributos del sistema como un todo. Esto sería suficiente para hablar de la realidad de esos sistemas, siempre y cuando estemos dispuestos a reconocer que ese tipo de realismo es compatible con la no localización de las partículas componentes.
 
 
 
Finalmente quiero hacer ver que los problemas de la interpretación de la mecánica cuántica que hemos ejemplificado a partir de la consideración de situaciones como las propuestas por Einstein, Podolski y Rosen tienen mucho que ver con falta de claridad respecto de qué entendemos por una teoría completa. La teoría física hasta el siglo xx asumía implícitamente que era posible construir una teoría de todo. Una teoría de todo es una teoría completa desde la perspectiva de cualquier propósito importante para la física, y en particular desde la perspectiva de la capacidad de predicción y explicación de fenómenos físicos. Una teoría de todo debería de respondernos, por lo menos en principio, a todas las preguntas importantes de la física. La famosa formulación de Laplace del determinismo es una formulación de ese ideal. Dice Laplace que: “Una inteligencia que en un instante dado conociera todas las fuerzas que animan a la naturaleza y la situación respectiva de los seres que la comoponen, y que, por otra parte, fuera suficientemente amplia como para someter estos datos al análisis, abarcaría en la misma fórmula los movimientos de los cuerpos más grandes del universo y los de los átomos más ligeros; nada le sería incierto, y tanto el futuro como el pasado estarían presentes delante de ella”. El determinismo de Laplace ya asumía la creencia que iba a ser muy extendida en el siglo xix: que en sus rasgos fundamentales las teorías físicas de entonces eran el núcleo de una teoría verdadera y completa del mundo físico.
 
 
 
Ahora bien, si no delimitamos clara y modestamente el sentido en el cual queremos que una teoría sea lo más completa posible, entonces, como en el caso de un mapa de carreteras al que le quisiéramos agregar información sobre todo lo que se nos pueda ocurrir, el vasto contenido empírico de la teoría haría que su información fuera irrecuperable o simplemente ininteligible. Además, como en el caso de la doctrina del determinismo laplaciano, una tesis de completitud muchas veces va acompañada de una serie de tesis reduccionistas que pueden ser muy cuestionables. Adicionalmente a todos estos problemas en los que no entraremos, la mecánica cuántica sugiere un sentido importante adicional en el que la búsqueda de una teoría de todo está en principio condenada al fracaso.
 
 
 
De ser cierta una historia como la del Big Bang, que sugiere que el Universo empieza en un estado del que todas las partículas surgen, entonces tenemos que reconocer que todos los sistemas están en mayor o menor grado “enredados”, como lo están las partículas en un sistema como el planteado por Einstein, Podolski y Rosen. Pero entonces, incluso en principio, no sería posible pensar en aislar partes del universo de manera tal que pudieran modelarse por medio de las ecuaciones dinámicas. El método clásico de análisis está condenado en principio a fallar porque describir cualquier cosa nos comprometería con una descripción de todo. Por supuesto que esta visión de la física podría pensarse como muy pesimista. No lo es. Simplemente nos invita a reconocer que nuestros métodos de análisis están limitados por lo que es el caso de manera contingente, el grado de enredo de nuestros sistemas físicos, por ejemplo, y que quizás debamos aceptar que las limitaciones a una metodología reduccionista parte-todo que se sigue de un siglo de mecánica cuántica son también limitaciones al tipo de reduccionismo de las partes al todo que caracteriza nuestros modelos de dinámica de partículas (y que en particular se presupone en la doctrina laplaciana del determinismo).
 
 
 
Sería muy fácil tomar una actitud positivista y pensar que los éxitos en el desarrollo de aplicaciones y explicaciones de fenómenos cuánticos es tal que problemas como los límites del reduccionismo parte-todo sólo pueden ser considerados como un pelo en la sopa. Pero es esta actitud triunfalista asociada con la cultura positivista en la que se ha desarrollado la física desde el siglo xix la que motivó la tesis determinista de Laplace y la convicción en la completitud de la física clásica, pensada como una teoría de todo. Bien al principio del siglo xx las famosas palabras de A. A. Michelson deben verse como la expresión de esa convicción generalizada: “Los más importantes hechos y leyes fundamentales de la física han sido ya descubiertos, y están ahora tan firmemente establecidos que la posibilidad de que tengamos que abandonarlos como consecuencia de algún nuevo descubrimiento es excesivamente remota”. Es por supuesto irónico que precisamente en esos mismos años Planck y Einstein estaban dando los primeros pasos en la elaboración de la hipótesis cuántica que iba a terminar por dar al traste con lo que Michelson y sus contemporáneos consideraban un optimismo plenamente justificado en la física clásica.
 
 
 
Explorar las implicaciones de la hipótesis cuántica nos ha llevado todo el siglo xx, y si bien es indudable que el avance en el desarrollo de aplicaciones y explicaciones de fenómenos físicos basados en la teoría cuántica ha sido impresionante, es también importante recordar que los fundamentos de la mecánica cuántica siguen siendo problemáticos, y que la elucidación de algunos de esos problemas fundamentales puede darnos sorpresas en el siglo que principia, comparables a las que nos dio en su primer siglo de vida.
 

Sergio F. Martínez
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
 
como citar este artículo
Martínez, Sergio F. (2001). Un siglo en la construcción de un mapa cuántico. Ciencias 63, julio-septiembre, 30-37. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
De moluscos, discontinuidades
y politopías
 
Armando Bartra
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Las compulsivas diásporas rurales, intensificadas en el último cuarto de siglo, no disolvieron la comunidad agraria mexicana pero modificaron dramáticamente su perfil. La congregación cerrada, introspectiva y circunscrita a estrechos ámbitos sociales y geográficos, si alguna vez existió, ya no existe más. Hoy los asentamientos arcaicos son origen y destino de intensas traslaciones poblacionales. Movimientos migratorios estables y prolongados o estacionales en vaivén, que les quitan a los grupos sociales cohesivos y culturalmente diferenciados su proverbial naturaleza endémica, y a través de una suerte de gitanización generalizada les confieren una condición peregrina y transterritorial. De esta manera la comunidad rebasa su índole puramente agraria y rural y los comuneros trascienden su perfil estrechamente campesino, pues con frecuencia los migrantes se asientan en ciudades empleándose en actividades no primarias. A su vez, los poblados natales y sus inmediaciones dejan de ser hábitat único para convertirse en punto de referencia y matriz cultural; en aztlanes mitificados pero revisitables que otorgan retaguardia y consistencia espiritual a la comunidad desperdigada. Porque para los pueblos peregrinos e históricamente cuchileados, conservar o reinventar la identidad es cuestión de vida o muerte.
 
Escribiendo sobre estos temas en un ensayo reciente, titulado “La patria peregrina”, califiqué de topológicas a las comunidades territorialmente distendidas y chiclosas, pues pese a la distorsión que sufre su espacio social conservan una serie de invariantes. Entre otras las de delimitar un adentro y un afuera, mantener la cohesión, elevar la autoestima y conferir sentido de pertenencia e identidad. Además, los dilatados colectivos de la diáspora siguen definiendo su propio espacio y su propio tiempo internos. Hacia adentro las reglas y los relojes que emplean los miembros de una comunidad desperdigada para medir sitios y distancias sociales, procesos de cambio y ciclos históricos, son herencia mudante pero directa del sentido del espacio y del tiempo propios de la comunidad originaria. Y esto es así, por mucho que sus miembros peregrinos o migrados se muevan ahora en otros contextos sociales asumiendo también
y con prestancia sus novedosas coordenadas. Por todo ello me parece que una buena representación de estas plásticas pero consistentes entidades colectivas son los moluscos de Einstein.
 
“Por eso se utilizan cuerpos de referencia no rígidos, que no solamente se mueven en su conjunto de cualquier modo, sino que también sufren durante su movimiento toda clase de cambios de forma… Este cuerpo de referencia no rígido, se podría designar, con cierta razón, como molusco de referencia…”, escribió el célebre físico en un libro de divulgación sobre la teoría de la relatividad. Pero al aplicar metafóricamente estos conceptos a la comunidad peregrina no es mi pretensión identificar la relatividad espacio-temporal de la física con el relativismo cultural de la antropología, traduciendo reglas y relojes por valores, normas, usos y costumbres. Sí me parece útil, en cambio, pensar a la comunidad como un sistema complejo de múltiples dimensiones y desarrollo no lineal, de modo que por lo general el efecto de los éxodos y diásporas no será la disolución, que pronostica la sociología clásica, sino la rearticulación y el fortalecimiento de las diferencias que otorgan identidad.
 
Siguiendo con las analogías, podríamos pensar que de la misma manera como se incrementa la asincronía de los relojes y la desproporción de las reglas, cuanto mayor es la velocidad relativa de un sistema de referencia con respecto a otro, así también una comunidad que se desplaza y transforma aceleradamente tiende a intensificar la especificidad de sus valores y el diferencial de sus usos y costumbres.
 
Hay comunitarismo fuerte y comunitarismo tenue, y paradójicamente las comunidades más movidas con frecuencia son también las más cohesionadas. En contextos sociales abiertos y competitivos se afila el individualismo y la colectividad se debilita. En cambio, en los grupos ancestralmente lacerados la cohesión deviene estrategia de sobrevivencia. Pero cohesión no significa enconchamiento inmovilizador sino apertura y transformación. Una comunidad fuerte no es dura, rígida, cerrada, resistente al cambio (como la concha), sino flexible dinámica, oportunista, mudable (como el molusco). Y muchas de estas mudanzas van en el sentido de aglutinar, actualizando y fortaleciendo la identidad.
 
Un ejemplo paradigmático, el deterioro de la base de sustentación económica de las comunidades tzotzil-tzeltales de Los Altos de Chiapas derivó en una generalizada migración a Las Cañadas y La Selva. Pero la diáspora de los viejos parajes y el entreveramiento étnico resultante en las zonas de colonización no diluyeron la identidad, al contrario, crearon las premisas para renovar los elementos aglutinadores. Surgieron así inéditas convergencias en torno a las lenguas —que enlazan por encima de la diversidad de parajes originarios—, en torno a la común pero arcaica raíz maya, en torno a la compartida condición indígena y, finalmente, en torno al zapatismo contemporáneo; es decir, un indigenismo puesto al día que al cuestionar la marginación de las etnias convoca a todos los excluidos y propone una neototémica identidad planetaria. Posmodernidad de los globalifóbicos pero mundializados rebeldes chiapanecos, que no le impide al molusco de Las Cañadas seguir desquiciando a sus interlocutores más rígidos y hostiles al remitirlos a los usos y costumbres ancestrales y a las cadencias del tiempo indio.
 
Otro ejemplo de un sistema complejo que al acelerar su movimiento acendra su individualidad, es el proceso migratorio cuyo saldo fue la reciente invención de la identidad oaxaqueña. El inesperado fenómeno resultó del atrabancado éxodo finisecular hacia el norte, traslación poblacional que permitió construir en los campos agrícolas del noroeste mexicano y en la proverbial Oaxacalifornia del gabacho una inédita cohesión oaxaqueña transfronteriza. Convergencia inconcebible en la natal Antequera, que empezó aglutinando a trasterrados mixtecos y zapotecos de distintas localidades en torno a su lengua, su dignidad y sus reivindicaciones laborales, y terminó agrupando también a chatinos, triquis, mixes y otros grupos, en una organización que desde 1994 se llama Frente Indígena Oaxaqueño Binacional. No es éste un curioso y exótico muégano multiétnico, sino un protagonista social de tercera generación que, como los agrupamientos oaxaqueños primarios, tiene bases en la entidad de origen: en los valles centrales, la sierra Norte y la Mixteca; aunque igualmente las tiene en Tijuana y San Quintín, del estado norteño de Baja California, donde surgieron desde hace décadas núcleos trasterrados pero nacionales; y también cuenta con asociados en Los Ángeles, San Diego, Fresno y Valle de San Joaquín, en California. Y fue ahí, en Estados Unidos, donde los organismos locales oaxaqueños de autodefensa integrados recientemente recuperaron sus raíces transformándose en agrupamientos de nuevo tipo, en convergencias binacionales de tercer nivel.
 
Pero con los oaxaqueños la metáfora einsteiniana se retuerce en limón, pues el multiterritorial Frente Indígena Oaxaqueño Binacional no puede pensarse como un molusco; más aún no puede pensarse con ninguna variante de la geometría topológica, pues ésta se ocupa de propiedades invariantes a todo tipo de distorsiones menos la ruptura.
 
Comunidades salteadas
 
La plasticidad espacial de la comunidad, que primero nos llevó a representarla como un continuo no euclideano, es decir como un molusco de Einstein, no se circunscribe al estiramiento. En el caso de los oaxaqueños y otros migrantes remotos, el espacio comunal no sólo se extiende, también se desgarra en fragmentos geográficamente separados, que pese a la distancia conservan su unicidad y propiedades básicas. Si insistimos en buscar analogías en las ciencias llamadas duras, nos encontraremos con que la estructura salteada del espacio comunitario reclama modelos sustentados en una geometría no sólo chiclosa sino también discreta. Un marco conceptual que dé razón de las soluciones de continuidad de un sistema social complejo que conserva su unidad pese a estar formado por trozos no colindantes. Pero, como veremos, para encontrar en la física algo parecido a esto necesitamos transitar de la relativística a la cuántica.
 
Un mixteco puede pasar de San Juan Suchitepec, en Oaxaca, a San Quintín, en Baja California, y de ahí al Valle de San Joaquín, en California, sin dejar de estar en su comunidad. Más aún, puede hacerlo sin salir de ella, pues el que transita entre un nivel comunitario y otro no es en rigor un comunero, sino un simple viajante (tan es así que de extraviarse en el camino y no encontrar una masa crítica de mixtecos a la cual integrarse, no podría recuperar su condición comunitaria). La colectividad multiterritorial se nos presenta, entonces, como un espacio salteado formado por lugares sociales continuos separados por extensiones discretas; los comuneros transitan habitualmente de uno a otro nivel comunitario, pero como tales nunca se encuentran a medio camino. Descripción mañosa, con la que intencionalmente busco subrayar las analogías con la naturaleza cuántica del modelo atómico propuesto por Niels Bohr.
 
En este paralelismo quizá forzado, el comunero multiespacial, que en adelante llamaré polibio (término empleado por el sociólogo estadounidense Michael Kearney que remite a la capacidad de los anfibios para transitar de un medio a otro cambiando de forma pero no de condición), se nos presenta como un sujeto individual, es decir elemental, definido por su pertenencia a un campo social comunitario, ámbito donde puede ocupar diferentes niveles, o segmentos, así como transitar de uno a otro a través de territorios no comunitarios en los que pierde provisionalmente su condición de polibio.
 
La comunidad y el comunero, como el campo y la partícula en la física atómica, son dos aspectos de la realidad social, contradictorios pero inseparables. El polibio se define tanto por su individualidad como por su pertenencia; pero mientras que la individualidad remite a su condición discreta o corpuscular, la pertenencia refiere a la continuidad, que se antoja ondulatoria, del campo comunitario. Así como las ondas y las partículas, los comuneros y las comunidades son manifestaciones contrapuestas pero complementarias de una misma realidad compleja.
 
Siguiendo la analogía y parafraseando a Werner Heisenberg, podríamos decir que individualidad y pertenencia son aspectos imposibles de fijar con precisión al mismo tiempo, pues si atendemos a lo comunitario se diluyen los atributos personales, mientras que si nos enfocamos sobre lo individual se difuminan los comunitarios. Pero se trata de una incertidumbre virtuosa, pues llama la atención sobre una tensión objetiva e insoslayable, obligándonos a abordar en su integridad y articulación tanto el contexto colectivo como las particularidades individuales de los fenómenos comunitarios. En este doble abordaje, el aspecto comunitario remite principalmente a los elementos de continuidad y homogeneidad, mientras que al individual corresponde en mayor medida la discontinuidad y la diferencia.
 
Otras analogías sociológicas del Principio de incertidumbre son más obvias y manoseadas: tanto en la microfísica como en la antropología es sabido que la acción de indagar altera lo investigado, sea esto la trayectoria de un fotón o la autoestima de una familia campesina.
 
La ubicuidad de los polibios
 
Cuando la analogía parecía exhausta, una frase de Heisenberg y un poema de Porfirio García me remiten de nuevo a la transdisciplinaria posibilidad de socializar el Principio de incertidumbre. Escribe el físico: “En el nivel atómico debemos renunciar a la idea de que la trayectoria de un objeto es una línea matemática…” Dice el poeta: “Mi madre era joven cuando bajó a este páramo / Tenía los ojos cansados de caminar promesas / Tenía el defecto de estar en todas partes”.
 
¿Qué quiere decir el oaxaqueño nacido en Ciudad Nezahualcóyotl cuando en un homenaje poético a las migrantes madres fundadoras de ese no lugar proclama que la suya tenía “el defecto de estar en todas partes”? ¿Tendrá algo que ver con la hipótesis de Heisenberg, que Stephen W. Hawking formula con palabras más cercanas a las del poeta necense: “una partícula no tiene siempre una historia única… En lugar de eso se supone que sigue todos los caminos posibles”? Dicho de otra manera: ¿el politopismo de las partículas elementales puede ponerse en relación, así sea alegórica, con las múltiples trayectorias y ubicaciones de los hombres y mujeres de la diáspora?
 
Posiblemente sí, porque sucede que en las comunidades desperdigadas una misma persona puede ser jefe de cuadrilla en los campos agrícolas del noroeste, mientras que a miles de kilómetros de distancia, en su comunidad oaxaqueña de origen, ocupa el cargo de mayordomo encargado de organizar la fiesta del santo. En las comunidades fuertes el que se va a La Villa no pierde su silla. La migración permanente o en vaivén no significa que el comunero abandone su lugar en la colectividad natal, y de la misma manera el sistemático regreso de los migrados estables a sus pueblos de origen no supone perder su sitio en la comunidad trasterrada. Y es que, por definición, el polibio ocupa simultáneamente diversos lugares sociales en el colectivo disperso, aun cuando no ejerza al mismo tiempo sus diferentes funciones.
 
Y esta multiespacialidad es una forma de sobreponerse al desgarramiento migratorio. “Resistir pues, para no desbaratarse en el éxodo, y para aprender, poco a poco, como se vive al mismo tiempo en Texcatepec y en Nueva York”. El revelador al mismo tiempo lo emplea el Fleis Zepeda al relatar los avatares de sus amigos ñuhú de Amaxac avecindados en el Bronx.
La politopía de los polibios los hace socialmente ubicuos, permitiéndoles ocupar simultáneamente lugares comunitarios geográficamente separados. Pero además, su multiespacialidad respecto del sistema colectivo transterritorial se expresa en una suerte de relativización de la lejanía o indiferencia a la distancia. En las comunidades multiterritoriales no euclidianas se desvanece en cierta medida el sentido del cerca y el lejos, y así como el cronopio y descolocado Julio Cortázar transitaba de la parisina Galerie Vivien al porteño Pasaje Güemes sin atravesar el Atlántico, un yalalteco trasterrado en Frisco celebra la Guelaguetza sin necesidad de cruzar la frontera y el ñuhú Bernardino Femando trota por las banquetas de Melrose aveniu, en Manhatan, mientras su otro yo marcha bajo los cedros blancos de la vereda del cerro del Brujo, en El Pericón.
 
Igual como en la física no hay partículas sin campo, en los sistemas societarios fuertes y cohesivos no existen individuos aislados o libres. Aun cuando los separen grandes extensiones geográficas, pertenencia mata distancia y entre los comuneros siempre priva una suerte de contigüidad moral. Colindancia que renueva y enriquece los imaginarios colectivos, pero no es sólo espiritual y se materializa en constantes flujos de personas, mensajes, imágenes, servicios y dinero. Intercambios favorecidos por el enlace expedito y en ocasiones instantáneo que permiten los nuevos medios de comunicación. La comunidad es tan cohesiva como el átomo o un muégano. Para su fortuna, o su desgracia, no existe el polibio solitario.
 
Si la simultaneidad de la riqueza digitalizada que fluye por la red caracteriza a la mundialización financiera, la contigüidad de las comunidades transterritoriales segmentadas define a la mundialización laboral. Una y otro son formas de abolir el tradicional espacio euclidiano, saltos cuánticos del nuevo capital y del nuevo trabajo, modos aristocráticos o plebeyos de la inédita globalidad.
Armando Bartra
Instituto Maya.
_______________________________________________________________
 

como citar este artículo

Bartra, Armando. (2001). De moluscos, discontinuidades y politopías. Ciencias 63, julio-septiembre, 41-46. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Necromonas: el olor de la muerte
 
Germán Octavio López Riquelme
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Una vez que yo estaba enterrando a uno de mis egos, se acercó a mí el sepulturero para decirme:
 
—De todos los que vienen aquí a enterrar a sus egos muertos, sólo tú me eres simpático.
—Me halagas mucho —le repliqué—; pero, ¿por qué te inspiro tanta simpatía?
—Porque todos llegan aquí llorando —me contestó el sepulturero—, y se van llorando; sólo tú llegas riendo, y te marchas riendo cada vez.
 
Khalil Gibrán
 
Una sociedad está definida en términos de comunicación. Los individuos componentes de una sociedad son comunicantes entre ellos y son capaces de reconocer a las entidades ajenas no comunicantes. Los beneficios esenciales de la vida en sociedad son proporcionados por la cooperación que trasciende a la reproducción, es decir, que se extiende hacia aspectos no reproductivos, como la consecución del alimento o el cuidado de la cría.
 
La exitosa vida de las sociedades de insectos ha evolucionado a partir de la división del trabajo reproductivo entre individuos reproductivos e individuos estériles, además de la división del trabajo de manutención entre diferentes castas de individuos estériles, todos actuando coordinadamente a través de sistemas de comunicación. Cada individuo, aparte de poseer un amplio repertorio de comportamientos y capacidades de aprendizaje y memoria, es parte de un sistema mayor conocido como superorganismo, cuyo estado como un todo determina las pautas de comportamiento que seguirán los individuos en un sistema retroalimentativo de información quimiotáctil que va desde la sociedad hasta el individuo.
 
Una economía se vuelve fuerte cuando la división del trabajo se encuentra muy marcada, ya que la especialización en las funciones permite a cada individuo y a cada región aprovechar todas las ventajas de sus diferencias particulares en habilidades y/o recursos. La especialización permite alcanzar un volumen de actividad suficiente que posibilita la producción a gran escala, donde todos los factores son aumentados en la misma proporción. A su vez, la especialización conduce a la dependencia mutua entre los subsistemas económicos de producción. Así pues, para una sociedad es más benéfico llevar a cabo diferentes tareas con ensambles de grupos de individuos especializados que con multitudes indiferenciadas.
 
 
La división del trabajo en los insectos que viven en sociedades muy complejas conocidas como eusociedades implica, además del sobrelapamiento de generaciones de adultos, la división del trabajo reproductor entre individuos fértiles conocidos como sexuados (machos y reinas), e individuos estériles conocidos como obreros, los cuales están exentos de la reproducción. En segundo término, está la división del trabajo en tareas no reproductivas, las cuales son realizadas por obreros más o menos especializados. Estos obreros realizan las tareas necesarias para el mantenimiento y crecimiento de la colonia, como forrajeo, cuidado de las crías y defensa contra enemigos. De esta manera, los individuos desarrollarán especializaciones en diferentes tareas, y serán seleccionados no por su eficacia individual en la realización de una tarea particular, sino por su capacidad para actuar coordinadamente en la sociedad, de manera que la función del todo, aunque no perfecta, resulte adaptativa. La principal especialización en la división del trabajo entre obreros se encuentra en las hormigas que realizan actividades exteriores al nido versus las que se dedican a actividades dentro del nido, sin embargo, aun dentro de estas categorías puede presentarse especialización, como por ejemplo recolectoras de polen versus recolectoras de néctar en las abejas sociales. La especialización es tal en estas últimas que existen diferencias, entre las recolectoras de polen y las recolectoras de miel, en áreas del cerebro conocidas como lóbulos antenales, zonas cerebrales dedicadas al procesamiento de señales olfativas provenientes de las antenas.
 
La higiene dentro del nido
 
La extrema división del trabajo ha producido individuos que se dedican a tareas muy especializadas, como la recolección del polen versus la recolección de la miel en abejas, o como las socialmente indispensables conductas higiénicas. Aunque la construcción de nidos encerrados en cavidades contribuyó a la expansión geográfica de los insectos sociales, también implicó la necesidad de incrementar las conductas de limpieza, como la remoción de los cadáveres, con lo que disminuye la posibilidad del surgimiento de enfermedades. Es sabido que el parasitismo y la enfermedad tienen efectos considerables sobre las poblaciones, principalmente sobre la mortalidad y sobre la fecundidad no realizada, por lo que estos factores inciden sobre la densidad de población. También resulta evidente que la transmisión de enfermedades infecciosas (no transportadas por el viento) y parásitos depende del número de contactos entre los individuos de una población, y por lo tanto, de la densidad de ésta. Así, las sociedades de insectos al vivir “enclaustradas” y en grupos densos y en interacciones constantes mantienen altas frecuencias de encuentros interindividuales, por lo que, si existe algún individuo parasitado o infectado, existe una alta probabilidad de dispersión de la enfermedad o del parásito (por ejemplo a través de la trofalaxis o regurgitación del alimento).
 
Los interiores de los nidos de los insectos sociales, y principalmente las cámaras de cría, son meticulosamente mantenidos limpios. Las hormigas, por ejemplo, secretan, de la glándula metapleural, cuya abertura se encuentra en la parte trasera del tórax, sustancias antibióticas, como el ácido fenilacético, que inhiben el crecimiento de microorganismos dentro del nido. Según algunos autores la glándula metapleural parece ser casi un carácter diagnóstico que separa a las hormigas de otros himenópteros. Aunque esta glándula se ha perdido secundariamente en algunos grupos (principalmente arborícolas), probablemente ha sido fundamental en la evolución del grupo y su colonización del suelo debido a que, contrario a las abejas y avispas, las cuales construyen celdas de cera o papel impregnadas de antibióticos en donde ponen los huevecillos, las hormigas mantienen los suyos directamente sobre el suelo donde abundan los microorganismos oportunistas, que son controlados al difundir ampliamente las secreciones antibióticas de la glándula metapleural. Además, las reinas de algunas especies de hormigas secretan de la glándula de veneno otras sustancias antibióticas sobre los huevecillos, protegiéndolos de los microbios oportunistas. De esta manera, si estos componentes son agentes controladores de microorganismos es probable que, aunque en su origen tuvieran alguna otra función, hayan sido seleccionados por sus efectos sobre tales microorganismos.
 
Entre las conductas higiénicas se encuentran la remoción de desperdicios alimenticios generados por la sociedad, o los desechos sólidos acumulados y despojados por la larva durante la pupación (llamados meconia), o también el recubrimiento de materiales desagradables con partículas de suelo, e incluso la remoción de compañeros de nido muertos o mortalmente enfermos por infecciones de fácil dispersión; la eliminación de agentes extraños, y, por supuesto, el aseo y el aloaseo (aseo de compañeros), que son conductas que los individuos realizan con una gran frecuencia.
 
Por ejemplo, cuando las abejas son incapaces de remover objetos extraños debido a su tamaño, los cubren con las resinas que recolectan de diferentes plantas, llamadas en conjunto propóleo. Esto hace que, por ejemplo, un cadáver de un enemigo así cubierto se momifique evitando la proliferación de microorganismos. Las hormigas, al descubrir objetos o sustancias desagradables o pegajosas, las cubren con partículas de suelo, con lo que se evita que los individuos queden atrapados. En tiempos pasados esta conducta fue interpretada como la construcción de puentes por parte de las hormigas. Por lo tanto, si los insectos sociales invierten gran cantidad de su tiempo y energía en la limpieza del nido es porque debe existir una presión que actuará en contra de la “negligencia” en el aseo de los interiores del nido.
 
No obstante los esfuerzos por prevenir enfermedades y la proliferación de microorganismos en la sociedad, en ocasiones la infección se vuelve inevitable y todos los esfuerzos, vanos. Sin embargo, cuando un individuo se ha infectado, la solución es eliminarlo. Las larvas de abeja muertas por infecciones bacterianas son eliminadas de las celdas de crianza por las abejas obreras. Antes de la eliminación, las obreras deben abrir las celdas (eliminar el opérculo que las cubre). Esta conducta higiénica depende de dos genes recesivos, es decir, que se expresan sólo en condiciones de homocigosis. Un gen determina la conducta de desoperculado y el otro el de eliminación de la cría muerta. Cuando uno de los dos genes presenta heterocigosis, la conducta se manifiesta incompleta, esto es, puede haber desoperculado sin eliminación de la cría muerta o viceversa.
 
Aunque no todas las tareas higiénicas requieran especialización, tanto en las abejas como en las hormigas existen ciertos individuos que se ocupan más frecuentemente que otros individuos de la remoción de compañeros de nido muertos. Estos individuos especializados en el manejo y desecho de cadáveres son llamados obreras sepultureras (en femenino, pues todos los individuos obreros de las colonias de abejas y hormigas son hembras), y el comportamiento que realizan es conocido como necroforesis.
 
Los insectos sociales son muy quisquillosos en cuanto a la limpieza de los interiores de sus nidos. En general, en todas las sociedades de insectos tanto los objetos extraños como los enemigos muertos son acarreados hacia afuera del nido y tirados en los basureros. Los individuos adultos muertos de las avispas y las abejas son llevados fuera del nido y tirados. Los cadáveres son sujetados con las mandíbulas, llevados hacia la salida del nido y tirados en un vuelo corto. El transporte de cadáveres en las sociedades de abejas se basa, en alguna medida, en el polietismo de edad, es decir, muchas obreras (generalmente de dos a tres semanas de edad) se dedican al servicio funerario por un tiempo breve de sus vidas, ya que, al avanzar su edad, sufren cambios fisiológicos y conductuales que los hacen menos respondientes a las tareas que realizan y más respondientes a otras tareas, esto es, tienden menos a realizar tareas pasadas conforme envejecen.
 
Entre las abejas la historia laboral de las obreras está frecuentemente relacionada con su edad, y la realización de las tareas cambia según envejecen. Así, puede considerarse que conforme una abeja envejece se “gradúa” de unas tareas, algunas de las cuales deja de realizar, para dedicarse a una tarea que no había hecho antes. Esos cambios en conducta y en labor, no necesariamente irreversibles, están relacionados con cambios fisiológicos y de actividad glandular de la abeja, y probablemente esté involucrado un reloj interno. Sin embargo, una minoría de las obreras se dedica casi durante toda su vida a las actividades funerarias, en parte debido a predisposiciones genéticas que otras obreras no poseen. Así pues, no todas las obreras en el sistema de polietismo temporal exhiben el mismo patrón de desarrollo conductual, por lo que las variaciones interindividuales que se presentan entre las obreras es otra forma de división del trabajo. Aparentemente, las abejas sepultureras no son ni más ni menos activas que los otros grupos de abejas dedicadas a otras tareas. La especialización funeraria en las abejas parece lograrse por un incremento en varias categorías conductuales junto con la reducción (no desaparición) de la frecuencia de muchos otros comportamientos. Las diferencias conductuales parecen deberse a diferencias en la tasa de desarrollo de los adultos especialistas y a preferencias conductuales de largo plazo, las cuales pueden estar influenciadas por diferencias en el genotipo de las obreras y/o por la experiencia.
 
El transporte de cadáveres entre las hormigas se conoce desde hace mucho tiempo y, como todo comportamiento de las hormigas, se le ha atribuido cualidades antropomórficas. Por ejemplo, los antiguos griegos y romanos creían que las hormigas tenían cementerios donde depositaban a los ciudadanos muertos. Otros, en el siglo xix, llevaron esto al extremo diciendo que si una obrera se rehusaba a transportar un cadáver al cementerio sería juzgada y ejecutada en medio de la plaza de la ciudad. A pesar de lo difundidas que estén estas ideas no existe evidencia de que las hormigas lleven a cabo algún tipo de ritual mortuorio.
 
Contrario a las termitas, las cuales devoran a todos los compañeros de nido muertos o heridos, las hormigas adultas muertas, aunque a veces devoradas (al menos parcialmente) por sus mismas hermanas en una forma de canibalismo, generalmente son llevadas hacia fuera del nido y arrojadas a la pila de desperdicios. Por el contrario, todos los estados inmaduros de las hormigas —huevos, larvas y pupas— que han sufrido algún daño o si se ha sobreinvertido energía en ellos y los recursos escasean en el territorio, son invariablemente devorados; de esta manera, si las circunstancias se han vuelto difíciles, los recursos invertidos en la alimentación de la cría pueden reutilizarse mediante el canibalismo. Por el contrario, los recursos invertidos en la construcción del nido no pueden ser reutilizados.
 
Las pilas de desperdicios pueden estar ubicadas en diferentes lugares dependiendo de la especie de que se trate. Por ejemplo, las hormigas corta hojas tienen varios basureros, una gran parte se encuentra bajo tierra en forma de galerías rellenas de desperdicios, y la otra parte se encuentra en el exterior, en los alrededores de las entradas al nido. En estos basureros se encuentran desperdicios de la materia vegetal que ha servido como sustrato para el crecimiento del hongo que cultivan y, por supuesto, cadáveres de hormigas.
 
El comportamiento necroforético es uno de los patrones conductuales más evidentes y estereotipados que las hormigas presentan. Cuando una hormiga muere, cae con las patas encogidas debajo de su cuerpo. Durante algún tiempo, tal vez un par de días, las otras hormigas del nido le prestan muy poca atención, probablemente debido a que aún conserva el olor que corresponde a una hormiga viva que es compañera del nido. Después de un par de días, ya que el cadáver ha comenzado a descomponerse, atrae la atención de otras hormigas, principalmente las sepultureras. Cuando el cadáver es encontrado por una sepulturera, ésta realiza una breve investigación mediante contactos antenales sobre el cuerpo y, entonces, con sus mandíbulas levanta al cadáver y lo lleva directamente hacia la pila de desperdicios. De la misma manera en que las hormigas reconocen a los compañeros de nido o a ciertas castas, ellas son capaces de reconocer a los muertos a través de señales particulares que estos presentan.
 
Debido a su forma de vida principalmente subterránea, las hormigas viven en un mundo perceptual de naturaleza química y táctil. Con excepción de algunas hormigas arborícolas y otras cazadoras con buena vista, en general, todas ellas dependen poco de la visión para su sobrevivencia, lo cual se refleja en la organización del cerebro: los lóbulos ópticos, áreas especializadas en el procesamiento de señales ópticas, son muy reducidos. El tamaño pequeño de los lóbulos ópticos demuestra la modesta importancia que la visión tiene en el comportamiento de las hormigas en el sentido de la formación de imágenes a partir de estímulos luminosos. No obstante, la fotorrecepción es importante como indicador de las fases de los ciclos geológicos, con lo que los animales responden adaptativamente al sincronizarse su reloj interno con las variaciones ambientales.
 
Comunicación con los muertos
 
La poca dependencia visual de la mayoría de las hormigas puede explicarse por su evolucionado sistema de comunicación basado en señales químicas: las feromonas. Las feromonas son semioquímicos, es decir, sustancias usadas en la comunicación, ya sea entre especies (como en una simbiosis) o entre miembros de la misma especie. Los sistemas de comunicación de los insectos sociales parecen estar basados principalmente en las señales químicas. Así, en las hormigas, por ejemplo, los lóbulos antenales son muy complejos y grandes, reflejando la importancia de la olfacción en la vida de estos himenópteros.
 
Aunque las señales químicas no son ambiguas debido a que cada hormiga puede producir, en glándulas especiales, distintos químicos que con muy poca probabilidad se encuentran en el ambiente, la modulación de la señal (que transmitiría más información) es difícil, debido principalmente a que las señales químicas se propagan por difusión o por microturbulencias, mecanismos fuera de control para el emisor. Además, existe otro problema para terminar con el mensaje puesto que la sustancia persiste aun después de que ha producido algún efecto. Las señales químicas que median la comunicación en las hormigas consisten en mezclas de diversas sustancias con una gran variación en la composición molecular y en las proporciones relativas de sus componentes. Aunque algunas de estas señales multicomponentes pueden ser producidas por glándulas exocrinas individuales, también pueden estar compuestas de secreciones de varias glándulas. Esta variación es funcional, identificando grupos o acciones en una variedad de niveles de organización.
 
Según lo anterior, no sería sorprendente que las señales de reconocimiento de la muerte sean de naturaleza química. ¡Pero qué desfachatez, una hormiga muerta que se comunica! Debemos mencionar aquí que en la evolución de los sistemas de comunicación ha sido fundamental el desarrollo de capacidades responsivas de los individuos receptores, aun cuando los individuos de los que emana la señal no resulten beneficiados por la reacción del receptor. Así pues, es probable que los individuos sepultureros reaccionen ante las sustancias que emanan de los cadáveres sin que se considere estricta y necesariamente que el cuerpo emite señales.
Las sustancias que actúan como señales químicas para la muerte son subproductos de la descomposición bacteriana de triglicéridos. De los subproductos de la descomposición, sólo los ácidos grasos de cadena larga, principalmente el ácido oléico, están involucrados en el desencadenamiento de la respuesta necroforética; hablamos entonces de necromonas. De esta manera, si la aparición de tales sustancias ocurre sólo después de que una hormiga muere, y si como se ha sugerido acerca de que tales sustancias son el producto de la descomposición bacteriana de compuestos cuticulares, el ácido oléico y otros compuestos serían el indicativo de la aparición o proliferación de microorganismos.
 
Si, por ejemplo, se toma un cadáver que previamente haya sido acarreado hacia el basurero y se limpia completamente el ácido oléico mediante solventes, las hormigas serán incapaces de reconocerlo como un cadáver. De esta manera, para una hormiga y su rígida “concepción del mundo” un cadáver está definido en términos de presencia de ácido oléico o sustancias parecidas. Incluso si una hormiga viva y saludable es embadurnada con ácido oléico y se introduce al nido, es tomada por las sepultureras y llevada hasta el montón de basura. Aunque la hormiga se mueva es considerada como un cadáver que es necesario echar fuera del nido. Sólo hasta que la hormiga embadurnada se ha limpiado varias veces dejará de ser acarreada por las sepultureras hacia el basurero.
 
No obstante que se ha determinado que son los ácidos grasos de cadena larga, principalmente el ácido oléico y sus ésteres, los que desencadenan el comportamiento necroforético, es muy probable que el ácido oléico no desencadene, por sí solo y en cualquier contexto, el comportamiento funerario. Es posible que existan otras señales que informen a la sepulturera en qué sitio levantar cadáveres y en qué otro sitio dejarlos. Así, el comportamiento necroforético es un comportamiento que podría ser desencadenado por un estímulo particular (el ácido oléico), pero siempre en un contexto social particular (probablemente el olor del nido).
 
El comportamiento necroforético en las hormigas parece ser una tarea especializada, quizá principalmente en aquellas especies en las que es aún más importante evitar la proliferación de microorganismos.
 
En Acromyrmex versicolor, una especie cultivadora de hongos, relativamente pocos individuos realizan la mayoría del acarreo funerario. Esto se desprende de la observación de que las hormigas que realizan la remoción de cuerpos repetidamente lo hacen independientemente de la proporción de encuentros con los cadáveres, mientras que un gran subgrupo de hormigas que tiene la oportunidad de realizar tal tarea debido a la proporción de encuentros con cadáveres nunca realizan el comportamiento sepulturero. Esto puede indicar que la especialización sepulturera puede estar determinada, al menos en gran medida, por causas internas, como sucede en las abejas. Estas sepultureras especializadas encuentran cadáveres más frecuentemente que otras hormigas. Se les puede ver patrullando los interiores del nido como un grupo aparte de las obreras que se dedican a atender al huerto de hongos.
 
Es probable que la especialización en el comportamiento sepulturero se deba a diferencias genéticas o relacionadas con la edad. De cualquier manera, parece que las sepultureras tienen diferentes umbrales de sensibilidad para realizar el comportamiento necroforético. Si esto es así, la casta funcional sepulturera puede ser parte de un grupo mayor e incluyente de hormigas especializadas en el mantenimiento del nido. Las diferencias entre las sepultureras y otros gremios de hormigas pueden estar principalmente en: 1) la sensibilidad a las señales químicas liberadas por los cadáveres en descomposición, y 2) en la ejecución de la tarea, ya que las sepultureras más especializadas, es decir, aquellas que realizan más frecuentemente la necroforesis, realizan la remoción de los cuerpos más rápido que aquellas sepultureras menos especializadas. Probablemente esto se deba a que las sepultureras más especializadas son mejores en la navegación dentro del nido y más eficientes en llevar el cadáver hasta la pila de basura sin dejarlo caer dentro del nido. No obstante lo anterior, la aparición de sepultureras altamente especializadas en la remoción de cadáveres aumenta conforme aumenta el tamaño poblacional de la colonia. Así, las sepultureras altamente especializadas se encuentran liberadas de otras tareas, siendo particularmente eficientes en la detección de cadáveres y cuando recorren los interiores del nido, aun cuando la alta densidad de población confiera un complejo ambiente para el desplazamiento individual.
 
En las hormigas Lasius niger, que se alimentan de las secreciones azucaradas de los pulgones y, en ocasiones, de su carne, también existen especialistas en necroforesis. De las obreras del nido, entre 3 y 6% se dedican repetidamente a la remoción de cadáveres, aunque, en general, 37% de los individuos realizará, al menos una vez en su vida, el acarreo de cuerpos. El comportamiento funerario en estas hormigas parece ser plástico, ya que si todas las sepultureras son retiradas, algunas obreras de las no sepultureras se vuelven sensibles a los estímulos que provienen de los cadáveres, y, entonces, ellas toman el lugar de las sepultureras en la remoción de los individuos muertos. Así pues, el comportamiento necroforético es una especialización, pero las sepultureras y algunas de las otras obreras son lo suficientemente plásticas para cambiar de acuerdo con las situaciones sociales y demográficas de la colonia.
 
El reconocimiento de los individuos muertos es una capacidad que puede estar más desarrollada en algunos de los individuos que componen la sociedad. Los estímulos que componen este reconocimiento provienen de la descomposición bacteriana. Aunque las sustancias que desencadenen el comportamiento necroforético puedan variar entre las especies, es probable que estén restringidas, en mayor grado, a ciertos ácidos grasos, principalmente oléico, miristoléico, palmitoléico y linoléico. Si la detección de una señal particular resulta benéfica para la sobrevivencia, los aspectos relacionados con la detección de esta señal pueden constituir presiones de selección que produzcan, a lo largo de la evolución, que los individuos se especialicen en la detección de tal señal. De hecho, las señales que intervienen en los sistemas de comunicación han evolucionado a partir de síntomas involuntarios que los individuos manifiestan ante situaciones particulares. Durante la evolución, la ritualización (exageración y transformación) de las señales sintomáticas ha conducido a estas últimas a ser exclusivamente comunicativas. Una señal especialmente modificada en el curso de la evolución para proporcionar información se denomina ostentación. En este caso, la señal se exagera y se hace más compleja. El proceso puede comenzar cuando algún movimiento, característica anatómica, fisiológica o bioquímica, que es funcional en otro contexto adquiere valor secundario como señal.
 
Así, los beneficios de reaccionar ante las señales que emanan de los cadáveres, o necromonas, han sido tales que en las diferentes sociedades han evolucionado castas funcionales especializadas en su detección y en la remoción de las fuentes de emisión. El reconocimiento de la muerte no sólo ocurre en las sociedades complejas, aunque es en éstas, cuando viven en nidos fijos y encerrados, en las que tal reconocimiento proporciona mayores beneficios previniendo de enfermedades o de la infestación de microorganismos oportunistas. Por ejemplo, las cucarachas evitan los refugios que contienen conespecíficos muertos o que contienen trozos de papel filtro que han sido tratados con un extracto de cucarachas muertas. El extracto es producido endógenamente, se distribuye a través de los cuerpos de los individuos de ambos sexos, es activo contra adultos y ninfas y no es liberado por insectos vivos. Los compuestos que constituyen estos extractos son, y no debería sorprendernos, metil ésteres de los ácidos grasos palmítico, linoléico, oléico y esteárico. Estos compuestos son altamente repelentes para las cucarachas. De estas sustancias, los ácidos oléico y linoléico son los más efectivos. De estos últimos, el ácido linoléico es diez veces más repelente que el oléico. La combinación de ambos ácidos grasos no tiene un efecto sinergético, ya que la respuesta conjunta es muy similar a la del ácido linoléico solo. Esto puede estar relacionado con los descubrimientos hechos acerca de la producción enzimática de ácido linoléico a partir de ácido oléico por parte de las cucarachas.
 
El reconocimiento y remoción de cadáveres en los insectos es tan sorprendente como el hecho de que, en algunas especies de hormigas, las obreras tienden a removerse ellas mismas del nido cuando van a morir. Por ejemplo, las obreras de la especie Formica rufa, la hormiga de los bosques europeos protegida por la ley, cuando han sido infectadas por el mortal hongo Alternaria tenius dejan el nido muriendo lejos de él. Con esto puede evitarse que la infección de una hormiga se convierta en una epidemia dentro del nido.
 
A pesar de que la identificación de la muerte no es considerada, en sentido estricto, como comunicación, el comportamiento necroforético comparte características comunes con la comunicación, particularmente su dependencia en respuestas estereotipadas disparadas por estímulos químicos específicos.
 
Evolución social
 
Aunque los repertorios conductuales de los insectos para la vida en sociedad sean heredados, es poco posible que la organización completa de la complejidad conductual sea codificada solamente por el genoma. Es más probable que muchos comportamientos resulten de la modificación experiencial de los circuitos definidos genéticamente. Así, una sociedad es capaz de hacer frente a situaciones nuevas y responder adaptativamente. Aunque existen especializaciones conductuales dentro de la sociedad, estos individuos conservan cierta plasticidad para cambiar de tarea cuando es necesario. De esta manera, todos los miembros de la sociedad tienen una historia determinada por el ambiente social, ambiente que varía de individuo a individuo y con la edad de la colonia.
 
El resultado de la evolución social en la conducta de las hormigas ha sido la capacidad de responder adecuada, eficiente y oportunamente a las señales sociales, y, a partir de esto, integrar el comportamiento individual en el todo. Además, las capacidades plásticas del comportamiento de las hormigas individuales son muy importantes y marcadas. Los constantes cambios en la vida social, principalmente los demográficos, y el almacenamiento y constante intercambio de información hacen fundamental la plasticidad conductual.
 
Los beneficios organizacionales de la emergencia de propiedades nuevas en los sistemas sociales sólo pueden ser alcanzados cuando ciertas condiciones previas son cumplidas, como el parentesco, con lo que los beneficios de la cooperación y el acceso a nuevas fuentes de energía, así como su optimación, permiten que los individuos sacrifiquen su reproducción directa en favor de la de sus parientes más relacionados. En los himenópteros son los hermanos en vez de los padres. Por otro lado, una condicionante previa para la vida social es la presencia de ciertas capacidades (no sólo las relacionadas con estructuras que componen el canal sensorial, sino también, y principalmente, las que constituyen los centros de control y procesamiento) que permitan la comunicación eficiente, de manera que sea posible la regulación y la función coordinada entre diferentes individuos durante la realización de tareas comunes y durante el funcionamiento de la sociedad completa. Por ejemplo, durante la evolución de los organismos multicelulares fue un suceso fundamental la liberación de la membrana celular de su función energética, cosa que se logró con la aparición de los eucariotes, de tal forma que esto permitió que la membrana se especializara en procesos de señalización, de los cuales dependen las actividades de las células de los organismos multicelulares. El sistema nervioso de los insectos sociales liberó gran parte de su maquinaria neural de los compromisos de la vida en solitario, es decir, la búsqueda de pareja, la construcción de nido, la evasión de depredadores, la oviposición, el cuidado de la cría, etcétera. Con la liberación de tales tareas en solitario debido a la división del trabajo y a la cooperación, el cerebro hormiga fue sometido a las presiones de la vida en sociedad: cada “individuo” fue seleccionado no por sus capacidades individuales per se, sino por sus capacidades para funcionar con la colonia. El cerebro, entonces, fue principalmente seleccionado por sus capacidades de reconocimiento de señales sociales y, a partir de éstas, de regulación de la conducta individual, así como de su plasticidad potencial. La lógica es la siguiente: el comportamiento animal es controlado y generado en el sistema nervioso central, principalmente en el cerebro; la vida social de los animales implica una especialización conductual que sea respondiente, fundamental y adecuadamente, a los estímulos de naturaleza social; por lo tanto, los cerebros de los animales sociales deben haberse especializado en el procesamiento de estímulos de naturaleza social y en la generación del comportamiento según dichos estímulos. En términos estrictos, un cerebro social es altamente manipulable por sus conciudadanos. Esto se debe a que dentro de la sociedad no sólo existen flujos energéticos, sino también informativos. La especialización en la recepción y emisión de señales es tal que incluso después de muertos los individuos manipulan el comportamiento de sus compañeros a través de las sustancias que emanan de ellos, estas sustancias, conocidas como necromonas, son los olores de la muerte.
Referencias bibliográficas
 
Hölldobler, B. 1994. “Conflict and Cooperation in Ant Societies”, en Naturwissenschaften, 81, pp. 489-497.
Hölldobler, B. y E. O. Wilson. 1990. The Ants. Belknap.
Jaffe, K. 1996. “The Energetic Cost of Sociality”, en Physiology & Behavior, 59(4/5), pp. 713-719.
Julian, G. E. y S. Cahan. 1999. “Undertaking Specialization in the Desert Leaf-Cutter Ant”, en Acromyrmex versicolor. Animal Behaviour, 58, pp. 437-442.
Passera, L. 1984. L'organisation sociale des fourmis. Privat.
Robinson, G. E. 1992. “Regulation of Division of Labor in Insect Societies”, en Ann. Rev. Entomol., 37, pp. 637-665.
Robinson, G. E. y R. E. Page Jr. 1988. “Genetic Determination of Guarding and Undertaking in Honey-Bee Colonies”, en Nature, 333, pp. 356-358.
Rollo, C. D., E. Czyzewska y J. H. Borden. 1994. “Fatty Acid Necromones for Cockroaches”, en Naturwissenschaften, 81, pp. 409-410.
Trumbo, S. T. y G. E. Robinson. 1997. “Learning and Task Interference by Corpse-Removal Specialists in Honey Bee colonies”, Ethology, 103, pp. 966-975.
Trumbo, S. T., Z.-Y. Huang y G. E. Robinson. 1997. “Division of Labour Between Undertaker Specialists and Other Middle-Aged Workers in Honey Bee Colonies”, en Behav. Ecol. Sociobiol., 41, pp. 151-163.
Wilson, E. O. 1971. The Insect Societies. Belknap.
Germán Octavio López Riquelme
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

López Riquelme, Germán Octavio. (2001). Necromonas: el olor de la muerte. Ciencias 63, julio-septiembre, 50-60. [En línea]
    Regresar al índice artículo siguiente

 

 
 
  P01 P02  
 
 
     
¿Existen buenas razones para clonar seres humanos?
 
Inmaculada de Melo Martín
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Vivimos en una era de avances biotecnológicos. Cada día aparecen, tanto en prestigiosas revistas científicas como en las sensacionalistas, discusiones sobre los aspectos sociales, legales, éticos y científicos de la terapia genética, la fertilización in vitro o los alimentos transgénicos. Por supuesto, estas discusiones también acaparan la atención de muchos especialistas en bioética que relegan asuntos como los relacionados con una justa distribución de los recursos médicos limitados. Últimamente, en especial desde el nacimiento de la oveja Dolly, el tema de clonar seres humanos ocupa el interés de muchos.

 

Debido a que en muchos casos las discusiones sobre la clonación de seres humanos se llevan a cabo ignorando el contexto en el que se desarrolla y establece esta nueva tecnología, los argumentos presentados para defenderla están lejos de ser convincentes. En general, coincidimos con los partidarios de clonar seres humanos en que los argumentos en contra de esta práctica son incapaces de probar que debe prohibirse completamente. Por lo tanto, no discutiré aquí dichos argumentos (se puede encontrar un resumen de los principales argumentos en contra de la clonación de seres humanos, así como una crítica a estos argumentos, en la obra de G. Pence y en varios de los artículos que aparecen en la compilada por Nussbaum y Sunstein). Sin embargo, a menos que asumamos que todo lo que es posible hacer tecnológicamente debe hacerse, el hecho de que no existan buenos razones en contra de la clonación de humanos no es suficiente para proceder con esta tecnología. Se necesitan también argumentos positivos, y éstos, hasta ahora, tampoco son convincentes, veamos por qué.
 
Los problemas de infertilidad
 
Los defensores de la clonación argumentan con frecuencia que esta práctica puede ayudar a parejas que tienen dificultades para tener hijos propios. Por ejemplo, esta nueva tecnología puede asistir a personas que carecen de gametos viables.
 
El número de gente que padece problemas reproductivos varía de manera importante dependiendo de qué definición de infertilidad se utilice. Empleando una de las definiciones más aceptadas —imposibilidad de concebir después de doce meses de intercurso sexual sin protección— la infertilidad afecta a entre 7 y 12% de parejas con mujeres en edad de concebir. Obviamente, cuanto mayor sea el número de parejas que necesitan la clonación como la única posibilidad de tener hijos propios, mayor es también la posibilidad de que esta tecnología sea aceptada.
 
Dada la importancia que la mayoría de las personas conceden al hecho de tener hijos propios, y dados los serios problemas psicológicos que quienes padecen infertilidad pueden sufrir, los intentos por resolver problemas reproductivos parecen admirables. Sin embargo, esta tesis de que la clonación de seres humanos debe ser permitida porque puede ayudar a los infértiles contiene varias presuposiciones problemáticas. En primer lugar, quienes proponen este argumento asumen que si algo resuelve el problema de la infertilidad, entonces debe aceptarse. Segundo, también asumen que la infertilidad es principalmente un problema médico que requiere una solución tecnológica. Evaluemos, pues, estas dos presuposiciones.
 
En un mundo con recursos limitados y donde numerosas enfermedades y disfunciones afectan a muchos seres humanos, debemos preguntarnos qué tiene la infertilidad que atrae tanto la atención de médicos, tecnólogos y profesionales de la bioética. Ciertamente, la dificultad de tener hijos propios es un problema que puede resultar estresante y doloroso. Sin embargo, éste es también el caso de muchas otras enfermedades que no han recibido o no reciben tanta atención. Así, a pesar de que los defensores de clonar seres humanos mantienen que esta práctica debe permitirse porque ayudará a la gente que sufre problemas reproductivos, tales autores se olvidan de ofrecer razones de por qué la solución de la infertilidad es un argumento concluyente a favor de la clonación. Para entender la importancia de este punto debemos prestar atención al contexto en el que se presentan estos argumentos. Si viviésemos en un mundo en el que las mayores causas de estrés y dolor (incluso considerando sólo las producidas por problemas médicos) estuviesen resueltas, podríamos pensar que si aparece una nueva tecnología que puede solucionar problemas reproductivos, entonces debería apoyarse su desarrollo (siempre y cuando los riesgos no superen a los beneficios). Desgraciadamente no vivimos en un mundo así. Si esto es cierto, los argumentos de quienes respaldan la clonación porque puede ayudar a los infértiles son incompletos. Deben ofrecerse también razones por las cuales si algo soluciona la infertilidad, entonces es bueno y debe aceptarse. Hasta que se ofrezcan dichas razones este argumento está lejos de resultar convincente.
 
Respecto de la segunda presuposición, que la infertilidad es principalmente un problema médico que requiere una solución tecnológica, es también cuestionable. En primer lugar, presentar el problema de la infertilidad de esta forma puede perjudicar los intentos por solucionarlo. Así, al enfatizar las soluciones tecnológicas los partidarios de la clonación pueden enmascarar el hecho de que las principales causas de la infertilidad son prevenibles. Determinadas prácticas sexuales, anticonceptivas y médicas, así como contaminantes ambientales y ciertos conservantes alimenticios, constituyen ejemplos de causas prevenibles de la infertilidad. Las enfermedades de transmisión sexual son responsables de 20% de los casos de infertilidad. Cada año miles de mujeres se enfrentan con dificultades reproductivas debido a inflamaciones de la pelvis causadas por éstas. Anticonceptivos hormonales tales como depo-provera y otros como los intrauterinos incrementan también los riesgos de inflamaciones pélvicas y, por lo tanto, de infertilidad. Por otra parte, de acuerdo con algunos profesionales la infertilidad yatrogénica es común. Problemas como las infecciones después del parto pueden desencadenar dificultades a la hora de concebir. También existe evidencia de que algunos contaminantes medioambientales son susceptibles de dañar la capacidad reproductiva de hombres y mujeres. La nutrición inadecuada, los problemas de salud y un acceso limitado a los cuidados médicos básicos pueden igualmente fomentar problemas reproductivos. Por esta razón, la infertilidad es mayor en comunidades pobres. De la misma manera, prácticas sociales como retrasar la edad de concebir parecen aumentar los problemas de infertilidad.
 
Si lo que nos preocupa es la solución de la infertilidad, parece que hay otras formas, posiblemente más efectivas que la clonación, de resolver el problema. Dados los bajos índices de éxito de otras tecnologías reproductivas, como la fertilización in vitro, no hay razones para creer que la clonación de humanos vaya a funcionar mejor (o peor). Así, enfatizar la importancia del desarrollo de la clonación como una solución a la infertilidad puede promover políticas públicas que dediquen fondos principalmente para soluciones tecnológicas en vez de invertir también en medidas preventivas. De esta forma menos gente resultaría beneficiada.
 
Algunos podrían objetar que quienes defienden la clonación como una forma de ayudar a los infértiles también apoyan otras formas de solventar el problema. Sin embargo, lo que resulta significativo es que aunque quienes emplean este argumento se esfuerzan en reflexionar sobre lo terrible que puede resultar la infertilidad, raramente aportan soluciones no tecnológicas como una manera de resolver los problemas reproductivos.
 
Ciertamente, el argumento de que la clonación humana debería desarrollarse y usarse porque puede asistir a quienes padecen infertilidad podría tener más fuerza si la cantidad de gente que se beneficiase de esta tecnología fuese considerable. Sin embargo, y así lo reconocen incluso los defensores de este argumento, no hay razones para creer que el número de personas que la utilicen vaya a ser elevado.
 
En resumen, si existen otros medios de solucionar los problemas reproductivos, y si es improbable que la clonación de humanos vaya a ser utilizado por un número considerable de gente como forma de resolver dichos problemas, entonces es difícil aceptar la fuerza de un argumento que usa la infertilidad como una de las principales razones para defender la clonación.
 
Queremos hacer notar aquí que nuestro análisis de este argumento a favor de la clonación acepta como válida la tesis, normalmente asumida por quienes lo proponen, de que lo que resulta problemático de la infertilidad es la imposibilidad de tener hijos genéticamente relacionados. Obviamente si esta tesis no fuese correcta, la adopción u otras formas de paternidad social podrían ofrecerse como soluciones a los problemas reproductivos. Aunque creemos que esta presuposición es bastante cuestionable reconocemos que evaluarla está fuera del ámbito de este trabajo. En cualquier caso, creemos que de ninguna manera esto disminuye la fuerza de nuestra crítica el hecho de no poner aquí en tela de juicio esta presuposición.
 
Las enfermedades genéticas
 
De acuerdo con algunos autores, el argumento más fuerte a favor de clonar seres humanos es que los padres pueden brindar a sus hijos un maravilloso legado genético. Así, parejas con riesgo de transmitir enfermedades genéticas como la fibrosis quística o la enfermedad de Huntington, pueden decidir crear bebés por medio de la clonación para evitar que padezcan estas dolencias.
 
Quienes justifican la clonación utilizando este argumento han presentado lo que llamaremos aquí la versión fuerte y la moderada. En la primera, la clonación aparece como la solución a la mayoría de nuestras enfermedades mortales. Así, algunos autores han defendido que más del 70% de las muertes causadas por enfermedades del corazón, por cáncer y por accidentes cerebro-vasculares pueden ser debidas a causas genéticas que es posible prevenir. A éstas deben añadirse también las muertes causadas por enfermedades genéticas como Huntington, anemia falciforme, Tay-Sachs o distrofia muscular. Con este panorama es obvio que originar seres humanos por medio de la clonación podría salvar las vidas de un número considerable de personas. Más aún, continúa el argumento, no sólo debe permitirse el uso de la clonación para crear descendientes con el mayor número de cualidades naturales, con los mejores genes y con las mejores posibilidades para disfrutar de una vida larga y saludable, sino que además estamos obligados a utilizar esta tecnología. Esto es así porque sería inmoral elegir condiciones de vida para nuestros descendientes que fuesen menos satisfactorias de lo posible.
 
Este argumento es cuestionable por varias razones. Primero, en estos momentos no existe evidencia científica que pruebe que la mayoría de las muertes debidas a cánceres, accidentes cerebro-vasculares y enfermedades del corazón se deban a causas genéticas prevenibles. Esto, por supuesto, no quiere decir que la genética no cumpla ninguna función en estas enfermedades, sino que carecemos de evidencia que indique que su papel es tan esencial como este argumento lo presenta.
 
Segundo, argumentar que estamos obligados moralmente a crear descendientes con el mayor número de cualidades naturales posibles, los mejores genes y las mejores posibilidades de gozar una vida larga y saludable presupone que los conceptos de “mejores genes” o de “salud” carecen de ambigüedad y no son problemáticos. Sin embargo, como revelan numerosos artículos y monografías que discuten tales conceptos, esta presuposición es claramente cuestionable. Más aún, esta supuesta obligación puede entrar en conflicto con el deseo de tener hijos genéticamente relacionados. Así, y asumiendo que lo que significan los conceptos anteriores está claro para todo el mundo, puede ser el caso de que algunos hijos tendrían mejores vidas si sus padres, en lugar de clonarse ellos mismos, pidiesen ayuda a otros individuos con mejores características genéticas. Esto, por supuesto, podría impedir que algunas parejas tuvieran hijos relacionados genéticamente. Quizás quienes formulan este argumento puedan indicar si esta obligación moral de mejorar los genes de nuestros descendientes prevalece o no sobre el deseo de tener hijos propios.
 
Otros autores que defienden también la clonación con el argumento señalado anteriormente ofrecen en cambio una versión más moderada. Mantienen que la clonación puede ser beneficiosa en aquellos casos en los que la existencia de un gen concreto garantiza la existencia de una enfermedad genética concreta. Esta versión moderada es inmune a las dos críticas que hemos hecho anteriormente contra la versión fuerte. Sin embargo, comparte con ésta el siguiente problema: ambas versiones parecen presuponer que la clonación es la mejor manera de evitar enfermedades transmitidas genéticamente. Si existen otras técnicas que nos pueden ayudar a conseguirlo, quienes apoyan la clonación de seres humanos utilizando este argumento necesitan demostrar no sólo que esta tecnología es buena, sino también que es mejor que otras. En estos momentos existen otros medios que pueden utilizarse para evitar el riesgo de transmisión de enfermedades genéticas particulares. Por ejemplo, las parejas pueden usar óvulos o esperma de donantes que carecen de dichas enfermedades. Esta solución, sin embargo, puede resultar poco atractiva para quienes desean tener hijos relacionados genéticamente. También se pueden utilizar técnicas de diagnóstico de preimplantación con embriones creados por fertilización in vitro. Estas tecnologías son costosas y no tienen índices de éxito muy elevados, pero en estos momentos no hay razones para creer que la clonación resultase más económica o que tuviese más éxito. La terapia genética también puede asistirnos en nuestra lucha contra las enfermedades genéticas, y aunque es cierto que no está muy desarrollada, actualmente no se encuentra en peores condiciones que la clonación de seres humanos.
 
Otro problema con el que se enfrenta la versión moderada del argumento que estamos discutiendo es que no está claro que el usar la clonación para prevenir enfermedades genéticas vaya a ayudar a un número importante de personas. Dada la existencia de otras técnicas y puesto que vivimos en un mundo con recursos médicos limitados, este argumento es incapaz de ofrecer bases convincentes para apoyar la clonación humana.
 
Clonando seres queridos
 
Algunos autores también defienden la clonación argumentando que esta tecnología podría permitir que algunos individuos clonasen a personas que tienen un significado especial para ellos. Por ejemplo, algunas parejas pueden desear clonar a un hijo que acaba de morir. En algunas ocasiones los ejemplos que se ofrecen para apoyar este argumento son verdaderamente imaginativos. Existen, sin embargo, varios problemas al respecto. En primer lugar, aunque dada la oportunidad algunas personas pueden querer efectuar la clonación con este propósito, no hay evidencia de que mucha gente vaya a querer hacerlo así. Puesto que además vivimos en un mundo de recursos limitados donde existen otras necesidades al menos igualmente importantes, parece cuestionable apoyar el desarrollo y uso de una tecnología que será probablemente cara y que no favorecerá a un número muy elevado de gente.
 
Segundo, y más importante, no está claro qué tipo de deseo estamos intentando satisfacer en estos casos. Creemos que existen al menos dos posibilidades. Quizás lo que la gente puede querer es reemplazar a aquellos seres queridos que mueren con una nueva copia de tales personas. Es decir, quizás se busca la repetición de una determinada característica como la fuerza física, la belleza o el interés por la música. O quizás la clonación de un ser querido que muere pueda servir para aceptar la pérdida del original y seguir viviendo.
 
Si los defensores de este argumento quieren satisfacer la primera clase de deseos, entonces éste es cuestionable porque, o se basa en un crudo determinismo genético, o promueve la satisfacción de deseos basados en creencias falsas. La mayoría de quienes abogan por este argumento reconocen, sin embargo, que actualmente no existe evidencia científica para apoyar el determinismo genético. Están de acuerdo en que el clon de un ser querido que ha muerto no será una copia exacta de este último, sino que podría tener características físicas e intereses diferentes. Por tanto, si reconociendo los problemas que tiene el determinismo genético todavía se defiende la práctica de clonar en estos casos, entonces se está promoviendo la satisfacción de deseos basados en creencias falsas.
 
Por otra parte, algunos individuos pueden desear clonar a hijos que mueren como una manera de superar el dolor causado por tal muerte. Entendemos la enormidad del sufrimiento producido por la muerte de un ser querido, especialmente cuando se trata de muertes prematuras, y reconocemos que intentar paliar este dolor es laudable. Sin embargo, no está claro por qué promover la clonación es mejor que fomentar el apoyo de familiares, amigos, o instituciones sociales, o mejor que tener otros hijos.
 
¿Por qué clonar?
 
Si nuestro análisis de los argumentos a favor de la clonación es correcto, y si estamos de acuerdo con que el hecho de que podamos ejecutar algo tecnológicamente no es razón suficiente para hacerlo, entonces carecemos en estos momentos de buenas razones para promover o impulsar la clonación de seres humanos. Obviamente esto no quiere decir que debamos dejar de pensar en los posibles riesgos y beneficios de esta práctica. Lo que resulta problemático no es la reflexión sobre este tema u otros similares, sino el hecho de hacerlo de una manera claramente descontextualizada.
 
Con frecuencia, los profesionales de la bioética tienden a generalizar y simplificar determinados problemas eliminando el contexto en el que se presentan. Así se discute sobre las relaciones entre pacientes y médicos, sobre ingeniería genética o sobre tecnologías de reproducción sin tener en cuenta particularidades como la etnia, el género, la clase económica de las personas implicadas o el contexto en el que se desarrollan tales relaciones o tecnologías. Esta manera de enfocar los problemas puede ser beneficiosa cuando, por ejemplo, intentamos ofrecer principios éticos. Sin embargo, cuando se ignoran estas particularidades se corre el riesgo de desatender el análisis de serios problemas morales y la posibilidad de ofrecer ciertas soluciones. Por ejemplo, si ignoramos el género de las personas como una categoría de análisis puede pasar inadvertido el hecho de que la mayoría de las consultas médicas son solicitadas por mujeres. Descuidar este dato puede impedirnos analizar las relaciones de autoridad ejercidas por los miembros de una profesión, la médica, constituida principalmente por hombres.
 
Esta omisión del contexto está presente también en los análisis sobre la clonación de seres humanos. De esta forma, cuando se leen evaluaciones sobre esta tecnología se tiene la impresión de que vivimos en una sociedad donde nuestros problemas más serios y urgentes son resolver los ruegos de quienes padecen infertilidad, una sociedad donde las enfermedades genéticas parecen ser la principal causa de muertes prematuras prevenibles, y donde se dispone de recursos médicos ilimitados. Probablemente en un mundo con estas características esta clase de debate sobre la clonación tendría sentido. Pero éste no es el mundo en el que vivimos. El nuestro es un mundo superpoblado, en el que miles de niños tienen una desesperada necesidad de buenas familias; un mundo en el que miles de mujeres que tienen la suerte de tener hijos propios carecen de los recursos suficientes para ofrecerles los cuidados médicos básicos o la nutrición necesaria para que sobrevivan. En nuestro mundo la prevención de la mayoría de las muertes prematuras no requiere terapia genética sino acceso a simples vacunas como las de la tuberculosis o el sarampión, a cantidades básicas de alimentos o al desarrollo de estructuras sociales que detengan la violencia domestica e institucional contra los niños y que prevengan accidentes de tráfico, especialmente entre los más jóvenes.
 
Si queremos hacer evaluaciones de la clonación que sean más que discusiones intelectuales, debemos enmarcar tales análisis en el contexto real en el que se puede desarrollar y utilizar esta nueva tecnología. Si así lo hacemos se podrá evidenciar que decidir si la clonación puede usarse legítimamente para evitar el sufrimiento de quienes no pueden tener hijos propios, o ayudar a quienes padecen enfermedades genéticas que no quieren transmitir a sus hijos, o atender las necesidades de quienes desean superar el dolor de la pérdida de un ser querido, no es nuestro principal problema moral o la preocupación más acuciante de nuestras políticas sociales.
 
Queremos subrayar, para terminar, que nuestros argumentos no tratan de defender que esta clase de peticiones deban ser completamente ignoradas. No queremos tampoco propugnar que se acabe con el desarrollo de cualquier tecnología que aparezca hasta que solucionemos problemas más básicos. Ni tampoco intentamos promover la eliminación de discusiones intelectuales estimulantes sobre escenarios improbables que pueden surgir con la aparición de nuevas tecnologías. Los argumentos que hemos presentado aquí pretenden llamar la atención sobre el hecho de que la evaluación de nuevas tecnologías requiere discusiones no sólo sobre sus riesgos y beneficios, es decir, discusiones sobre los medios, sino reflexiones sobre los fines mismos que estas tecnologías parecen promover.
Referencias bibliográficas
 
Comité de Expertos sobre Bioética y Clonación, Instituto de Bioética. 1999. Informe sobre la clonación: en las fronteras de la vida. Aranjuez, Doce Calles.
Ellis, G. B. 1990. "Infertility and the Role of the Federal Government”, en D. M. Bartels, R. Priester, D. E. Vawter y A. L. Caplan, eds., Beyond Baby M. Clifton, Humana Press.
Henifin, M. S. 1993. ”New Reproductive Technologies: Equity and Access to Reproductive Health”, en Journal of Social Issues, 49, 2, pp. 61-74.
Humber, J. M. y R. F. Almeder, eds. 1998. Human Cloning. Totowa, Humana Press.
Jewelewicz, R. y E. E. Wallach. 1994. "Evaluation of the Infertile Couple”, en E. E. Wallach y H. A. Zacur, eds. Reproductive Medicine and Surgery. San Luis Missouri, Mosby.
Kass, L. y J. Wilson. 1998. The Ethics of Cloning. Washington, D. C., American Enterprise Institute.
Kolata, G. 1998. Hello Dolly: el nacimiento del primer clon. Barcelona, Planeta.
Koval, R. y J. A. Scutt. 1988. "Genetic and Reproductive Engineering —All for the Infertile?", en J. A. Scutt, Baby Machine. Reproductive Technology and the Commercialization of Motherhood. Melbourne, McCulloch.
McGee, G., ed. 1998. The Human Cloning Debate. Berkeley, Berkeley Hills Books.
Mueller, B. A. y J. R. Daling. 1989. "The Epidemiology of Infertility”, en M. R. Soules, ed. Controversies in Reproductive Endocrinology and Infertility. Nueva York, Elsevier.
Nussbaum, M. C. y C. R. Sunstein, eds. 2000. Clones y clones: hechos y fantasías acerca de la clonación. Madrid, Cátedra.
Pence, G. 1997. Who’s Afraid of Human Cloning. Lanham, Rowman and Littlefiled.
Pence, G., ed. 1998. Flesh of My Flesh. Lanham, Rowman and Littlefiled.
Robertson, J. 1994. “The Question of Human Cloning”, en Hasting Center Report, 24, pp. 6-14.
Robertson, J. 1998. “Human Cloning and the Challenge of Regulation”, en The New England Journal of Medicine, 339, 2.
Rowland. 1992. Living Laboratories. Bloomington, Universidad de Indiana.
The New York Task Force on Life and the Law. 1998. Assisted Reproductive Technologies: Analysis and Recommendations for Public Policy. Nueva York, The Task Force.
US National Bioethics Advisory Commission. 1997. Cloning Human Beings: Report and Recommendations of the National Bioethics Advisory Commission. Rockville, The Commission.
World Health Organization. 1992. Recent Advances in Medically Assisted Conception. Ginebra, who.
Inmaculada de Melo Martín
Departamento de Filosofía,
St. Mary’s University, Texas.
_______________________________________________________________
 

como citar este artículo

De Melo Martín, Inmaculada. (2001). ¿Existen buenas razones para clonar seres humanos? Ciencias 63, julio-septiembre, 62-69. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
  del bestiario
 
     
Ojos bien abiertos en el Mar de Lidenbrock
 
 
Héctor T. Arita
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
El jueves 13 de agosto de 1863 se hizo a la mar una pequeña embarcación improvisada por tres intrépidos aventureros. Partiendo de Puerto Graüben, los tres osados exploradores subieron a la frágil balsa que habían construido con troncos rotos y tocaron por primera vez las aguas del vasto océano recién descubierto por ellos mismos. No sin cierta falta de modestia, el líder de la expedición, el profesor Otto Lidenbrock, había bautizado con su nombre aquel inhóspito mar. Por su parte, con más romanticismo que vanagloria, el sobrino del profesor, Axel, decidió inmortalizar a su ausente amada Graüben usando su nombre para el lugar de donde zarpó la expedición. Completaba el equipo Hans Bjelke, un taciturno guía nórdico.
A los cinco días de navegación, los tres exploradores fueron testigos de una batalla nunca antes presenciada por ser humano alguno. Ante ellos, un gigantesco ictiosaurio se batió en mortal duelo con un plesiosaurio. La batalla de los monstruos jurásicos, que según el relato de Axel duró más de dos horas, culminó con la muerte del plesiosaurio, pero el ictiosaurio recibió también heridas graves. Su enorme ojo, "del tamaño de la cabeza de un hombre", se veía ensangrentado a raíz de la fragorosa lucha.
Por supuesto, el relato de Axel pertenece al ámbito de la ficción. Se trata de un pasaje de Viaje al centro de la Tierra, la segunda novela que escribió Julio Verne, cuando tenía treinta y seis años de edad. Como en otros de sus relatos, Verne combina en la narración de las aventuras del profesor Lidenbrock los productos de su fértil imaginación con datos científicos asombrosamente verídicos. En Viaje al centro de la Tierra, Verne imaginó un enorme océano subterráneo, iluminado perpetuamente por fenómenos eléctricos, en el que habitaban criaturas antediluvianas extintas en el resto del mundo. Aunque la batalla de un plesiosaurio contra un
ictiosaurio resulta realmente fantasiosa, Verne muestra en su narrativa sus profundos conocimientos sobre la paleontología y la incipiente ciencia de la evolución. Para poner en contexto las afirmaciones científicas de Verne, hay que recordar que El origen de las especies de Darwin había aparecido sólo cinco años antes de la publicación de Viaje al centro de la Tierra.
Muchos de los detalles que sobre la anatomía y el comportamiento de los ictiosaurios presenta Verne resultan ciertos a la luz de investigaciones recientes sobre estos animales del pasado. Los ictiosaurios fueron reptiles que dominaron los mares por más de ciento cincuenta y cinco millones de años hasta que desaparecieron de la faz de la tierra hace unos noventa millones de años. Tal como los describió Verne, los ictiosaurios más evolucionados semejaban marsopas gigantescas por su forma hidrodinámica y la presencia de aletas dorsal y caudal. Sin embargo, sus rasgos anatómicos sitúan claramente a los ictiosaurios en algún lugar de la evolución de los reptiles entre los lepidosaurios (serpientes y lagartijas) y los arcosaurios (grupo filogenético que incluye a los cocodrilos, los dinosaurios y las aves). Los primeros ictiosaurios de hecho semejan
lagartijas acuáticas, con cuerpos alargados, aletas primitivas y poco diferenciadas y sin aleta dorsal.
Los maravillosos fósiles de Hulzmaden, Alemania, han permitido a los paleobiólogos reconstruir detalles asombrosos de la forma de vida de estos fascinantes animales. Se sabe, por ejemplo, que los ictiosaurios más evolucionados daban a luz crías vivas, tal como lo hacen los actuales cetáceos. Existe incluso un ejemplar fósil que muestra tres crías en el interior de
la madre y otra justo en el momento en que nacía. Se cree que los ictiosaurios pequeños y medianos se alimentaban principalmente de belemnites, unos cefalópodos extintos semejantes a los actuales calamares. En algunos fósiles particularmente bien preservados es posible observar el contenido estomacal de algunos ictiosaurios, en los que se han observado
restos de los calamares que les sirvieron de alimento. Es posible, sin embargo, que las especies más grandes se hayan alimentado además de peces y de otras criaturas marinas.
 
Para encontrar los grandes bancos de belemnites, los ictiosaurios debieron ser capaces de realizar inmersiones profundas en el mar, de entre seiscientos y mil quinientos metros. Para poder realizar estas proezas de buceo, los ictiosaurios debieron poseer adaptaciones anatómicas y fisiológicas muy particulares. Por ejemplo, hay que recordar que los ictiosaurios, siendo descendientes directos de criaturas terrestres, respiraban aire, por lo que cada inmersión debía ser realizada literalmente en un respiro. Según cálculos fisiológicos que toman en cuenta el gasto energético asociado a la realización de movimientos en el agua, un ictiosaurio de cerca de una tonelada de peso debió ser capaz de sostener la respiración por cerca de veinte minutos, tiempo suficiente para tomar aire, bucear hasta alcanzar los bancos de belemnites, darse un festín con estos cefalópodos y regresar cómodamente a la superficie del mar.
 
Pero hay otro problema asociado con el buceo profundo. La intensidad de la luz disponible en el mar disminuye exponencialmente con la profundidad, de manera que a más de quinientos metros reina una oscuridad que un ser humano juzgaría como total. Sin embargo, se ha calculado que algunos ictiosaurios deben haber sido capaces de ver aun a mayores profundidades, gracias a los gigantescos ojos que poseían. Temnodontosaurus, un portentoso ictiosaurio de más de diez metros de longitud, tenía ojos de veintiséis centímetros de diámetro, los aparatos visuales más grandes que haya tenido animal alguno. Ciertamente, Verne no exageraba al comparar el tamaño de los ojos de los ictiosaurios con el de la cabeza de un hombre. Para poner en contexto la magnitud de estos aparatos, basta mencionar que los ojos de la ballena azul, el animal más grande que ha existido sobre la faz de la tierra, miden "apenas" quince centímetros. Entre los ictiosaurios, sin embargo, existió otra especie con ojos aún más grandes en proporción con su tamaño.
 
Ophtalmosaurus medía poco menos que la mitad que Temnodontosaurus pero sus ojos tenían un diámetro de veintitrés centímetros.
 
Para medir la luminosidad de una lente, natural o artificial, se utiliza el número f, que es el cociente que resulta de dividir la longitud focal de la lente por su diámetro efectivo. Obviamente, entre más ancha es la lente, más luz transmite y la imagen que produce es más luminosa. Por tanto, entre menor es el valor del número f, más brillante es la imagen. De hecho, en términos técnicos, la luminosidad de la imagen es inversamente proporcional al cuadrado del número f. En términos prácticos, esto significa que para incrementar en pequeñas proporciones la luminosidad de una lente se debe aumentar en gran medida su diámetro, con los concomitantes problemas de diseño, soporte y funcionamiento. En fotografía,  los objetivos más finos tienen aperturas máximas de f/1.4 o f/1.2, pero la mayoría de ellos tienen números f similares a los del ojo humano, alrededor de f/2, o mayores. Se ha calculado que el ojo de los Ophtalmosaurus tenía una luminosidad de f/0.9, comparable a la del ojo del gato doméstico y ligeramente superior a la de las lechuzas. Equipado con este aparato óptico tan luminoso, los
Ophtalmosaurus seguramente eran capaces de usar la visión a profundidades mucho mayores de quinientos metros.
Pero, ¿cómo es posible conocer el tamaño de los ojos de un animal extinto? En el caso de los ictiosaurios, la respuesta se relaciona con una estructura que además constituye otra aparente adaptación de estos animales a su particular forma de vida. Se trata de los anillos escleróticos, estructuras óseas en forma de dona que quedan embebidas dentro de los ojos de los animales que los poseen. Se cree que estas estructuras, particularmente bien desarrolladas en los ictiosaurios, permitían a los ojos de estos animales mantener su forma a pesar de las presiones generadas durante el desplazamiento en el medio marino, especialmente durante las
inmersiones a grandes profundidades. La presencia de anillos escleróticos en los ictiosaurios ha permitido a los paleobiólogos estimar el tamaño de los ojos de estas criaturas antediluvianas, ya que constituyen elementos fácilmente fosilizables y medibles.
Siendo exageradamente rigurosos, podríamos preguntar ¿por qué el ictiosaurio de Verne tenía ojos gigantescos? El escritor francés imaginó la existencia de ictiosaurios en un mar subterráneo, en el que un extraño fenómeno eléctrico proveía de luz perpetua a la gigantesca caverna que contenía el mar de Lidenbrock. Podríamos especular tal vez sobre la existencia de bancos de belemnites a grandes profundidades en este mar y sobre la posibilidad de que los ictiosaurios vernianos ejecutaran profundas inmersiones, tal como lo hicieron sus equivalentes reales hace millones de años. La realidad es que Verne basó la descripción de su ictiosaurio en las reconstrucciones de los fósiles disponibles en la época y, dada la naturaleza de su libro, no se ocupó de dar una explicación adaptativa a las características de los animales involucrados.
A menos que en el futuro se desarrollen tecnologías aún no pensadas, ningún ser humano verá un ictiosaurio vivo. Lo más a lo que podemos aspirar es, a la manera de Verne, imaginar encontrarnos con uno de estos animales en algún recóndito paraje de la Tierra, como su idílico Mar de Lidenbrock. Veríamos tal vez a un Ophtalmosaurus, con su cuerpo algo rechoncho, desplazándose suavemente con un lento movimiento de sus aletas. Si hay suerte, podríamos observar a uno de estos animales ejecutando una inmersión a las aguas profundas, capturando con parsimonia cientos de primitivos calamares para después nadar, con estudiada elegancia, de regreso a la superficie. Sin duda nos llamaría la atención el par de enormes ojos que parecerían observarnos con frialdad. Ojos brillantes y perfectamente redondos, mantenidos en forma y posición por los anillos escleróticos. Ojos que han visto grandes batallas en los mares jurásicos. Ojos que fueron testigos de los grandes cambios evolutivos a lo largo de los casi ciento sesenta millones de años que los ictiosaurios dominaron los mares del mundo.
Referencias bibliográficas
Motani, R. et al. 1999. “Large Eyeballs in Diving Ichthyosaurs”, en Nature, 402, 747.
Verne, J. 1864. Viaje al centro de la Tierra. Una obra clásica que, además de ser sumamente entretenida, presenta un panorama del conocimiento geológico y biológico que existía a mediados del siglo xix.
www.ucmp.berkeley.edu/people/motani/ichthyo/ es la página de los ictiosaurios (todo sobre ellos).
 
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Arita, Héctor T. (2001). Ojos bien abiertos en el Mar de Lidenbrock. Ciencias 63, julio-septiembre, 11-13. [En línea]
 
You are here: Inicio Blog (2) revistas revista ciencias 63