revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 Temas selectos de geografía de México

 
PortadaB6
El clima de la ciudad de México
Ernesto Jáuregui Ostos
Instituto de Geografía, unam
Plaza y Valdés, 2000. 131 pp.
 
 
 
   
México a través de los mapas
Héctor Mendoza Vargas
 
Instituto de Geografía, unam
Plaza y Valdés, 2000. 203 pp.
     
HTML ↓ PDF ← Regresar al índice
     
México a través de los mapas reúne varios ensayos en torno a la historia general de la cartografía mexicana y sus vínculos con la historia política del país. México se distingue fundamentalmente por la riqueza de su tradición en la elaboración de mapas. Así, por ejemplo, en Mesoamérica se elaboraron mapas de pequeña y gran escala, usando una práctica particular y signos convencionales propios, distintos a los de Europa. Una vez establecidos en América, los españoles emplearon a los indígenas en la elaboración de imágenes para Felipe II, las cuales representan una fusión única entre lo indígena y lo europeo. Al lado de esos mapas sincréticos se encuentran durante los siglos xvi y xvii mapas y planos hechos por los ingenieros de la Corona con fines militares y los de los misioneros jesuitas, en lo que constituye el primer intento por elaborar mapas de gran escala de los territorios del interior.
Además de la obra borbónica y la de los ilustrados, otros de los ejemplos analizados en esta obra son la labor fronteriza de los ingenieros y el trabajo de Antonio García Cubas, cuyo Atlas geográfico de 1858 dio una idea a los mexicanos de la forma general y las nuevas dimensiones
de su país, o el mapa de Francisco Calderón de 1910, que muestra el desarrollo de núcleos urbanos y una densa red de comunicaciones. Para el siglo xx se discuten la creación de nuevas oficinas geográficas y la obra más distinguida de la geografía universitaria, el Atlas nacional de México. Durante quinientos años la historia de México ha sido reflejada con fidelidad a lo largo de su cartografía, situación que los ensayos de esta obra colectiva logran delinear.
En El clima de la ciudad de México, Ernesto Jáuregui Ostos describe los principales rasgos del clima de la ciudad y los probables cambios observados desde la llegada de los españoles hasta el presente. Si bien las características generales del clima de la cuenca han permanecido invariables en los últimos siglos en cuanto a su “estacionalidad” (es decir, sigue observándose una estación de lluvias y otra de secas), el cambio de uso de suelo, la desecación de los lagos, la tala de bosques y la creciente urbanización han modificado la temperatura, la humedad y, quizá, la lluvia en el ámbito de la ciudad. Pero sin duda el componente que ha sufrido una mayor alteración y deterioro es la calidad del aire que respiramos y que está en el origen de las diversas enfermedades respiratorias y cardiovasculares que padece la población en la capital.
Ambos libros pertenecen a la colección “Temas selectos de geografía de México”, editada por el Instituto de Geografía en colaboración con la editorial Plaza y Valdés, la cual contará con ciento nueve títulos.
Fragmentos del resumen.
_______________________________________________________________
 

como citar este artículo

sin autor. (2001). Temas selectos de geografía de México. Ciencias 63, julio-septiembre, 79. [En línea]
 
← Regresar al índice
  P01 P02  
 
 
     
Breve cronología de la genética
 
Jorge González Astorga
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La genética es uno de los puntales teóricos más importantes de la biología contemporánea, y sin embargo es una ciencia relativamente nueva. Es por eso que la construcción de la genética durante el siglo xx constituye uno de los retos intelectuales de mayor calibre. Y aunque la genética es una ciencia de este siglo, que inicia formalmente con el redescubrimiento de las leyes de Mendel en 1900, no fue sino hasta 1906 que William Bateson acuñó el término y escribió el primer libro de genética: Mendel’s Principles of Heredity: A Defence. Para esto, los avances teóricos y metodológicos del siglo xix fueron trascendentales en el fundamento de las bases de la genética del siglo xx.
 
Durante la segunda mitad del siglo xix, en el periodo de 1850 a 1900, la biología surgió de los últimos vestigios medievales y aristotélicos, generándose una visión unificada cuyo paradigma no es esencialmente distinto del nuestro. Por una parte, la teoría celular se había establecido ya en la década de los treintas, pero en 1858 el fisiólogo alemán R. Virchow introdujo una generalización adicional: el principio de la continuidad de la vida por división celular, que en síntesis se contempla en una frase célebre: omnis cellula e cellula. Con esto, la célula quedó establecida como la unidad de la vida y reproducción de los organismos. Este reconocimiento, como unidad de reproducción y continuidad, llevó a la generación espontánea y al preformacionismo a los terrenos de la metaciencia. En este sentido, cualquier organismo se origina de una simple célula mediante un proceso de ontogénesis, a través de sucesivos pasos de diferenciación de un huevo indiferenciado. Esto hace a la célula el contenedor de las potencialidades para generar un organismo. Este planteamiento teórico llevó a la búsqueda de la base material de la herencia.
 
A mediados del siglo xix, Darwin introdujo en El origen de las especies la segunda unificación importante de la biología, esto es: la teoría de la evolución biológica. Fundamentalmente, Darwin explica que las formas orgánicas existentes proceden de otras distintas que existieron en el pasado, mediante un proceso de descendencia con modificación. Para llegar a esto sintetizó sistemáticamente evidencias procedentes de muy diversas disciplinas de la ciencia de la época, como son la geología, donde tomó el principio del uniformitarismo de Charles Lyell; la paleontología, que cimentó su planteamiento sobre las relaciones ancestro-descendencia y sobre la distribución de las especies a nivel macrogeográfico; también, su gran experiencia como naturalista le permitió conocer la gran diversidad y variedad de organismos que se distribuyen en los trópicos; esto lo llevó a entender, en parte, la importancia de las relaciones inter e intraespecíficas como fuerzas motoras de la evolución; por último, y no menos importante, la influencia de las teorías socioeconómicas de Thomas Malthus y Adam Smith fortalecieron aún más su planteamiento teórico. Con estos antecedentes, la síntesis de estas disciplinas convergieron en una explicación de un proceso natural para la evolución orgánica: la selección natural. Con la finalidad de imponer esta concepción Darwin incorporó una nueva y radical perspectiva: el pensamiento poblacional. En contradicción con la visión esencialista dominante en su tiempo, la variación individual, lejos de ser trivial, era para Darwin la piedra angular del proceso evolutivo. Son las diferencias existentes entre los organismos al seno de las poblaciones las que, al incrementarse en el espacio y en el tiempo, constituirán la evolución biológica. La teoría general de la evolución de Darwin fue casi inmediatamente aceptada por la comunidad científica, pero su teoría de la selección natural (teoría particular) tuvo que esperar hasta los años treintas del siglo xx para que recibiera la aceptación unánime.
 
Un hueco importante en el esquema de Darwin era el de la explicación del origen y el mantenimiento de la variación genética sobre la que opera la selección natural. Posterior a la publicación de El origen de las especies, en 1868, Darwin intentó explicar el fenómeno de la herencia a través de la hipótesis provisional de la pangénesis. Ésta es el resultado de un intenso trabajo de recopilación e interpretación de gran número de observaciones y experimentos, que se encuentran en un tratado de dos volúmenes: The Variation of Animals Under Domestication. Allí postula la existencia de partículas hereditarias o de reproducción, que llamó gémulas. Cada parte del organismo, e incluso partes de las células, producen sus propias y específicas gémulas; estas partículas fluyen por todo el cuerpo, de modo que en cada parte, como en los óvulos y espermatozoides, pueden encontrarse todos los tipos de gémulas. Para esto, las células reproductoras tienen la potencialidad de desarrollar un organismo completo. Contrariamente a las conclusiones a las que llegó en 1859, su hipótesis de la herencia resultó incorrecta, como se demostró posteriormente por, entre otros, su sobrino Francis Galton en un experimento de transfusión sanguínea recíproca entre dos líneas de conejos que diferían en el color del pelaje. De cualquier manera, el trabajo y entusiasmo de Darwin estimuló el pensamiento genético.
 
En 1865, tres años antes de la publicación del tratado de Darwin sobre la herencia, el monje austriaco Gregor Mendel publicó en el Boletín de la Sociedad de Ciencias Naturales de Brno su trabajo "Experimentos de hibridación en plantas", en el cual resume los experimentos que había llevado a cabo durante casi diez años en el frijol Pisum sativum. El trabajo de Mendel se enmarcaba dentro del paradigma de la teoría de la evolución, pues una de las razones para efectuar dicho trabajo era "alcanzar la solución a un problema cuya importancia para la historia evolutiva de las formas orgánicas no debería ser subestimada" (en sus propias palabras). En su base experimental está el paradigma del análisis genético y su trabajo es considerado el fundamento de la ciencia genética. La fuerza de este trabajo radica en un diseño experimental sencillo, aunado a un análisis cuantitativo de sus datos. Experimentalmente demostró que: i) la herencia se transmite por elementos en forma de partículas, refutando la herencia mezclada, y ii) que el mecanismo de la herencia sigue normas estadísticas sencillas, resumidas en dos principios. Pero el momento histórico no era aún propicio y el nuevo paradigma de la genética debería esperar más de treinta años guardado en los archivos de un monasterio del centro de Europa. Y en realidad no fue, como se ha creído, porque su trabajo fuera desconocido, sino porque los experimentos de Mendel fueron simplemente despreciados. Se sabe que Mendel intercambió correspondencia con el alemán Carl Nägeli, uno de los más prominentes botánicos del momento, quien no pareció muy impresionado por su trabajo y le sugirió a Mendel que estudiara otras especies vegetales, entre ellas una del género como Hieracium, en la que Nägeli estaba interesado. En ella Mendel no encontró normas consistentes en la segregación de sus caracteres y empezó a creer que sus resultados eran de aplicación limitada, por lo que su fe (que la debería tener por decreto) y entusiasmo en su labor como experimentador disminuyó. No fue sino hasta mucho tiempo después de la muerte de Mendel, en 1903, que se descubrió que un tipo especial de partenogénesis ocurre en Hieracium spp., lo que genera desviaciones muy significativas de las proporciones mendelianas esperadas. Debido al olvido y a la desidia de su trabajo, se puede afirmar que sin Mendel la genética posiblemente sería la misma, lo cual nos lleva a la conclusión de que cuando la historia se estudia como recapitulación de fechas y personajes nos hace percibir a los genios como simples pensadores de la época.
 
En la década de los setentas las técnicas citológicas emergentes, como el microtomo y las lentes de inmersión en aceite, condujeron al descubrimiento del proceso de la fecundación (la fusión de los núcleos del óvulo y del espermatozoide para formar el núcleo del huevo) y la mitosis. Por esa época Nägeli enunció la teoría del idioplasma, que establece que el núcleo celular es el vehículo de la herencia. En 1883 van Beneden, experimentando con el nemátodo Ascaris spp., descubrió el proceso de la meiosis, reconociéndose por fin la individualidad de los cromosomas. T. Boveri, entre 1888 y 1909, demostró que los cromosomas mantienen su estabilidad a lo largo de las generaciones. Así, a partir de 1880 existía un acuerdo generalizado de que el material hereditario residía en los cromosomas, aunque esto no estuvo completamente claro hasta 1916.
 
 
 
El embriólogo alemán August Weismann desarrolló en 1885 su teoría de la continuidad del plasma germinal. En ésta se reconocen dos tipos de tejidos en los organismos, el plasma somático y el plasma germinal, que en nuestros días vendría siendo el germen del fenotipo y del genotipo, respectivamente. El plasma somático o somatoplasma forma la mayor parte del cuerpo de un individuo, mientras que el germoplasma es una porción inmortal de un organismo que tenía la potencialidad de reproducir al individuo. A diferencia de la teoría de la pangénesis, el germoplasma no proviene del somatoplasma ni se forma nuevamente en cada generación, sino que constituye la continuidad de la información genética entre generaciones. La teoría de Weismann rechazaba rotundamente la herencia de los caracteres adquiridos haciendo un mayor énfasis en el material hereditario. Se le llamó neodarwinismo a la síntesis de la teoría de la evolución por selección natural y la hipótesis del plasma germinal de Weismann. En 1883 Weismann propuso la teoría de que las partículas hereditarias o bióforas eran invisibles, autorreplicativas y asociadas con los cromosomas de un modo lineal, postulando que cada biófora estaba implicada en la determinación de una característica o atributo. Esto nos lleva a pensar que su intuición fue realmente prodigiosa. En 1871 Fiedrich Miescher aisló nucleína de núcleos de células humanas de pus; hoy sabemos que esta nucleoproteína forma la cromatina. Posteriormente, en 1886, el citólogo norteamericano E. B. Wilson relacionó la cromatina con el material genético.
 
El siglo xx
 
Con el inicio del siglo xx se produjo una explosión de descubrimientos que revolucionaron a la ciencia de la genética y que continuaría a un ritmo vertiginoso. En la primera década se llevó a cabo la síntesis de los trabajos genéticos (hibridación experimental) y citológicos. Esta fusión simboliza a la genética en su mayoría de edad, iniciándose como una ciencia propia e independiente. Los albores del siglo xx iniciaron con el redescubrimiento de las leyes de Mendel por los trabajos de tres ilustres botánicos: Carl Correns, Hugo de Vries y Eric von Tschermak, a las que el británico William Bateson daría un gran impulso, generándose la integración de los estudios genéticos y citológicos. En 1902, Boveri y Sutton se percataron, de forma independiente, de la existencia de un estrecho paralelismo entre los principios mendelianos, recién descubiertos, y el comportamiento de los cromosomas durante la meiosis. En 1906, Bateson, quien en 1901 había introducido los términos alelomorfo, homocigoto y heterocigoto acuñó el término genética para designar "la ciencia dedicada al estudio de los fenómenos de la herencia y de la variación". En 1909 el danés Wilhelm Johannsen introdujo el término “gen” como “una palabra [...] útil como expresión para los factores unitarios [...] que se ha demostrado que están en los gametos por los investigadores modernos del mendelismo”.
 
 
 
Durante la segunda década de este siglo Thomas Hunt Morgan inició el estudio de la genética de la mosca de la fruta Drosophila melanogaster. En 1910 descubrió la herencia ligada al cromosoma X, así como la base cromosómica del ligamiento. Tres años después, A. H. Sturtevant construyó el primer mapa genético y en 1916 Calvin Bridges demostró definitivamente la teoría cromosómica de la herencia mediante la no disyunción del cromosoma X. En 1927 H. J. Muller publicó su trabajo en el que cuantifica, mediante una técnica de análisis genético, el efecto inductor de los rayos X de genes letales ligados al sexo en Drosophila. A principios de la década de los años treintas Harriet Creighton y Barbara McClintock, en el maíz, y Gunter Stern, en Drosophila, demostraron que la recombinación genética está correlacionada con el intercambio de marcadores citológicos. Todos estos descubrimientos condujeron a la fundación conceptual de la genética clásica. Los factores hereditarios o genes eran la unidad básica de la herencia, entendida tanto funcional como estructuralmente (la unidad de estructura se definía operacionalmente por la recombinación y la mutación). Espacialmente, los genes se encuentran lineal y ordenadamente dispuestos en los cromosomas como las cuentas en un collar.
 
Paralelamente a estos avances, un conflicto que había surgido en 1859 con la aparición de El origen de las especies de Darwin empezó a resolverse. Era el problema de la naturaleza de la variación sobre la que actúa la selección natural. Para esto, Darwin puso énfasis en la evolución gradual y continua que transforma la variación dentro de las poblaciones en variación entre poblaciones; otros, como Thomas Huxley, e inicialmente Galton (cuyo libro Natural Inheritance está considerado como fundador de la biometría) creían que la evolución ocurre de forma relativamente rápida y discontinua, por lo que la selección natural usaba principalmente variación discontinua, por lo que la variación continua no poseía ningún valor evolutivo a sus ojos. Con el fortalecimiento del mendelismo este antagonismo se acentuó hasta convertirse en un conflicto entre los biometristas, por un lado, apoyando la evolución discontinua o por saltos, y los mendelianos, por el otro, que estudiaban la variación en los caracteres físicos cuantitativamente y apoyaban la evolución darwiniana. Estos últimos tenían como cabeza teórica a Bateson, Morgan y Hugo de Vries, mientras que Karl Pearson y W. F. R. Weldom (junto con Galton, que se les unió ideológicamente después) fueron los puntales de la escuela biométrica. En medio de este conflicto, en 1908 se formuló la ley del equilibrio de Hardy-Weinberg, que relaciona las frecuencias génicas con las genotípicas en poblaciones panmícticas o con cruzamientos al azar, lo cual permite cuantificar la evolución. Entre los años 1918 y 1932 la polémica entre biometristas y mendelianos quedó resuelta finalmente: Ronald Fisher, Sewall Wright y J. B. S. Haldane llevaron a cabo la síntesis del darwinismo, el mendelismo y la biometría, y fundaron la teoría de la genética de poblaciones. De manera independiente, Fisher es el responsable directo, y en este sentido la historia (mito o realidad, no es claro todavía) dice que el comité de redacción del Proceedings of the Royal Society de Londres no publicó en 1916 el artículo de Fisher, por la aversión que el comité tenía contra todo lo que tuviera sabor mendelista. Y no fue sino hasta dos años más tarde que Transactions of the Royal Society de Edimburgo lo publicó. En este artículo Fisher desarrolla de manera sumamente elegante el modelo infinitesimal, que es la base de la genética cuantitativa teórica y aplicada a los programas de mejoramiento genético en animales y plantas. En su base teórica proporciona una magistral objetivación de la naturaleza de la variación continua de los caracteres cuantitativos, entendidos como aquellos cuya variabilidad observable se debe principalmente a la segregación de varios loci, que pueden ser modificados por la acción del ambiente. Lo relevante de esta propuesta radica en que los caracteres cuantitativos se pueden entender con una base genética mendeliana discreta. Kempthorne, discípulo de Fisher, reconoce no haberlo entendido en toda su expresión, lo cual lo llevó a escribir su libro An Introduction to Genetic Statistics, para ponerlo al alcance de los genetistas y en general como una propuesta entendible del razonamiento fisheriano desde el punto de vista cualitativo.
 
Por otro lado, el desarrollo de los modelos matemáticos de la acción de la selección natural quitó los velos en cuanto a si esta fuerza microevolutiva podía o no producir cambios importantes, incluso cuando sus coeficientes eran débiles: la selección volvió a adquirir un papel preponderante como proceso evolutivo directriz. Con la genética de poblaciones la teoría de la evolución se presenta como una teoría de fuerzas interactuantes: la selección, la mutación, la deriva genética, la endogamia y la migración. Éstas actúan sobre un acervo genético que tiende a permanecer invariable como consecuencia de la ley del equilibrio de Hardy-Weinberg, que a su vez es una extensión de la primera ley de Mendel (segregación independiente) a las poblaciones. Así, la genética de poblaciones se estableció como el núcleo teórico y el componente explicativo “duro” de la teoría de la evolución. Posteriormente, la integración de la genética de poblaciones con otras áreas como la biología de poblaciones, la sistemática y taxonomía, la paleontología, la zoología y la botánica, generaron durante el periodo comprendido entre 1937 y 1950 la teoría sintética de la evolución. En ésta se produce la mayor integración de disciplinas, nunca antes alcanzada, de una teoría evolutiva.
 
A partir de los cuarentas se aplicaron sistemáticamente las técnicas moleculares, con un éxito extraordinario en la genética. Para esto, el acceso al nivel molecular había comenzado y la estructura y función de los genes era el próximo frente del avance genético. En 1941 George Beadle y E. L. Tatum introdujeron la revolución de Neurospora, estableciendo el concepto de un gen una proteína, por lo que los genes son elementos portadores de información que codifican a las enzimas. En 1944 Oswald Avery, Colin McLeod y Maclyn McCarty demostraron que el "principio transformador" es el adn.
 
El año 1953 representa un momento culminante: James Watson y Francis Crick interpretaron los datos de difracción de rayos X de Maurice Wilkins junto con los resultados de la composición de bases nucleotídicas de Erwin Chargaff, concluyendo que la estructura del adn es una doble hélice, formada por dos cadenas orientadas en sentidos opuestos, esto es: antiparalelas. La estructura de tres dimensiones (3-D) se mantiene gracias a enlaces de hidrógeno entre bases nitrogenadas que se encuentran orientadas hacia el interior de las cadenas. Dicha estructura sugería, de un modo inmediato, cómo el material hereditario podía ser duplicado. Una estructura tan simple proveía la explicación al secreto de la herencia: la base material (adn), la estructura (doble hélice 3-D) y la función básica (portador de información codificada que se expresa y se transmite íntegramente entre generaciones); así, el fenómeno genético era, por fin, explicado. Por lo anterior, no debe sorprendernos que el descubrimiento de la doble hélice se considere el más revolucionario y fundamental de toda la biología; aunque en esta visión en mucho han influido las modas de máxima complejidad de sentirse “biólogo molecular” en los ochentas y noventas.
 
En 1958 Matthew Meselson y Franklin Stahl demostraron que el adn se replicaba de manera semiconservativa. El problema de cómo la secuencia del arn se traduce en secuencia proteica se empezaba a resolver. Un triplete de bases (codón) codifica un aminoácido. Inmediatamente se establece el flujo de la información genética: el Dogma Central de la Biología Molecular. Ese mismo año Arthur Kornberg aisló la polimerasa del adn y en 1959 Severo Ochoa aisló por vez primera el arn polimerasa, con lo que inicia la elucidación del código. En 1961 Sidney Brenner, François Jacob y Meselson descubrieron el arn mensajero. En 1966 Marshall Nirenberg y Har Gobind Khorana terminaron de develar el código genético. Paralelamente a estos descubrimientos, Seymour Benzer publicó sus primeras investigaciones sobre la estructura fina del locus rii en el fago t4. Años antes, en 1961, Jacob y Monod propusieron el modelo del operón como mecanismo de regulación de la expresión génica en procariontes. Charles Yanofsky demostró la colinearidad entre genes y sus productos proteicos, en 1964. Dos años después R. Lewontin, J. L. Hubby y H. Harris aplicaron la técnica de la electroforesis en gel de proteínas al estudio de la variación enzimática en poblaciones naturales, obteniéndose las primeras estimaciones de la variación genética de algunas especies. En 1968 hizo su aparición la teoría neutralista de la evolución molecular, introducida por M. Kimura, que da la primera explicación satisfactoria al exceso de variación genética encontrada en los datos de las electroforesis de enzimas en poblaciones naturales; para esto su propuesta es que gran porcentaje de esa variación es selectivamente neutra y, dado esto, la tasa de sustitución de bases o aminoácidos por mutación, es directamente proporcional a la tasa de evolución: nace el reloj molecular.
Con el inicio de la década de los setentas surgieron técnicas muy sofisticadas de manipulación directa del adn. Así, en 1970 se aislaron las primeras endonucleasas de restricción y H. Temin y D. Baltimore descubrieron la reverso transcriptasa (enzima típica de los retrovirus como el vih). En 1972, en el laboratorio de Paul Berg, se construyó el primer adn recombinante in vitro. El año 1977 fue muy importante, pues se publicaron las técnicas de secuenciación del adn de Walter Gilbert y de Frederick Sanger; Sanger y sus colegas publicaron, a su vez, la secuencia completa de cinco mil trescientos ochenta y siete nucleótidos del fago f x171; varios autores descubrieron que los genes de los organismos eucariontes se encuentran interrumpidos: descubren los intrones. En 1976 salió a la venta The Selfish Gene, del controvertido evolucionista Richard Dawkins; su planteamiento es sencillo: los cuerpos (soma) son efímeros en la evolución, lo que importa es la transferencia de los genes (germen) a las generaciones futuras; así, esta propuesta es un eco weismaniano en el tiempo.
 
Entre 1981 y 1982 fueron creados los primeros ratones y moscas transgénicos. A su vez, Thomas Cech y Sidney Altman, en 1983, descubrieron que el arn tiene funciones autocatalíticas. En ese año M. Kreitman publicó el primer estudio de variación intraespecífica en secuencias de adn del locus Adh (alcohol deshidrogenasa) de Drosophila melanogaster. A principios de la década de los ochentas R. Lande y S. Arnold introdujeron el análisis estadístico multivariado en los estudios de selección fenotípica y genotípica en la naturaleza. A mediados de esa misma década se iniciaron los estudios que abordan el problema de la conservación de la biodiversidad con una perspectiva genética, los cuales prevalecen hasta nuestros días. En 1986 Kary Mullis presentó la técnica de la reacción en cadena de la polimerasa (pcr). En 1990 Lap-Chee Tsui, Michael Collins y John Riordan encontraron el gen cuyas mutaciones alélicas son responsables directas de la fibrosis quística. Ese mismo año Watson y muchos otros lanzaron el proyecto del genoma humano, cuyo objetivo es mapear completamente el genoma de Homo sapiens y, finalmente, determinar la secuencia completa de bases nucleotídicas en esta especie que creó (por llamarle de algún modo) la ciencia genética.
Referencias bibliográficas
 
Berry, R. J. 1982. Neo-Darwinism. Londres, E. Arnold.
Bowler, P. J. 1983. The Eclipse of Darwinism: Anti-Darwinian Evolution Theories in the Decades Around 1900. Baltimore, Universidad John Hopkins.
Bowler, P. J. 1992. The Fontana History of Environmental Sciencies. Fontana Press.
Bowler, P. J. 1989. The Mendelian Revolution: The Emergence of the Hereditarian Concepts in Modern Science and Society. Londres, Athione.
Dunn, L. C. 1965. A Short History of Genetics. Nueva York, McGraw-Hill.
Gardner, E. J. 1972. History of Biology. 3a. ed. Nueva York, Macmillan.
Harris, L. 1981. Evolución. Génesis y revelaciones. Barcelona, Hermann Blume.
Mayr, E. 1982. The Growth of Biological Thought. Diversity, Evolution and Inheritance. Cambridge, Universidad de Harvard.
Moore, J. A. 1993. Science as a Way of Knowing. The Foundations of Modern Biology. Cambridge, Universidad de Harvard.
Olby, R. C. 1991. El camino hacia la doble hélice. Madrid, Alianza.
Olby, R. C. 1966. Origins of Mendelism. Londres, Constable.
Portugal, F. H. y J. S. Cohen. 1977. A Century of dna. Cambridge, mit Press.
Provine, W. B. 1971. The Origins of Theoretical Population Genetics. Chicago, Universidad de Chicago.
Stent, G. S. y R. Calendar. 1978. Genetics: An Introductory Narrative. 2a. ed. San Francisco, Freeman.
Stigler, S. M. 1986. The History of Statistics: The Measurement of Uncertainty Before 1900. Cambridge, Universidad de Harvard.
Stuble, H. 1972. History of Genetics. Cambridge, mit Press.
Sturtevant, A. H. 1965. A History of Genetics. Nueva York, Harper and Row.
Watson, J. D. 1968. La doble hélice. Barcelona, Salvat. 1987.
Watson, J. D. y J. Tooze. 1982. The dna Story. San Francisco, Freeman.
Jorge González Astorga
Instituto de Ecología, A. C.
_______________________________________________________________
 

como citar este artículo

González Astorga, Jorge. (2001). Breve cronología de la genética. Ciencias 63, julio-septiembre, 70-77. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Valores morales y valores científicos
 
Fernando Savater
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Me gustaría hablar en favor de la comunicación social de la ciencia y por qué desde mi punto de vista la comunicación social de la ciencia es algo importante. Existe una visión general del asunto que nos indica que tanto en el terreno científico como en el ético o moral se dan posturas contrapuestas, intuiciones diferentes, caminos divergentes o formas explicativas desiguales. De modo que aparece el debate. No se parte de una homogeneidad, de un acuerdo total, sino que existe un debate.
 
Lo que ocurre es que en el debate científico hay un árbitro enormemente eficaz. Y aunque no siempre fiable, ya que los oráculos de este árbitro son un poco oscuros, inescrutables, después de todo es el árbitro que zanja las cuestiones entre los científicos. Ellos pueden no ponerse de acuerdo entre sí, porque están sujetos a pasiones u obnubilaciones como el resto de los seres humanos, pero hay un árbitro que antes o después los pone de acuerdo y decide quién va por el buen camino y quién no. Y ese árbitro es la realidad, la realidad exterior.
 
La existencia de una realidad objetiva, externa, zanja las discusiones entre los científicos. Es una realidad que a veces cuesta interpretar porque no se da sin esfuerzo ni de una manera fácil, pero, en último término, el científico que acierta a utilizarla como argumento a su favor, obviamente, termina “llevándose el gato al agua” en cualquier debate con los científicos.
 
Esto hace que los enfrentamientos en el campo científico no sean nunca tan agónicos como lo son en el campo moral o ético, porque ahí la pelea siempre puede ser zanjada antes o después y, salvo casos de verdadera ofuscación irracional, todos terminan dándose cuenta de que esto es lo que hay y lo otro queda descartado, queda arrumbado por la contrastación con la realidad misma.
 
El problema del campo moral es que no existe una realidad moral objetiva como existe en el campo que trata o estudia el conocimiento científico. Por lo tanto, es fácil para cada uno de nosotros, o por lo menos tenemos una esperanza razonable, de que a la pregunta qué debo creer respecto de una cuestión que de hecho la ciencia o la historia puede verificar, tengo posibilidad de dar una respuesta convincente y de zanjar mi duda o las disputas que tengo con otro, mientras que la pregunta qué debo hacer probablemente seguirá siempre reducida a una dimensión mucho más subjetiva.
 
No estoy inventando grandes cosas, sigo la exposición clásica de Bernard Williams sobre estos temas. Si lo que quiero preguntarme es qué debo creer respecto, por ejemplo, de la altitud del Mulhacén, a si el estroncio es o no un metal, o si Wagner y Verdi se encontraron personalmente alguna vez, hay posibilidades de recurrir a una realidad que zanje mis dudas o que las aclare en buena medida.
 
Cuando me pregunto qué debo hacer en cuestiones morales, si, por ejemplo, es lícita la clonación humana o si bombardear un país es decente y bueno o no, ahí no hay una realidad exterior objetiva a la que pueda acudir para responder mis dudas.
 
En el fondo, lo que los teóricos anglosajones de la ética llaman “el argumento de la tercera persona”, es decir, ni tú ni yo, sino la tercera persona, la objetividad, no suele valer en el campo de la moral, que está siempre encerrado en la pugna entre el tú y el yo.
 
No quiere decir que esa pugna sea totalmente infranqueable a argumentos racionales. También en esas argumentaciones entre el tú y el yo existe la posibilidad de usar bases empíricas, de utilizar conocimientos sobre historia, economía, psicología, etcétera, que enriquecen el juicio moral. Pero, obviamente, nunca terminan por desembocar por sí mismos en un juicio moral.
 
Ningún conocimiento empírico por sí mismo desemboca en un juicio moral. Es decir, puedo saber cuántas personas civiles morirán si se bombardea determinado país, pero eso en sí mismo no es un juicio moral. Puedo ser más o menos preciso, puedo incluso conocer si esas personas civiles pertenecerán a determinadas capas sociales, si serán niños o no. Todo eso me completará el marco sobre el cual después debo juzgar, pero, evidentemente, ninguno de esos datos empíricos, ninguno de los conocimientos que han llevado a poder poseer armas destructivas de determinado alcance ni ningún otro tipo de conocimiento imaginable de este orden me pueden dar la solución moral a mi duda. La solución moral sólo la puedo exponer como una convicción razonada, pero nunca concluyente por el refrendo de una realidad moral comparable con la realidad objetiva exterior.
 
Y ésa es la gran dificultad de las argumentaciones éticas y morales. Por eso, el único equivalente que podemos buscar o encontrar a la realidad objetiva en el campo de la moral son las otras personas, los otros argumentadores en el momento de plantearnos las dudas de las cuestiones morales. Es decir, como no puedo acudir a una realidad moral en sí, podemos, a partir de los datos y de los conocimientos empíricos que aporten las diversas vías del conocimiento de la realidad, establecer un cierto debate entre sujetos, que nunca será plenamente objetivo, porque, como digo, está hecho por sujetos. Siempre recuerdo la lección de mi viejo amigo el poeta Pepe Bergamín, a quien reprochaba frecuentemente su arbitrariedad razonante, que a veces llegaba a lo caprichoso, pero siempre muy divertida y genial. Alguna vez le decía: “pero qué subjetivo eres, Pepe, es que eres incapaz de un mínimo de objetividad”, y él me decía: “mira, si yo fuera objeto, sería objetivo, pero como soy sujeto, soy subjetivo”. Algo de eso hay, es decir, como somos sujetos, necesariamente al hablar de los sujetos tenemos que ser subjetivos, tenemos que incluir criterios subjetivos en nuestra forma de pensar.
 
Esto es lo que en otras ocasiones he tratado de explicar cuando hablaba, repitiendo líneas de pensamiento comunes de nuestro tiempo, de la contraposición entre lo racional y lo razonable como dos vertientes posibles de la razón.
 
Lo racional es lo que nos faculta para el trato con los objetos, es decir, lo que hace al mundo inteligible y practicable.
 
El conocimiento científico nos acerca a los objetos y realidades de este mundo y nos los hace inteligibles y practicables. Esto es muy importante desde todo punto de vista, porque tiene unos ecos sociales en el bienestar, en el desarrollo, etcétera.
 
Para conocer racionalmente los objetos tenemos que conocer sus propiedades, de qué están hechos, a qué reaccionan, cuál es la causalidad que opera en ellos. Ése es el conocimiento racional de los objetos. En cambio, el reconocimiento de los sujetos es diferente, por eso utilizaba la expresión razonable y no racional. Razonable, porque dentro de nuestro conocimiento de los sujetos no solamente hay que incluir sus propiedades, la causalidad que opera en ellos o sus circunstancias objetivas, sino también sus deseos, proyectos, orientaciones o valoraciones propias, hacia dónde quieren ir, hacia dónde quieren llegar, cuál es su visión de las cosas o qué objetivos se proponen.
 
Todo eso cuenta si quiero tener una visión razonable del otro, si quiero tener una visión meramente racional en el sentido objetivista de los otros. No quiere decir que sea más científico, sino al contrario: me pierdo la dimensión verdaderamente propia y peculiar de los seres humanos que es tener dimensiones subjetivas, que no se puede contraponer a esa tercera persona que decide las cuestiones, puesto que son de alguna manera expresión de un mundo propio, o si queremos, de una libertad de opción.
 
Esa libertad de opción no se puede nunca terminar de prever ni de calcular. Antes se decía que el mundo era algo previsible y, evidentemente, es previsible saber dónde estará el día 14 de enero del año 2030 el planeta Marte. Lo que es difícil es saber dónde estará en ese momento una persona determinada que tenga una capacidad de opción sobre su propio destino, sobre su propio camino.
 
Prever aquello en lo cual sólo influyen causas mecánicas ya es difícil y complejo y se ha visto que hay estructuras más o menos disipativas y azarosas que intervienen en la realidad y que hacen que esos cálculos plenamente deterministas no puedan darse ni siquiera con los objetos. Pero no con los sujetos, en los que uno de los elementos que interviene es la voluntad propia y la de los otros; es decir, puedo interactuar con los otros sujetos, de tal manera que sus decisiones vayan en un sentido o en el otro, cosa que no me ocurre con el resto de la realidad.
Por lo tanto, es razonable saber que aunque puedo estudiar aspectos objetivos de los sujetos, también debo relacionarme subjetivamente con ellos porque es la forma de conocerlos e incluso de influir o actuar sobre ellos mejor.
 
De modo que los valores morales quieren ser valores razonables, no meramente racionales, pues no son constataciones meramente de hecho, sino que tienen esa otra dimensión de comprensión del mundo subjetivo. Obviamente, cuando se contraponen los valores científicos con los valores morales, a veces, hay un cierto encasillamiento por parte de los que piensan desde una perspectiva opuesta.
 
Existen visiones científicas que opinan que la visión objetiva del mundo no puede detenerse ni cortocircuitarse por consideraciones de lo meramente razonable, es decir, que lo racional es lo que tiene que seguir adelante y lo razonable está siempre teñido de superstición, de elementos atávicos, que antes o después deben ser desdeñados. Esta forma de ser refleja en esa frase que se suele repetir mucho cuando se discute sobre algún avance científico (que no progreso, porque mientras que el avance puede ser algo objetivamente comprobable, el progreso introduce elementos morales distintos) y se trata de valorar moralmente: siempre que alguien dice que es inútil discutir porque todo lo que puede hacerse científicamente se hará. Este tipo de planteamiento es muy común cuando se habla de la clonación.
 
Primero, es un argumento que tiene un fondo un poco absurdo, porque naturalmente los juicios éticos sólo pueden hacerse sobre lo que puede hacerse. Nadie se plantea problemas morales sobre lo imposible, por lo tanto, decir que todo lo que puede hacerse se hará, es anular toda la posibilidad de juicio de los seres humanos sobre las cosas que ocurren en el mundo y los procesos en los que ellos mismos están incursos, porque si verdaderamente Aristóteles no se planteó nunca el problema de la clonación es porque en su época no se podía hacer y los problemas morales sólo se plantean allí donde la acción humana puede intervenir.
Pero, por otra parte, se da al proceso científico un camino como si de alguna manera fuera sobre rieles, como si el proceso científico-tecnológico tuviera que seguir un camino determinado y que no pudiera ser juzgado, interpretado ni desviado.
 
Es verdad que a veces hay formas de progreso tecnológico que han despertado alarmas injustificadas en la sociedad. Recuerdo una vez que cayó en mis manos un libro muy divertido sobre las opiniones que tenían los psiquiatras ingleses del siglo pasado sobre los trastornos mentales que sufrirían las personas viajando en los primeros trenes. Parece que ver pasar por la ventanilla vacas a cuarenta kilómetros por hora hacía que uno llegara a Liverpool en un estado lamentable. O como la degeneración de las relaciones humanas que iba a traer el teléfono porque los seres humanos dejarían de hablarse unos a otros y sólo lo harían por teléfono (y eso que todavía no conocían los teléfonos móviles que realmente empieza a parecer un cierto peligro con respecto a aquello que antes se temió). Todos éstos son temores morales de grandes cambios morales y sociales que no han ocurrido y que no tienen mucha base.
 
Ahora bien, la invención de la bomba atómica y otras armas destructivas ha traído temores y dudas morales que creo están perfectamente justificadas; asimismo, la posibilidad de una restricta manipulación genética que convirtiese al ser humano en materia genética, o la idea de que los seres humanos provienen de una materia genética y no de una afiliación de hombres y mujeres, tiene, por supuesto, graves implicaciones éticas y morales y es justificado no tomar una postura crítica ni de aprobación sin más, sino obviamente una actitud de cuestionamiento y de debate. Es imposible que alguien diga: esto puede ser o esto debe ser, sobre todo si tomamos en cuenta la cuestión que decíamos del carácter necesariamente subjetivo de la actitud moral; subjetivo no quiere decir relativo o relativista o irracional, sino que no hay una posibilidad de referencia que todos deban asumir y que esté fuera de nosotros.
 
Pero el debate sí se puede establecer, sí hay razonamientos que hacer, por ejemplo, por decir una opinión mitológica que, no sé si tenga alguna base real, se atribuye a Werner von Braun, el padre de las v-1 y v-2 alemanas durante la Guerra Mundial, que cuando estaba trabajando en proyectos de la nasa que tenían que ver con cohetes espaciales, alguien le preguntó: “¿no siente remordimiento, preocupación, angustia por haber producido aquellos elementos destructivos que asolaron Londres?”, y éste contestó: “Mire, en aquel momento, como científico, mi problema empezaba simplemente cuando el cohete despegaba y acababa cuando el cohete caía, pero mi problema no concernía de dónde salía o a dónde llegaba después”. No sé si lo dijo. De todas maneras, esto en algún momento puede ser una tentación que reclama que la sociedad intervenga: nadie puede abstraerse así de la repercusión social de su trabajo, en el mero plano de la objetividad, desconociendo que vive entre seres dotados de subjetividad y por lo tanto no sólo racionales sino también razonables.
 
Esto hace que la moral no pueda convertirse en juez de la ciencia y que incluso intente bloquear caminos determinados de investigación, de conocimiento, puesto que el conocimiento siempre es positivo; saber dónde estamos y qué ocurre siempre es bueno.
 
Pero también es verdad que no se puede admitir simplemente que la ciencia es como una locomotora que va con los frenos rotos y por la vía a toda velocidad sin que nadie pueda detenerla. Ahí realmente hay una necesidad de debate, un ejercicio de humildad y profundización sobre los planteamientos valorativos y científicos y sobre la contraposición de ambos. En este sentido, es importante la comunicación social de la ciencia, porque es imposible realizar juicios morales mínimamente lícitos y lógicos si se desconoce absolutamente de lo que se está hablando. Por eso, a veces, respecto a cuestiones que el sensacionalismo pone de moda, hay unos debates feroces sobre la posibilidad de que miles de “hitleres” corran por el mundo y nadie se preocupa, o por lo menos muy pocos, de aclarar hasta qué punto se está discutiendo algo real, una extrapolación, una fantasía.
 
Creo que la comunicación social podría no dar la impresión falsa a la gente de que va a haber un tipo de realidad exterior que va a zanjar todas nuestras dudas morales. No va a suceder eso, porque no pertenece a ese campo la decisión moral de un ideal de vida, no pertenece a la realidad objetiva de la vida.
 
La ciencia trata de lo que es, y la moral de lo que debe ser. No corren por la misma pista. Naturalmente para saber lo que debe ser es necesario conocer lo que es y las posibilidades de transformación de los que es, pero el ideal o el proyecto de lo que debe ser no puede surgir simplemente del conocimiento de lo que es.
 
Por lo tanto, ahí hay que comunicar la base científica, incluso el hábito de razonamiento argumentado que la ciencia brinda, y que es importante para las discusiones, y saber que, en el campo moral, lo más parecido que existe a esa realidad exterior, tercera persona que zanja la cuestión entre el tú y el yo, es el conjunto del resto de la sociedad, el conjunto de los otros seres que pueden intervenir y argumentar de una forma sometida a la razón pero no exclusivamente con una visión objetivista sino también incluyendo proyectos, deseos, ambiciones, temores, etcétera.
 
Y hay un aspecto por el cual es muy importante la comunicación social de la ciencia. Creo que es falso el dilema entre ciencia sí y ciencia no. Es absurdo. El dilema es entre ciencia y falsa ciencia, entre ciencia y falsos sustitutos de la ciencia. Porque, como ciencia, tiene que haber un conocimiento orientado a la vez a lo inteligible y a lo practicable, a la comprensión y a la transformación o a la obtención a veces ávida de riquezas, placeres, posibilidades de actividad, etcétera. A partir de la existencia de estos elementos se va a buscar en la ciencia verdadera, una ciencia sometida a los parámetros de una racionalidad estricta, se va a buscar en el mundo de lo irracional, de lo fantástico, a veces incluso en el mundo de las supersticiones nocivas, dogmáticas, que van a darse por científicas. Pensemos que aberraciones como el racismo se han presentado como científicas, y aún quedan atisbos, por ejemplo, en la forma en que ciertos genetistas se refieren a las condiciones éticas o a las preferencias sexuales de las personas. Esta posibilidad de la falsa utilización de la ciencia es la razón por la que es necesario explicar la ciencia.
 
A veces, porque se ofrece como ciencia cualquier cosa, la palabra ciencia y científico ya es prestigiosa. Recuerdo cuando estuve en un kashba, en un país árabe, donde se ofrecían artesanías y objetos, y noté que los vendedores se acercaban entusiasmados gritando ¡video!, ¡video! Yo veía que eran objetos que nada tenían que ver con un video, hasta que me explicaron que la palabra video era como una cosa ponderativa.
 
A veces, decir que algo es científico, sea o no verdad que es científico, es algo que ya no se puede discutir y debatir. Por ejemplo, cuando venía en el avión leí unas declaraciones de Rouco Varela que defendía la asignatura de religión afirmando que no tienen nada que ver con un catecismo, sino que es una asignatura científica porque, aunque a nivel más o menos infantil, es una teología para niños. Claro, dice él, a ver quién se atreve a decir que la teología no es científica. No quisiera pecar de arriesgado y diría que, efectivamente, la teología es científica en el mismo sentido en que lo es, por ejemplo, el Manual de zoología fantástica de Jorge Luis Borges, obra deliciosa, interesantísima de lectura, pero sería muy raro que se diera como materia obligatoria en las facultades de ciencias biológicas. Por la misma razón que, pese al enorme interés y agrado que produce, el Manual de zoología fantástica de Borges debe ser leído en otro contexto y no en el de los estudios biológicos, quizás deberíamos reservar ese tipo de ciencia teológica para aficionados más decididos y las materias del bachillerato dedicarlas a la difusión social de la ciencia en el sentido habitual del término o de algunas cuestiones valorativas, como la ética ciudadana, que también tiene importancia y compromete la marcha de la sociedad.
 
Por eso es importante la difusión social, la comunicación social, la elucidación social de la ciencia. El científico no es brujo. A pesar de que pueda encerrarse, clausurarse, en realidad está actuando de la manera más pública del mundo porque lo está haciendo en el órgano que todos compartimos, que no es la genealogía ni la raza ni la tradición ni la lengua, sino la función racional.
 
Precisamente, a diferencia de los que dicen “escuchadme a mí, creedme, yo lo he visto”, el científico dice “ponte aquí, mira por dónde estoy mirando y lo verás tú también”. Eso es la difusión social que me parece importante tanto por sus contenidos como por la misma actitud de humildad y de sometimiento a la prueba, al racionamiento y, en caso de que la realidad no nos sirva para zanjar cuestiones morales, al menos al intercambio de aportaciones razonables, incluso ciertas
Ponencia Marco. Comunicar la Ciencia en el Siglo xxi. I Congreso sobre Comunicación Social de la Ciencia. Granada, marzo de 1999.

Fernando Savater
UniveNota
_______________________________________________________________

como citar este artículo
Savater, Fernando. (2001). Valores morales y valores científicos. Ciencias 63, julio-septiembre, 4-10. [En línea]
    Regresar al índice artículo siguiente
Invitación a las gemometrías no euclidianas
 
PortadaB6
Ana Irene Ramírez Galarza y Guillermo Sienra Loera
Las Prensas de Ciencias.
Facultad de Ciencias, unam.
   
HTML ↓ PDF ← Regresar al índice / artículo siguiente →
     
En este libro se cuenta la historia de los descubrimientos que cambiaron la forma del pensamiento en lo que respecta a los conceptos geométricos desarrollados por el ser humano desde la Antigüedad hasta el Renacimiento. Estos descubrimientos tomaron forma en lo que se ha llamado geometrías no euclidianas.
 
Una de las claves iniciales fue el concepto de paralelismo introducido formalmente por el matemático griego Euclides alrededor del siglo iii a. C. en su obra Elementos, uno de los libros más editados de todos los tiempos. Desde el punto de vista del gran geómetra Félix Klein, puede decirse que la geometría euclidiana estudia aquellas propiedades de los cuerpos que no cambian cuando los desplazamos, los rotamos o los reflejamos.
 
La evolución de la geometría fue muy pobre durante los veinte siglos siguientes a la época de Euclides, sobre todo por la falta de conceptos fundamentales tanto de las matemáticas como de los de límite y continuidad, y la falta de una notación adecuada en el álgebra. Pero hubo una contribución importante, no matemática, debida al cambio de filosofía que en todos los órdenes de la vida introdujo el Renacimiento. La preocupación renacentista por obtener un método para lograr una buena representación plana de escenas o cuerpos tridimensionales llevó a los
artistas plásticos a precisar las nociones de un punto de fuga (antecedente de los puntos al infinito en matemáticas) y de línea del horizonte, logrando con ello establecer las reglas del dibujo en perspectiva. Las peripecias que los artistas en su búsqueda de las reglas de la perspectiva y el camino de dichas reglas debieron recorrer hasta transformarse en conceptos matemáticos son parte de esta historia.
 
Los primeros resultados en geometrías no euclidianas fueron obtenidos por dos estudiosos de la lógica, Saccheri y Lambert. La parte dramática de la historia de las geometrías elíptica e hiperbólica fue lograr la declaración de su existencia por los científicos más reconocidos de entonces, pues existía la convicción de que la única geometría era la euclidiana, y parte del discurso de filósofos muy respetados se había interpretado en ese sentido. A la dificultad de entender el planteamiento matemático debió añadirse el miedo a los beocios, seguidores a ultranza de los filósofos mencionados. Una vez extendida la noción de geometría, y habiendo superado el concepto euclidiano del espacio, se planteó su desarrollo a través de los trabajos de Bernhard Riemann, y su unificación a través de las ideas de Klein, quien finalmente define a la geometría como el estudio de los invariantes bajo un grupo de transformaciones.
 
Fragmento de la introducción.
_______________________________________________________________
 

 

como citar este artículo

Ramírez Galarza, Ana Irene y Sienra Loera, Guillermo. (2001). Invitación a las geometrías no euclidianas. Ciencias 63, julio-septiembre, 78. [En línea]
 
← Regresar al índice / artículo siguiente →
  P01 P02  
 
 
     
Espacio, tiempo y realidad.
De la física cuántica a la metafísica kantiana
 
 
Shahen Hacyan
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La Crítica de la razón pura de Kant empieza con la frase: “No hay duda de que todo nuestro conocimiento comienza con la experiencia”. Pero unos renglones más abajo, su autor precisa: “Si bien todo nuestro conocimiento comienza con la experiencia, de ningún modo se infiere que todo se origine de la experiencia. Por el contrario, es muy posible que nuestro conocimiento empírico sea una combinación de aquello que recibimos a través de nuestros sentidos, y aquello que la capacidad de cognición proporciona por sí misma”. Dicho de un modo más cercano a nuestra experiencia moderna, el cerebro tiene que venir con algún programa “de fábrica” que nos permita procesar los estímulos captados por los sentidos; un programa con el cual podamos ordenar la experiencia sensorial y darle coherencia a nuestras percepciones. Si no tuviéramos ese programa, sólo percibiríamos una sucesión interminable y abigarrada de estímulos del mundo exterior.
 
Kant postuló la existencia de cosas inaccesibles a los sentidos, a las que llamó cosas-en-sí, que forman parte de una realidad que existe independientemente de la conciencia. Las cosas-en-sí no son directamente perceptibles, pero producen sensaciones en nuestra mente, con las cuales ésta reconstruye la realidad. La tesis de Kant es que el espacio y el tiempo no se encuentran en el mundo de las cosas-en-sí, sino que forman parte de nuestro aparato de cognición. El espacio y el tiempo son formas de percepción. El espacio nos permite la intuición del mundo exterior, mientras que el tiempo nos permite ordenar el mundo interior de nuestros pensamientos.
Si Kant tenía razón es algo que todavía está sujeto a discusión. Por ahora, sólo podemos decir que su concepción del mundo no está en contradicción con la teoría de la relatividad y la mecánica cuántica. Estas dos teorías fundamentales de la física moderna, que, desde perspectivas distintas, cambiaron radicalmente nuestras ideas sobre el espacio, el tiempo y la causalidad, parecen confirmar la tesis de Kant hasta cierto punto.
 
Tiempo
 
Después de que Newton postulara la existencia de un tiempo absoluto, los físicos no se preocuparon demasiado por el concepto del tiempo. Sin embargo, era evidente que las ecuaciones de Newton, que describen la evolución dinámica de un sistema físico, no cambian su forma si se invierte en ellas el sentido del tiempo. Los planetas del Sistema Solar podrían girar en un sentido o en otro, sin que un observador lejano que filmara el curso de los astros pudiese determinar si está observando la película proyectada al derecho o al revés.
 
El asunto empezó a preocupar a los físicos en el siglo xix cuando surgió la termodinámica, inicialmente para describir el funcionamiento de las máquinas de vapor. Un concepto fundamental de la termodinámica es la entropía, que es, en cierta forma, una medida de la energía que ya no se puede aprovechar (por ejemplo, el calentamiento de una máquina por la fricción de sus partes es, en cierta forma, energía desperdiciada). La segunda ley de la termodinámica postula que la entropía debe aumentar, o permanecer al menos constante, a medida que transcurre el tiempo. Ésta es la única ley de la física clásica en la que aparece una distinción entre pasado y futuro, pero es una ley empírica. Ni las ecuaciones de la mecánica, ni ninguna ley fundamental de la física implican que exista una dirección del tiempo; pasado y futuro son sólo conceptos relativos. Y sin embargo, la experiencia nos enseña todo lo contrario…
 
Mucho físicos del siglo xix trataron de demostrar la segunda ley de la termodinámica a partir de principios fundamentales, pero Ludwig Boltzmann es el único a quien se le puede adjudicar un éxito parcial. Boltzmann creía firmemente en la existencia de las moléculas y desarrolló lo que se conoce actualmente como la teoría cinética, rama de la física que estudia el comportamiento estadístico de sistemas compuestos de un número muy grande de partículas en interacción. Las moléculas se mueven y chocan unas con otras constantemente, intercambiando energía entre ellas. Boltzmann mostró que la segunda ley se puede demostrar a partir de este movimiento azaroso y de principios estadísticos: el tiempo transcurre en un sentido, del pasado al futuro, porque es inmensamente más probable que suceda así. Si no sucede al revés, no es porque sea imposible, sino porque es inmensamente improbable.
 
Tomemos el ejemplo de un vaso de agua cuyo contenido se derrama en el suelo. Éste es un proceso muy probable y ocurre comúnmente. Pero a nivel microscópico el charco en el suelo está formado de billones de billones de moléculas que se mueven azarosamente. En principio, podría suceder que estas moléculas, por pura coincidencia, coordinaran sus movimientos espontáneamente de tal suerte que brincaran de regreso al vaso. Este proceso es muy improbable, por lo que nunca lo observamos. Es tan improbable como ganar la lotería en un sorteo en el que el número de billetes se escribe con varios trillones de dígitos (en comparación, el número de átomos en el Universo visible no necesita más de ochenta dígitos para escribirse).
En cambio, para una molécula sola, la probabilidad de que “caiga” desde una altura de un kilómetro es casi la misma de que regrese espontáneamente a esa altura, debido al choque con otras moléculas. ¡Gracias a que la segunda ley de la termodinámica no se aplica a moléculas, existe la atmósfera que respiramos!
 
Así estaba la situación cuando, en 1905, Albert Einstein presentó la teoría de la relatividad. En esta teoría no existe un tiempo absoluto, sino lapsos que dependen de cada observador. Einstein mostró que existe una conexión básica entre espacio y tiempo, y que un intervalo de tiempo o una sección de espacio pueden variar según el observador, de modo tal que la duración de los procesos depende del sistema de referencia desde el cual se observan. Por ejemplo, el tiempo transcurrido en una nave espacial que se mueve (con respecto a la Tierra) a una velocidad muy cercana a la de la luz es sustancialmente menor al tiempo medido por los que se quedan en la Tierra: los viajeros pueden regresar y encontrarse a sus hijos o nietos más viejos que ellos mismos. Este efecto se ha comprobado perfectamente para las partículas subatómicas generadas con velocidades muy grandes (el tiempo del viajero se contrae con respecto al tiempo del observador fijo, por un factor ÷1–(v/c)2, donde v es la velocidad del viajero).
 
A pesar de lo espectacular que es la relatividad del tiempo predicha por la relatividad de Einstein, esta teoría no explica el fluir del tiempo, como tampoco lo hace la física newtoniana. Por eso, quizás, en ese aspecto es más fundamental la teoría de Boltzmann, con su énfasis en la manifestación estadística de los procesos microscópicos.
 
El punto esencial es que para una partícula del mundo atómico no existe distinción entre pasado o futuro. Este hecho se manifiesta en una forma muy espectacular si tomamos en cuenta a las antipartículas. En el mundo de las partículas subatómicas existe una simetría tal que a cada partícula le corresponde una antipartícula, con esencialmente las mismas características, excepto la carga eléctrica, que es de signo contrario; por ejemplo, al electrón le corresponde, como antipartícula, el positrón, que es idéntico al electrón excepto por su carga positiva. Pero la simetría es completa sólo si se incluye el espacio y el tiempo. Más precisamente, se puede demostrar rigurosamente, en el marco de la teoría cuántica de las partículas elementales, que las leyes de la física permanecen inalteradas si se invierten el espacio y el sentido del tiempo, y se intercambian simultáneamente partículas por antipartículas. Dicho de otro modo, una antipartícula se comporta exactamente como una partícula, vista en un espejo, que viaja hacia atrás en el tiempo.
 
En resumen, el tiempo surge sólo cuando percibimos sistemas de billones de billones de átomos (como son todas las cosas que observamos directamente).
 
Nace el cuanto
 
El nacimiento de la mecánica cuántica se puede situar en diciembre de 1900, cuando Max Planck demostró que la radiación de los llamados cuerpos negros (esencialmente un horno cerrado en equilibrio térmico) podía explicarse con la suposición de que la luz se propaga en paquetes de energías. Pero lo que para Planck era sólo un truco matemático resultó tener una profunda implicación. Cinco años después de la publicación de su trabajo, el entonces joven y desconocido Albert Einstein mostró que el efecto fotoeléctrico podía explicarse muy bien suponiendo que la luz está hecha de partículas de energía pura. Por si fuera poco, en 1913, Niels Bohr se basó en el mismo concepto de Planck para formular su teoría del átomo y explicar el espectro de la luz emitida por el hidrógeno; en el modelo de Bohr, los electrones se encuentran sólo en ciertas órbitas alrededor del núcleo atómico, y la emisión de luz ocurre en paquetes de energía cuando un electrón brinca de una órbita a otra.
 
Los físicos estaban perplejos: después de un largo debate, que se remonta a los tiempos de Newton y Huygens, y habiéndose finalmente convencido de que la luz era una onda, ésta resultaba ser más bien una partícula. La solución del problema (o más bien su disolución, como diría Feyerabend) llegó en 1924, cuando Louis de Broglie propuso la hipótesis de que todos los objetos del mundo atómico tienen propiedades tanto de onda como de partícula. La luz no es una excepción a esta regla: la partícula de la luz —que ahora llamamos fotón— también se comporta como onda.
 
Esta dualidad propia de los objetos atómicos condujo a Bohr a plantear su Principio de Complementariedad. Si diseñamos un experimento para ver un electrón en cuanto partícula, éste no manifestará ningún comportamiento de onda; y viceversa. La intervención del observador —o más específicamente: el diseño del experimento— obliga a los objetos atómicos a manifestarse de una u otra forma, incompatible la una con la otra.
 
La complementariedad se manifiesta en el famoso Principio de Incertidumbre de Heisenberg. Se trata de la incertidumbre asociada a la medición simultánea de dos propiedades complementarias de un sistema, como pueden ser la posición y la velocidad, la energía y el tiempo… o las propiedades de onda y partícula. Implica que la precisión de una medición es a costa de la precisión de otra medición.
 
Lo esencial del principio de Heisenberg no es que haya una incertidumbre en una medición —cosa inevitable incluso en la física clásica—, sino que la observación de un sistema atómico, hecha por un sujeto humano, tenga consecuencias sobre su realidad objetiva. Por ejemplo, si decido medir con absoluta precisión la velocidad de un electrón, entonces el electrón puede estar en cualquier lugar del Universo: la velocidad adquiere realidad física, a costa de que la pierda la posición. Y viceversa si prefiero medir la posición con absoluta precisión. El principio de incertidumbre vuelve indefinida la frontera entre sujeto y objeto.
 
Realidad y causalidad
 
En 1930, el formalismo matemático de la mecánica cuántica había sido plenamente establecido, pero las interpretaciones filosóficas eran objeto de acalorados debates. De acuerdo con la interpretación de Copenhague —ciudad natal de Niels Bohr, su principal proponente—, un átomo (o una partícula como el electrón) puede estar en varios estados simultáneamente. Es el acto de observarlo el que lo obliga a pasar a uno de esos estados y manifestarse en él. Esta interpretación pone especial énfasis en la inseparabilidad del sujeto y del objeto, de modo tal que el concepto de realidad objetiva pierde su sentido obvio; pues ¿qué es esa realidad antes de hacer una observación? Es el acto de observar lo que asigna realidad a las cosas.
 
En la mecánica cuántica, un sistema se describe por su función de onda, que es la solución de Schrödinger, la ecuación fundamental de los fenómenos cuánticos (no relativistas). Pero, de acuerdo con la interpretación de Copenhague, la función de onda describe el conjunto de todos los posibles estados de un sistema físico en condiciones específicas. El hecho de hacer una medición equivale a forzar al sistema a manifestarse en uno de esos posibles estados, y el conocimiento total de la función de onda permite calcular sólo la probabilidad de que ese estado sea el resultado de la medición efectuada.
 
La función de onda no permite saber cuándo un sistema pasará de un estado a otro; sólo permite saber cuál es la probabilidad de que lo haga. En los átomos, los electrones pueden efectuar “saltos cuánticos” de una órbita a otra, sin que se pueda, por cuestiones fundamentales, predecir cuándo lo harán. Éste es el indeterminismo que tanto molestaba a Einstein, quien, años después, afirmaría que él no podía creer en un “Dios que juega a los dados”.
 
La indeterminación del estado de un sistema se debe al acto de observar y medir, porque hay un límite a la certidumbre con la que se puede conocer el estado de un sistema físico. Este límite es inherente a todo proceso de medición y está relacionado con el principio de incertidumbre de Heisenberg. Como lo señaló él mismo, mientras no se interfiera con un sistema por medio de la observación, la función de onda de ese sistema físico contiene todas las posibilidades en “potencia”, en el sentido utilizado por Aristóteles. Cuando un observador toma conciencia del resultado de una observación, se produce una “reducción” del conjunto de posibilidades, que equivale a una transición brusca de lo posible a lo real. Por lo tanto, las probabilidades que describe la función de onda son probabilidades que se anticipan a una posible medición. En ese sentido, son “probabilidades en potencia” que no afectan la precisión con la que se puede estudiar el estado de un sistema.
 
En la mecánica clásica, si se conocen la posición y la velocidad iniciales de cualquier sistema físico, las ecuaciones de movimiento permiten calcular, al menos en principio, sus posiciones y velocidades en cualquier otro momento posterior. En este sentido, la mecánica clásica es una teoría causal: a cada causa corresponde un efecto, y este efecto es susceptible de conocerse. La física clásica es una teoría completa, aun si, en la práctica, debamos recurrir a una descripción aproximada cuando se trata de sistemas muy complicados.
 
La mecánica cuántica, de acuerdo con Bohr y Heisenberg, también es una teoría causal y completa, pero la intervención de un observador introduce una incertidumbre inevitable. Sólo se puede calcular la probabilidad de obtener un cierto resultado en una medición. Una vez más, lo anterior conduce a cuestiones filosóficas fundamentales sobre la existencia de la realidad objetiva y la causalidad.
 
¿Existe contradicción entre la causalidad física y la libre voluntad? Ésta es una vieja discusión filosófica. Para Kant, la causalidad de la física newtoniana (la que él pudo conocer en su tiempo) no implica una falta de libertad para las acciones humanas. La solución de esta aparente contradicción, según él, radica en el hecho de que “un objeto puede tomarse en dos sentidos; primero, como un fenómeno, segundo, como una cosa en sí”; pero el principio de causalidad se refiere sólo al fenómeno. Las cosas en sí están fuera del tiempo y no obedecen a leyes causales.
Cabe mencionar que la incertidumbre propia de la mecánica cuántica ha sido retomada por científicos modernos para afirmar la libertad del pensamiento. Así, John Eccles, destacado neurofisiólogo que estudió los procesos de sinapsis en el cerebro humano, argumentó que éstos se rigen por las leyes cuánticas, dejando así margen para la voluntad de la mente humana.
 
El gato de Schrödinger
 
Así pues, un sistema atómico estaría en todos sus posibles estados mientras no sea observado. El asunto no está exento de paradojas, como hizo notar el mismo Schrödinger al proponer la siguiente situación. Supongamos que ponemos un núcleo radiactivo en una caja: si nadie lo observa, el núcleo está en dos estados simultáneamente: ha emitido y no ha emitido radiación. Si ponemos ahora un detector Geiger que, a su vez, acciona un mecanismo que destapa una botella con gas venenoso, y colocamos un gato en la caja, el felino estará en dos estados: vivo o muerto.
 
¿Por qué no se manifiesta un gato de Schrödinger en nuestro mundo macroscópico? La situación se aclaró sólo en años recientes: la respuesta debe buscarse en un fenómeno conocido como “decoherencia cuántica”. Cuando un sistema está en interacción con un aparato macroscópico de medición o, en general, con su entorno, la función de onda pierde la coherencia entre sus diversas partes y se transforma rápidamente en una suma estadística; por ejemplo: tal probabilidad de que el gato esté vivo o de que esté muerto.
 
En el mundo de los átomos, en cambio, la decoherencia es muy lenta en comparación con los tiempos característicos de los procesos atómicos y, en consecuencia, se puede tener superposiciones simultáneas de diversos estados. En 1997, un equipo de físicos logró construir un estado como el del gato de Schrödinger, pero utilizando un átomo en lugar de un felino; el mismo átomo apareció en dos posiciones simultáneamente, separadas por una distancia de ochenta nanómetros, mucho mayor que el tamaño de un átomo. El experimento se ha repetido también para estados de fotones, siendo posible incluso rastrear la decoherencia, y más recientemente con estados de corrientes en superconductores.
 
Un concepto básico de la mecánica cuántica, como lo es el principio de superposición, podría conducir a posibles aplicaciones tecnológicas. El tamaño de los circuitos electrónicos de las computadoras ha ido disminuyendo con los años y, de seguir esta tendencia, es posible que en unas cuantas décadas los mismos átomos se puedan utilizar como componentes. Las nuevas computadoras se regirían entonces por las leyes de la mecánica cuántica, con la posibilidad de hacer cálculos en paralelo, en estados superpuestos. Incluso, se conocen ya algunos algoritmos que permitirían efectuar operaciones que quedan fuera del alcance de las computadoras actuales. Las computadoras cuánticas, si llegaran a concretarse, serían los dignos herederos del gato de Schrödinger, ya que funcionarían con base en el mismo principio. Incluso se puede especular que una computadora cuántica podría reproducir más fielmente el comportamiento del cerebro.
 
Espacio
 
La interpretación de Copenhague no fue del agrado de todos los físicos. Entre sus críticos más severos destaca nada menos que Einstein. El creador de la teoría de la relatividad siempre pensó que la mecánica cuántica, cuyos éxitos son innegables, era una etapa previa a una teoría del mundo más profunda, que habría de surgir en el futuro y que le daría lugar a una concepción de la realidad más acorde con nuestras ideas intuitivas.
 
Einstein, junto con sus colegas Podolsky y Rosen, ideó un experimento mental en el que dos partículas atómicas están inicialmente en interacción y, en algún momento, se separan. De acuerdo con la mecánica cuántica, si uno mide la posición de una de las partículas puede deducir la posición de la otra y asignarle, así, realidad física a las posiciones en el espacio tanto de una como de la otra partícula. Del mismo modo, midiendo la velocidad de una, puede deducirse la velocidad de la otra, y así asignarle realidad física a las velocidades de las dos. Lo paradójico del asunto es que la separación entre las dos partículas es totalmente arbitraria, a pesar de lo cual, la medición de una partícula determina la realidad física también de la otra. La mecánica cuántica implica entonces la existencia de una “acción fantasmal”, declaró Einstein algunos años más tarde.
 
El meollo del asunto consiste en que dos o más partículas atómicas pueden, en general, estar en lo que se llama un “estado enredado”, lo cual no tiene equivalente en el mundo macroscópico. En tal estado, la distancia espacial entre dos partículas no juega ningún papel; el hecho de hacer una medición en una influye instantáneamente en la otra, aun si las dos se encuentran en extremos opuestos de nuestra galaxia. Tal “comunicación” instantánea viola uno de los principios fundamentales de la teoría de la relatividad: nada puede viajar más rápido que la luz. Pero tal parece que el espacio no tiene existencia en el mundo cuántico.
 
El asunto se habría quedado en el reino de los experimentos mentales si no fuera porque, en 1965, John Bell encontró una manera cuantitativa de comprobar si efectivamente existe la acción fantasmal. Si dos fotones son emitidos por un átomo en direcciones opuestas, se puede medir la probabilidad de que cada fotón tenga una cierta polarización. La mecánica cuántica predice que, para dos fotones en estado enredado, la probabilidad de medir un cierto ángulo de polarización en un fotón depende de lo que un observador lejano decida medir en el otro fotón. Las interacciones cuánticas se producen como si hubiera una transmisión instantánea de información. Esto parece contradecir la teoría de la relatividad, pero hay que recordar que las partículas no tienen realidad física antes de ser detectadas; sólo después de realizar las mediciones y comparar los datos es posible deducir que una partícula “supo” instantáneamente lo que le sucedió a su compañera lejana. Bell mostró que es posible cuantificar la correlación entre los fotones, de tal modo que es posible distinguir tajantemente entre la predicción de la mecánica cuántica y cualquier otra que no implique la existencia de la acción fantasmal.
 
En 1982 fue realizado por primera vez, en un laboratorio francés, un experimento con parejas de fotones emitidos en direcciones opuestas. Al medir las correlaciones entre los ángulos de polarización de los fotones se encontró un resultado que, de acuerdo con la predicción de Bell, confirmaba la interpretación de Copenhague. La existencia de la acción fantasmal quedó así confirmada. Por si quedaban dudas, el mismo tipo de experimento se repitió en 1997, en Ginebra, enviando los pares de fotones por medio de fibras ópticas, a dos regiones separadas diez kilómetros: una vez más, los resultados confirmaron la predicción de la física cuántica.
 
Así pues, en el mundo de los átomos donde rigen las leyes de la física cuántica suceden cosas muy extrañas que ponen en entredicho los mismos conceptos de espacio y tiempo. El espacio pierde su sentido habitual y se manifiesta por la intervención del sujeto que observa. Los experimentos en las últimas dos décadas han establecido plenamente la existencia de una interacción que no respeta ninguna separación espacial.
 
Para que quede claro que la filosofía tiene aplicaciones tecnológicas, señalaremos que el tipo de correlación propuesto por Einstein y colaboradores puede utilizarse hasta cierto punto para transmitir información de un lugar a otro. Esta aplicación de la física cuántica ya se ha vuelto realidad. El método consiste en transportar por medios convencionales una parte de la información (por ejemplo, la mitad de los “bits” necesarios para reconstruir una imagen o un texto) y el resto por interacción cuántica.
 
Siguiendo con esta idea, el año 2000 empezó con el anuncio espectacular de una aplicación más de la “acción fantasmal”: la criptografía cuántica. Tres equipos de científicos lograron desarrollar, en forma independiente, las técnicas para crear claves por medio de transmisiones cuánticas. En este esquema se envían, por fibras ópticas, pares de fotones en estados enredados a dos receptores distintos; éstos miden las polarizaciones de los fotones variando el ángulo de sus respectivos polarizadores en forma aleatoria; después, se comunican por medios tradicionales (y públicos) sus ángulos de polarización y una parte de sus mediciones; la otra parte de sus mediciones, la que no revelan, les sirve para generar un número clave.
 
La idea esencial es que el número clave, generado en dos lugares distintos, sólo puede ser reconstruido por sus receptores y sólo ellos lo conocen. Por lo tanto, lo pueden utilizar para codificar y descodificar los mensajes que quieran intercambiarse. El método tiene la gran ventaja de ser totalmente a prueba de espías, ya que la información enviada por los canales públicos para construir la clave es incompleta y tiene que combinarse forzosamente con los fotones enredados. Si algún intruso intercepta esos fotones, les asigna realidad física antes de que lleguen a sus destinatarios legítimos y revela, de esa forma, su fechoría.
 
Gödel, Einstein, Kant
 
Kurt Gödel es bien conocido por un famoso teorema. El teorema de Gödel muestra la imposibilidad de construir un sistema lógico libre de contradicciones, en el que cualquier proposición pueda probarse o refutarse.
 
Los trabajos de Gödel sobre lógica matemática se remontan a los años treintas, cuando él trabajaba en la Universidad de Viena. Al empezar la Segunda Guerra Mundial, Gödel huyó de Austria y llegó a Estados Unidos, donde se estableció en la Universidad de Princeton. Allí conoció a Albert Einstein, otro ilustre refugiado político, y los dos científicos desarrollaron una estrecha amistad que habría de perdurar hasta la muerte del gran físico en 1955.
 
Seguramente influenciado por su amigo Einstein, Gödel empezó a interesarse en la teoría de la relatividad general durante su estancia en Princeton. Esta teoría postula que la gravitación se debe a la curvatura del espacio-tiempo, espacio de cuatro dimensiones que posee una geometría no euclidiana; la distribución de la materia en el Universo determina su geometría. Como una de las primeras aplicaciones de su teoría, Einstein había propuesto, años atrás, un modelo de universo en el que el espacio se cierra sobre sí mismo, al igual que la superficie de una esfera, de tal modo que si una nave espacial viaja siempre en la misma dirección, daría la vuelta al universo y regresaría a su punto de partida.
 
En 1947, Gödel publicó un trabajo sobre relatividad general que, hasta la fecha, sigue despertando interés por sus extrañas implicaciones. Se trata de una solución de las ecuaciones de Einstein que representa un universo en rotación. Lo curioso es que, en el universo de Gödel, es posible dar la vuelta y regresar no sólo al mismo punto en el espacio —tal como en el universo de Einstein—, sino también al mismo instante en el tiempo. En otras palabras, en el universo de Gödel existen trayectorias de eterno retorno, sin distinción entre pasado y futuro.
 
La conclusión principal de Gödel no es tanto que se pueda construir una máquina del tiempo, ya que, para entrar en un ciclo eterno, una nave espacial tendría que moverse a una velocidad cercana a la de la luz y recorrer una distancia comparable al radio del Universo. La implicación esencial es que la distinción entre pasado y futuro no está implícita en la teoría de la relatividad, ya que esta teoría no excluye el eterno retorno. El sentido del tiempo debe buscarse en algún otro principio fundamental.
 
Con motivo del septuagésimo aniversario de Einstein, Gödel escribió un ensayo filosófico en el que, con base en la teoría de la relatividad, analiza la idea de Kant de que el tiempo no es más que una forma de percepción. Gödel hace notar que la teoría de Einstein elimina la noción de un tiempo absoluto y el concepto de simultaneidad, lo cual, para Gödel, es una evidencia de que el tiempo no tiene una realidad objetiva. Incluso, esta teoría ni siquiera excluye la posibilidad de un tiempo circular, como muestra la existencia de la solución que él encontró. Así, concluye: “Tenemos una prueba inequívoca para el punto de vista de aquellos filósofos como Parménides, Kant, y los idealistas modernos, que niegan la objetividad del cambio y consideran a éste una ilusión o una apariencia producto de nuestro modo especial de percepción”.
 
En su respuesta al planteamiento de su amigo, Einstein reconoce la seriedad del problema. El hecho de que el futuro no pueda influir causalmente sobre el pasado está relacionado con la ley del aumento de la entropía, pero, dice Einstein, eso sólo se aplica a dos sucesos suficientemente cercanos. Decir que un suceso a antecede un suceso b tiene sentido físico gracias a esta ley, pero no es evidente, reconoce Einstein, que el orden causal siga teniendo sentido si a y b están muy separados entre sí en el espacio, como sucede en el universo de Gödel.
 
Gödel dejó después de su muerte varios manuscritos entre los cuales se cuentan varias versiones previas del ensayo mencionado. En esos manuscritos presenta una concepción más detallada de su posición con respecto a la filosofía de Kant, que, por alguna razón, no se decidió a hacer pública en su momento. Gödel manifiesta estar de acuerdo parcialmente con Kant: admite su concepción del tiempo como una forma de percepción, pero duda que lo mismo se pueda aplicar al espacio. Sin embargo, hay que recordar que Gödel escribió en una época en la que todavía no se había establecido plenamente la existencia de la acción fantasmal, que conduce a replantear el concepto de espacio, como mencionamos más arriba.
 
Empero, Gödel señala claramente su posición personal sobre la existencia de las cosas-en-sí, cuyas similitudes con las cosas del mundo cuántico no se le escapan. Los átomos son inaccesibles directamente a nuestros sentidos, y su existencia es ajena al espacio y al tiempo. Al respecto, Gödel considera que el punto de vista de Kant “debe ser modificado si uno quiere establecer acuerdo entre su doctrina y la física moderna; es decir, debe presuponerse que el conocimiento científico es capaz, al menos parcialmente y paso por paso, de ir más allá de las apariencias y aproximarse al mundo de las cosas”.
 
•••
 
“Es sólo desde el punto de vista humano que podemos hablar de espacio, objetos extendidos, etc.”, escribió Kant. La física cuántica no contradice esta afirmación: los objetos del mundo atómico no tienen dimensión o extensión, sólo algunos parámetros específicos como la masa, la carga eléctrica o el espín; son objetos que a veces se comportan como partículas y a veces como onda, dependiendo de cómo el sujeto decide observarlos. Electrones o fotones pueden estar simultáneamente en varios puntos del espacio e influir unos en otros como si el espacio y el tiempo no existieran para ellos; como fenómenos, sólo existen para nosotros, que los percibimos con nuestros sentidos, con el intermedio de aparatos de medición que extienden nuestras posibilidades sensitivas en forma extraordinaria.
 
Kant no podía prever los avances de la ciencia moderna, pero seguramente le habría gustado ver cómo la física cuántica y la teoría de la relatividad lograron penetrar en un mundo cuyos objetos recuerdan tanto a las cosas-en-sí. Un mundo donde tiempo, espacio y causalidad no tienen el carácter que les asignamos comúnmente.
Referencias bibliográficas
 
Aspect, A. et al., 1982. “Experimental Realization of the Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A New Realization of Bell´s Inequalities”, en Physical Review Letters, 49, 91.
Aspect, A. et al. 1982. “Experimental Test of Bell´s Inequalities Using Time-Varying Analyzers”, en Physical Review Letters, 49, 91. 1804.
Bell, J. 1965. Physics, 1, 195.
Bell, J. 1987. Speakable and Unspeakable in Quantum Mechanics. Cambridge.
Blatter, G. 2000. “Schrödinger´s Cat is Now Fat”, en Nature, 406, 25.
Bohm, D. 1951. Quantum Theory. Prentice Hall.
Bohr, N. Philosophical Writings, vols. i, ii y iii. Ox Bow Press.
Bouwmester, D., A. K. Ekert y A. Zeilinger. 2000. The Physics of Quantum Information.
Brune, M. et al. Observing the Progressive Decoherence of the “Meter” in a Quantum.
Eccles, J. C. 1994. How thw Self Controls its Brain. Springer-Verlag.
Einstein, A., B. Podolsky y N. Rosen. 1935. “Can Quantum Mechanical Description of Reality be Onsidered Complete?”, en Physical Review, 47, 777.
Gödel, K. 1949. “A Remark About the Relationship Between Relativity Theory and Idealistic Philosophy”, en P. Schilpp, ed. Albert Einstein: Philosopher Scientist.
Gödel, K. 1995. “Some Observations About the Relationship Between Theory of Relativity and Kantian Philosophy”, en S. Feferman et al., eds. Kurt Gödel: Collected Works, vol. iii, p. 202.
Heisenberg, W. 1958. Physics and Philosophy. Harper.
Jennewein, T. et al. 2000. “Quantum Cryptography with Entangled Photons”, en Physical Review Letters, 84, 4729.
Kant, E. 1781 y 1787. Crítica de la razón pura.
Kant, E. 1783. Prolegómenos a toda metafísica del porvenir.
“Measurement”, en Physical Review Letters, 77, 4887. 1996.
Monroe, C. et al. 1996. “A Schrödinger Cat Superposition State of an Atom”, en Science, 272, 1131.
Naik, D. S. et al. 2000. “Entangled State Quantum Cryptography: Eavesdropping on the Ekert Protocol”, en Physical Review Letters, 84, 4733.
Tittel, W. et al. 2000. “Quantum Cryptography Using Entangled Photons in Energy-Time Bell States”, en Physical Review Letters, 84, 4737.
Tittel, W. et al. 1998. “Violation of Bell Inequalities by Photons More than 10 km Apart”, en Physical Review Letters, 81, 3563.
Yourgrau, P. 1999. Gödel Meets Einstein: Time Travel in the Gödel Universe. Open Court.
Shahen Hacyan
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Hacyan, Shahen. (2001). Espacio, tiempo y realidad. De la física cuántica a la metafísica kantiana. Ciencias 63, julio-septiembre, 15-25. [En línea]
    Regresar al índice artículo siguiente
de venta en copy
Número 134
número más reciente
 
134I


   
eventos Feriamineriaweb
  Presentación del número
doble 131-132 en la FIL
Minería

 


novedades2 LogoPlazaPrometeo
Ya puedes comprar los 
ejemplares más
recientes con tarjeta
en la Tienda en línea.
   

  Protada Antologia3
 
Está aquí: Inicio revistas revista ciencias 63
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License