revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R35Articulo05   menu2
índice 35 
siguiente
anterior
PDF
   
   
Shahen Hacyan      
               
               
¿Qué es el tiempo? “Si no me lo preguntan, lo. Si me
preguntan, no lo sé”, contestó San Agustín a tan difícil cuestión. Y es que todos sabemos intuitivamente lo que es el tiempo, pero de ahí a definirlo… En este artículo trataremos de fijarnos una meta un poco más modesta y plantearnos la pregunta: ¿qué es el tiempo de la física?
 
Newton, Maxwell, Einstein
 
1. El tiempo absoluto, verdadero y matemático por sí mismo y por su propia naturaleza, que fluye sin relación con nada externo.
 
2. El tiempo relativo, aparente y común, que es medida sensible y externa de la duración por medio del movimiento.
 
El tiempo relativo es el que se mide con relación al movimiento de algo —maquinaria de un reloj, rotación de la Tierra, etcétera— cerrando así un círculo tautológico: el tiempo se mide con el movimiento y el movimiento con el tiempo. Según Newton, esta medición del tiempo no puede ser precisa y debe ajustarse continuamente con el tiempo absoluto. Newton parece despreciar el tiempo relativo, el de los “hombres comunes”, a favor de un tiempo absoluto, independiente de todo. Pero su razonamiento es poco convincente, pues nunca aclara cómo se accede a ese tiempo absoluto.
 
A pesar de todo, el tiempo absoluto quedó firmemente establecido en la ciencia clásica. Para un físico, ese tiempo sería el parámetro t que aparece en todas las ecuaciones que describen el movimiento de los cuerpos, y correspondería aproximadamente con el tiempo común medido con aparatos humanos. Esta visión del mundo habría de subsistir hasta principios del siglo XX, cuando Einstein mostró que el tiempo absoluto es una ilusión.         
 
A mediados del siglo XIX, el gran físico escocés James Clerk Maxwell demostró que la electricidad y el magnetismo obedecen leyes matemáticas muy precisas, al igual que la gravitación —como lo había mostrado Newton. Las ecuaciones de Maxwell describen los campos eléctricos y magnéticos en cada punto del espacio y en cada instante de tiempo (en términos matemáticos, dichos campos dependen de la posición espacial y del tiempo, es decir, las coordenadas x, y, z, t). Sin embargo, desde un principio surgió un problema: si se cambian las coordenadas espaciales a un sistema de referencia en movimiento, las ecuaciones de Maxwell cambian de forma y se vuelven mucho más complicadas. Este hecho, más que una dificultad de la teoría, parecía reforzar la idea de un espacio y un tiempo absolutos, que serían el escenario donde ocurren los fenómenos electromagnéticos descritos por las leyes de Maxwell.
 
Sin embargo, a fines del siglo XIX, Hendrik Lorentz demostró que existe una transformación de coordenadas que deja invariante la forma de las ecuaciones de Maxwell, siempre y cuando se cambien no sólo las coordenadas espaciales, sino también el tiempo. Pero esto parecía ser sólo una curiosidad matemática.          
 
Tal era la situación cuando, en 1905, apareció en una prestigiosa revista alemana de física un artículo titulado “Sobre la electrodinámica de los cuerpos en movimiento”, por Albert Einstein. Con este trabajo nació la teoría de la relatividad.  
 
Einstein postuló que las ecuaciones de Maxwell deben tener la misma forma en cualquier sistema de referencia y que, por lo tanto, es imposible privilegiar un sistema de referencia respecto a otro.
 
Este es el principio de relatividad; para que se cumpla es necesario que la transformación de coordenadas descubierta por Lorentz tenga realidad física. La consecuencia más revolucionaria es que el tiempo depende del movimiento de quien lo mide. Einstein tiró por la borda, sin misericordia, el tiempo absoluto de Newton.
 
Relatividad
 
Un postulado fundamental de la teoría de la relatividad es que la velocidad de la luz (en el vacío) —que es de unos 300000 kilómetros por segundo— es la misma para cualquier observador. Esto parece contradecir toda experiencia: por ejemplo, se esperaría que al correr detrás de una señal luminosa, ésta pareciese tener una velocidad menor, pero la velocidad de la luz siempre será la misma. La razón es que las velocidades no se adicionan o restan simplemente, como en la mecánica clásica, ya que se debe tomar en cuenta que el tiempo cambia para un observador en movimiento.               
 
Así, el tiempo no transcurre de la misma forma para observadores distintos, a pesar de que nuestro sentido común, basado en la práctica cotidiana, indica que los relojes no se adelantan o atrasan por estar en movimiento. Sin embargo, el efecto predicho por Einstein sólo es perceptible a velocidades cercanas a la de la luz.
 
Más precisamente, si en cierto sistema de referencia dos sucesos ocurren en el mismo lugar, pero con un intervalo de tiempo t, entonces, en otro sistema de referencia que se mueve con velocidad V con respecto al primero, los dos sucesos ocurren con un intervalo de tiempo t’ dado por la fórmula:      
 
Entra fórmula 14         
 
donde c es la velocidad de la luz. A partir de esta fórmula, se ve que la diferencia de los dos tiempos es completamente imperceptible para velocidades muy bajas con respecto a la velocidad de la luz, como es el caso de nuestra experiencia diaria; por esto, la contracción del tiempo había pasado desapercibida hasta que apareció la teoría de Einstein.
 
Para dar un ejemplo, supongamos que una nave espacial viaja a la estrella más cercana, Alfa Centauri, que se encuentra a cuatro años luz de distancia (al tratar distancias cósmicas, se suele utilizar el año luz como unidad de medida: es la distancia recorrida por la luz en un año y equivale a unos nueve billones de kilómetros). Los tripulantes de la nave no sentirán nada particular con respecto a su tiempo, ya que sus relojes marcharán normalmente. Será su regreso a la Tierra cuando notarán que sus relojes y los de la Tierra no coinciden: el tiempo medido en la nave, desde que salió hasta que regresó, será más corto que el tiempo medido en la Tierra de acuerdo con la fórmula que dimos más arriba.
 
Si, por ejemplo, la velocidad de la nave es de 299000 kilómetros por segundo, transcurrirán poco más de ocho años, medidos en la Tierra, desde que la nave despega hasta que regresa, pero para los tripulantes habrán pasado solamente... ¡siete meses!
 
Gravitación          
 
En 1915, Einstein presentó una extensión de su teoría, conocida como relatividad generalizada, que incluye también la fuerza gravitacional. Sin entrar en los detalles de esta teoría (lo que nos llevaría demasiado lejos), mencionemos que la relatividad del tiempo vuelve a aparecer con relación al campo gravitacional. En efecto, el tiempo transcurre más lentamente donde la gravedad es más intensa.
 
Por ejemplo, debido a que la gravedad de la Tierra es ligeramente mayor en el suelo que en la parte alta de un edificio, un reloj en la planta baja debería atrasarse respecto a uno en la azotea. En la práctica, este efecto es demasiado pequeño para notarse, pero el fenómeno fue comprobado en forma espectacular por R. V. Pound y G. A. Rebka en 1960 en una torre de 22 metros de altura. El cambio en el tiempo es de apenas una diez milésima de millonésima de segundo por cada hora transcurrida, pero Pound y Rebka pudieron medir ese cambio y comprobar que corresponde perfectamente a lo predicho por Einstein.
 
Pero la manifestación más extrema de la relatividad del tiempo se da en esos curiosos objetos predichos teóricamente por la relatividad general: los hoyos negros. Esencialmente, un hoyo negro es una concentración de masa tal que su atracción gravitacional impide que la luz, o cualquier objeto, se escape de su superficie. Las estrellas, al final de sus vidas, cuando han agotado todo su combustible nuclear y dejan de brillar, se contraen por su propia fuerza gravitacional. En el caso de las estrellas muy masivas —unas siete veces o más que el Sol—, la evolución puede ser muy complicada, pero eventualmente la estrella, o al menos su parte central, tiene que transformarse en hoyo negro y los astrónomos han encontrado evidencias de estos extraños objetos en nuestra galaxia.
 
Para nuestros fines, señalemos que un hoyo negro se caracteriza por una superficie, llamada horizonte, que es una esfera de unos 3 kilómetros de radio por cada masa solar (por ejemplo, un hoyo negro de 10 masas solares tiene un radio de 30 kilómetros); el interior del horizonte está desconectado del Universo externo y no podemos verlo, a menos que penetremos en él en un viaje de un solo sentido.
 
Supongamos que una nave espacial cae en un hoyo negro y que ese suceso trágico es observado desde un planeta a prudente distancia. Los tripulantes de la nave que cae no notarán nada especial durante su camino: cruzarán el horizonte, digamos a las 12 horas, y seguirán su viaje, hasta que en algún momento las fuerzas de marea del hoyo negro se vuelvan tan intensas que destrocen la nave. Ahora bien, todo el proceso, visto desde lejos, será muy distinto: se verá a la nave que cae, pero su tiempo irá deteniéndose a medida que se acerca al horizonte. Después de mucho tiempo se verá el reloj de la nave marcar, por ejemplo, las 11:58; después de varios años, siempre medidos desde lejos, marcará las 11:59; y así sucesivamente sin nunca alcanzar las 12:00. Visto desde el planeta lejano, el tiempo en la nave atrapada por el hoyo negro se congela respecto al tiempo externo. Un tiempo finito para un observador es infinito para otro: ¡qué mejor ejemplo de relatividad del tiempo!
 
Máquinas del tiempo
 
Según la teoría de la relatividad de Albert Einstein, ningún cuerpo puede moverse más rápidamente que la luz, pues se necesitaría una cantidad infinita de energía para alcanzar tal velocidad. Para fines terrenales, esta limitación no es tan grave. A la velocidad de la luz se pueden dar hasta ocho vueltas a la Tierra en un segundo. Sin embargo, para fines de comunicación en el Universo, la luz es demasiado lenta. Por ejemplo, un viaje interestelar al centro de nuestra galaxia a una velocidad cercana a la de la luz tomaría unos treinta mil años medidos en la Tierra, y si bien la contracción del tiempo jugaría a favor de los tripulantes, la travesía requeriría mucho más energía que toda la disponible en nuestro planeta.
 
¿Se puede, entonces, encontrar algo así como un atajo para poder viajar a regiones lejanas del universo? Curiosamente, la teoría de la gravitación de Einstein no excluye tal posibilidad. Al menos en principio, podrían existir túneles cósmicos que conecten regiones muy distantes del Universo. Un viajero cósmico que penetre uno de esos túneles recorrería una distancia relativamente corta y emergería en una región muy lejana del Universo. Esto le permitiría vencer la barrera de la velocidad de la luz.
 
Sin embargo, de acuerdo con la misma teoría de Einstein, un viaje a mayor velocidad que la luz es equivalente a un viaje en el tiempo. Esto se debe a que el tiempo es un concepto relativo: el intervalo de tiempo entre dos sucesos depende de quién lo mide, pero para un hipotético viaje a mayor velocidad que la luz, el tiempo no sólo se contrae sino que… ¡se invierte!
 
Supongamos que una nave espacial penetra un túnel cósmico por uno de sus extremos, sale por el otro y luego se vuelve a meter para regresar a la Tierra. Se puede demostrar que si uno de los extremos del túnel cósmico se mueve con una cierta velocidad, un viajero podría regresar a su punto de origen ¡antes de haber salido! Según la teoría de la relatividad, viajar más rápido que la luz implica también viajar hacia atrás en el tiempo.
 
Somos viajeros sin reposo en el tiempo, pero nuestro viaje es en una sola dirección: del pasado al futuro. ¿Por qué el tiempo corre en una sola dirección? Esta pregunta no es tan trivial como parece, ya que las leyes de la mecánica no implican que el tiempo tenga que fluir en un sentido o en otro. Si uno cambia el signo del tiempo en las ecuaciones de la física, nada cambia: lo que se mueve en un sentido también se mueve en otro. Esas mismas leyes describen a la perfección el comportamiento de la materia, pero la dirección del tiempo está escondida en alguna región aún mal comprendida por la ciencia moderna.
 
Hasta ahora, el único concepto físico que implica una dirección del tiempo es la entropía. Pero éste es un concepto estadístico, que se aplica sólo a conjuntos muy grandes de partículas (moléculas, átomos). La entropía es en cierto sentido una medida del desorden. Por ejemplo, el agua en un vaso que cae al suelo y se derrama aumenta su entropía, y no es de esperar que el proceso contrario -el agua del suelo se junta y brinca al vaso- ocurra. Esto se debe a que el segundo proceso es billones y trillones de veces menos probable que el primero, pero si miramos microscópicamente las moléculas del agua, no podremos distinguir entre los dos procesos, ya que sólo veríamos moléculas moviéndose de acuerdo a las leyes de la física.
  

Pero, finalmente, si la física conocida hasta ahora no excluye la posibilidad de viajar hacia atrás en el tiempo, sí la excluye la lógica. En efecto, ¿qué pasaría si alguien viaja al pasado, encuentra un niño que es él mismo y se asesina? Deben existir leyes de la física que impidan una situación tan absurda; lo curioso es que esas leyes todavía no se han descubierto. Quizá debemos esperar una nueva teoría que explique el misterio de la dirección del tiempo.

 articulos
__________________________________ 
     
Shahen Hacyan
Instituto de Física,
Universidad Nacional Autónoma de México.
     
__________________________________      
 
cómo citar este artículo
Hacyan, Shahen. 1994. A la búsqueda del tiempo físico. Ciencias núum. 35, julio-septiembre, pp. 46-50. [En línea]
     

 

 

R35Articulo01   menu2
índice 35 
siguiente  
PDF
   
   
Victor J. Jaramillo      
               
               
El fenómeno conocido como “cambio ambiental global”
que amenaza de diversas formas el funcionamiento del planeta, abarca varios fenómenos y procesos que están íntimamente relacionados. Un cambio global se define, según Vitousek, en dos contextos: a) es aquel que altera las capas de fluidos del sistema de la Tierra (la atmósfera y los océanos) y que, por lo tanto, se experimenta a escala planetaria, y b) aquel que ocurre en sitios muy localizados pero tan ampliamente distribuidos que constituye un cambio a nivel global. Como ejemplos del primero tenemos el cambio en la composición de la atmósfera (por ejemplo, aumentos en la concentración de bióxido de carbono y de metano), el cambio climático, la destrucción de la capa de ozono en la estratosfera y el aumento de la incidencia de radiación ultravioleta. Dentro del segundo tipo están la pérdida de la diversidad biológica, el cambio en el uso del suelo (por ejemplo la destrucción de los bosques para uso agropecuario), los cambios en la química atmosférica (por ejemplo la lluvia ácida y el aumento en la concentración de ozono en la tropósfera) y las invasiones biológicas. El denominador común a todos estos componentes del cambio ambiental global es el hombre y sus actividades. Éstas incluyen las actividades productivas, el desarrollo de ciertas tecnologías, la expansión de las tierras agrícolas y urbanas, un creciente e ineficiente uso de los combustibles fósiles y la emisión de nutrientes, toxinas y gases traza a la atmósfera como consecuencia de estos procesos. La actividad del hombre ha adquirido proporciones enormes, incluso en relación con el flujo de energía y materiales en la Tierra. Por ejemplo, las sociedades humanas consumen directamente cerca de 2% de la productividad primaria neta de los ecosistemas terrestres, pero al hacerlo utilizan o destruyen cerca de 40% del total.
 
La certeza o la incertidumbre en cuanto a la ocurrencia de los diversos componentes del cambio global es relativamente fácil de discernir. Por ejemplo, los cambios en la atmósfera, en particular el aumento en la concentración de bióxido de carbono, de óxido nitroso y de metano en la parte baja de la atmósfera (tropósfera), así como la disminución de la concentración de ozono en la estratósfera están bien documentados como se detallará más adelante. Asimismo, la pérdida de la diversidad biológica puede ser un alto grado de certeza. Por otro lado, no podemos asegurar que ya esté ocurriendo un cambio climático debido a las modificaciones inducidas por el hombre en el planeta. Sin embargo, existen evidencias que sugieren que por la exacerbación del fenómeno de invernadero puede estar ya presentándose un calentamiento. Por ejemplo, el nivel global del océano ha aumentado a una tasa de 15 a 25 cm por siglo en los últimos 100 años, debido probablemente al deshielo de las capas polares y a la expansión térmica del agua oceánica. También la temperatura promedio global del aire muestra una tendencia al aumento de aproximadamente 0.7°C desde 1880. Aunque el aumento concomitante de CO2 y de la temperatura en los últimos 100 años son consistentes con las predicciones de los modelos climáticos avanzados, es un hecho que esta magnitud de calentamiento ha ocurrido numerosas veces en la historia de la Tierra. Por lo tanto, la tendencia documentada puede representar un fenómeno de variabilidad natural sin relación con las actividades humanas en el planeta.
 
El efecto de los diferentes componentes del cambio global es más difícil de establecer. A largo plazo, el cambio climático es el que tiene el mayor potencial para alterar el funcionamiento de la Tierra y, además, interacciona fuertemente con los otros componentes. Sus efectos más dramáticos se verán en un futuro, mientras que las consecuencias de los otros ya están ocurriendo. Según Vitousek, existe un consenso entre los ecólogos estudiosos de los ecosistemas terrestres en cuanto a que el cambio en el uso de la tierra (por ejemplo la transformación de ecosistemas naturales para uso agropecuario) es en la actualidad el componente del cambio global más importante.
 
Se ha considerado que la situación actual ha colocado a la humanidad en una posición sin precedente, ya que se espera que en el lapso de una sola generación, el ambiente que hace posible la vida en la Tierra cambie más rápidamente que en ningún otro periodo comparable de la historia del planeta. Sin embargo, existen evidencias recientes que sugieren que habrá que replantear algunas concepciones con respecto a la estabilidad climática experimentada por la humanidad en el Holoceno (los últimos 10000 años). Los descubrimientos logrados mediante el análisis isotópico del hielo en Groenlandia indican que durante el periodo interglacial anterior, el Eemiano, que abarcó de los 125000 a los 115000 años a. C., existieron oscilaciones climáticas que determinaron la existencia de periodos calientes (hasta 2°C más que en la actualidad) y fríos (hasta 5°C menos que en el Holoceno). Lo más sorprendente es que los cambios de estado se completaron en tan sólo 10 a 20 años y los periodos duraron desde 70 hasta 5000 años. La pregunta pertinente es, por qué el clima de los últimos 10000 años ha sido tan estable dadas las notables variaciones registradas para los últimos 150000 años, incluyendo un periodo interglacial análogo al presente pero ligeramente más caliente que el actual. White señala que en realidad no sabemos qué periodo representa la norma de los interglaciales; si el Holoceno, estable y monofásico; el Eemiano, multifásico y cambiante. Resalta, además, el hecho de que los humanos hemos construido un sistema socioeconómico complejo en lo que es, probablemente, el único periodo con patrones climáticos suficientemente estables como para desarrollarlo; se trata, sin duda, de una afortunada casualidad.
 
La duración de los eventos del Eemiano sugiere que los cambios en la circulación de los océanos estuvieron involucrados de manera causal en esos patrones. Aún se requieren muchas explicaciones que nos indiquen los “requisitos” para inducir una desestabilización “tipo Eemiano” en el patrón climático del Holoceno. Pero como el trabajo mismo señala, el hombre está perturbando ya uno de los factores que pueden estar involucrados: los gases de invernadero.
 
Los gases de invernadero tienen la propiedad de dejar pasar las radiaciones de longitud de onda corta pero absorben la radiación infrarroja (de longitud de onda larga) emitida por la Tierra y la retienen en la tropósfera (ver en Gay et al. 1991 una descripción más detallada de este fenómeno). Un aumento sustancial en la concentración de estos gases puede, por lo tanto, producir el calentamiento de la superficie de la Tierra y afectar considerablemente el clima del planeta. No obstante su gran capacidad para absorber la radiación infrarroja, estos gases están presentes en la tropósfera en concentraciones muy bajas: baste considerar que 99.9% de los gases atmosféricos lo constituyen el nitrógeno, oxígeno y otros gases nobles inertes, que no son gases de invernadero. Ante la creciente preocupación respecto a un posible calentamiento global, se tiende a pensar que el “fenómeno de invernadero” es algo que está ocurriendo como resultado de las actividades humanas o que ocurrirá en el futuro. Es necesario entonces reflexionar sobre la posible existencia de este fenómeno en la historia de la Tierra, sobre la “constancia” de la composición de la atmósfera y sobre la relación entre ésta y los seres vivos
 
La atmósfera en la evolución del planeta        
 
Se ha estimado que en sus estados tempranos de desarrollo como estrella, el Sol emitía aproximadamente 30% menos de radiación que en la actualidad. Esto implica que con la composición química de la atmósfera actual, la Tierra habría estado congelada hasta hace 2000 millones de años. Sin embargo, sabemos por el registro fósil que no fue así, y que ha existido agua en estado líquido desde hace aproximadamente 3800 millones de años. La explicación más aceptable de esto es que la atmósfera primitiva era más rica en bióxido de carbono —aproximadamente una concentración de 3% contra 0.035% en la actualidad— y evitaba la salida de la radiación produciendo un calentamiento global en el planeta. Es decir, este gas producía un efecto de invernadero. Aún en la actualidad, y con el Sol emitiendo más energía, sin la presencia del bióxido de carbono y del vapor de agua en la atmósfera, la temperatura promedio del planeta sería 33°C más fría y, por lo tanto, estaría congelado.
 
Es evidente que estos gases, que se presentan en la atmósfera en concentraciones muy bajas, han desempeñado un papel fundamental en la regulación de la temperatura del planeta desde sus orígenes. Un ejemplo claro de la constancia de las condiciones favorables para la vida en el planeta es que la temperatura promedio de la Tierra no ha bajado de 15°C ni ha rebasado los 30°C por lo menos durante los últimos 140 millones de años. Se ha propuesto que el factor que ha controlado la variación de temperatura en la escala geológica es la concentración atmosférica de CO2 mediante un sistema de retroalimentación negativa regulado por el ciclo geoquímico del carbonato-silicato.
 
Dicho ciclo es responsable del intercambio de cerca de 80 del bióxido de carbono entre la superficie terrestre y la atmósfera en una escala de tiempo que rebasa los 500000 años. Tal mecanismo sugiere que a los aumentos de temperatura en la superficie terrestre corresponden descensos en la concentración del CO2 atmosférico que regulan la temperatura del planeta. Sin embargo, sería preciso conciliar las predicciones de este sistema de regulación planetario con las evidencias obtenidas para los últimos 60000 años. Dichos resultados muestran un acoplamiento positivo entre la temperatura del planeta y la concentración de bióxido de carbono en la atmósfera.
 
Aunque no es posible establecer una relación causal de esto, es obvio que el patrón es diferente al sugerido por Kasting y colaboradores. Se tendría que resolver hasta qué punto el mecanismo propuesto por ellos es erróneo o es un problema de las escalas de tiempo involucradas —el ciclo geoquímico operaría en periodos que rebasan los 500000 años y los datos presentados corresponden a sólo 160000. 
 
La composición química de la atmósfera de la Tierra y la del escenario en el que evolucionó la vida obedecen a tres restricciones iniciales: 1) la abundancia cósmica de los gases, 2) su distribución durante la formación de la Tierra, y 3) la solubilidad de los diferentes elementos en el agua. Esto último tuvo como consecuencia que los elementos abundantes en el agua oceánica fueran constituyentes importantes de la química de la vida.
 
Como se sugirió anteriormente, la composición de la atmósfera no ha permanecido constante desde el origen de la Tierra. Ha estado sujeta en un principio a cambios debidos a los procesos geoquímicos y después a los procesos biológicos resultantes de la evolución de la vida. Aunque no se sabe con exactitud cuál era la composición de la atmósfera primaria de la Tierra, es muy probable que en el surgimiento de la vida, la atmósfera estuviera dominada por el nitrógeno molecular (N2), con proporciones menores de vapor de agua y de bióxido de carbono, y cantidades muy pequeñas de gases emitidos por las erupciones volcánicas, y que careciera de oxígeno. Es decir, en el origen de la vida y durante los primeros 2500 millones de años del planeta no existió una capa de ozono (O3) en la estratósfera que protegiera la superficie terrestre de la incidencia de la radiación ultravioleta (el ozono en esta zona de la atmósfera se deriva del oxígeno (O2) sujeto a reacciones fotoquímicas).
 
La vida estuvo, pues, dominada por formas microbianas que desarrollaron los mecanismos bioquímicos necesarios para utilizar un ambiente anaerobio, entre ellas las bacterias fotosintéticas, que utilizaban el sulfuro de hidrógeno (H2S) como fuente de hidrógeno. Lynn Margulis sostiene que fue la incesante demanda de hidrógeno y la disponibilidad limitada del mismo lo que “empujó” a los ancestros de las cianobacterias a obtenerlo de otra fuente abundante en el planeta: el agua (H2O). Esta innovación metabólica de las bacterias tuvo implicaciones enormes para la historia de la vida en la Tierra. Simplemente, los animales no podrían haber evolucionado sin el alimento provisto por la fotosíntesis y el oxígeno del aire. Al mismo tiempo, esta innovación bioquímica produjo lo que Lynn Margulis y Dorion Sagan denominan un “holocausto” de dimensiones planetarias hace aproximadamente 2000 millones de años, cuando el oxígeno se empezó a acumular en la atmósfera debido a que los reactivos pasivos, como los compuestos metálicos, los gases atmosféricos reducidos y los minerales de las rocas, se agotaron. Dicho evento se considera un “holocausto” debido a que el oxígeno atmosférico constituyó un veneno letal para los microorganismos de entonces por su enorme capacidad de reacción con la materia orgánica. El oxígeno capta electrones (oxida) y puede alterar drásticamente los compuestos de carbono, hidrógeno, nitrógeno y azufre que son la base de vida. Ciertamente, la presencia de O2 en la atmósfera produjo la desaparición de muchísimas especies de microbios, pero otros encontraron la forma de sobrevivir en las nuevas condiciones. Más aún, algunas cianobacterias “inventaron” un sistema metabólico capaz de utilizar ese oxígeno letal: la respiración aerobia. Los sobrevivientes anaerobios del “holocausto” encontraron refugio y están todavía con nosotros en los ambientes carentes de oxígeno como las zonas inundadas y el aparato digestivo de muchos organismos, realizando labores clave para el funcionamiento tanto de los seres vivos como del planeta.
 
Para tener una idea más clara del cambio tan radical que ocurrió en la composición de la atmósfera debido al “holocausto”, basta considerar lo siguiente. En la actualidad estamos preocupados por un cambio de 0.028% a 0.035% en la concentración del CO2 atmosférico, y por las consecuencias que éste o un aumento más severo —por lo general se considera el doble de la concentración actual— pueden tener en cuanto a los patrones climáticos del planeta. En contraste, el cambio ocurrido hace 2000 millones de años llevó la concentración de O2 de 0.0001% a 21% (un cambio de 5 órdenes de magnitud) que se ha mantenido casi constante en este último nivel durante millones de años. La importancia de dicha constancia radica en que con unos cuantos puntos porcentuales menos de oxígeno, los organismos aerobios nos asfixiaríamos: con 15% menos se podría iniciar un fuego y con más de 25% hasta la materia orgánica mojada ardería espontáneamente. Los microorganismos regularon el balance de oxígeno de la Tierra y crearon una anomalía planetaria.
 
La atmósfera del planeta entró en lo que se reconoce como un estado de desequilibrio químico. Por ejemplo, la concentración actual de metano excede de 29 a 140 órdenes de magnitud y la de óxido nitroso de 12 a 13 (según dos estimaciones independientes) la concentración que les correspondería en el equilibrio termodinámico. El registro de estas variables desde la nave espacial Galileo, así como el de la inusitada cantidad de oxígeno en la atmósfera, comparada con la de otros planetas, son utilizadas por Carl Sagan y colaboradores en la realización de un experimento único en su género como evidencia de la existencia de vida en la Tierra. Es decir, tales características atmosféricas sólo pueden presentarse si existen mecanismos activos que las mantengan. En este mismo sentido, Schlesinger indica que la emisión de oxígeno a la Tierra anaeróbica es el recordatorio más fuerte de la influencia de los seres vivos en la geoquímica de la superficie terrestre.
 
Para ilustrar de otra forma la anomalía de la atmósfera del planeta comparemos la composición atmosférica de planetas sin vida con la de la Tierra en la actualidad (tabla 1). Se observa que la atmósfera de una Tierra sin vida no sería muy diferente de la de Marte y Venus, ya que sería muy rica en bióxido de carbono y muy pobre en nitrógeno. Es obvio también que, con esa composición atmosférica, la temperatura de la Tierra sería mucho más alta que la que se observa hoy día. La atmósfera estaría seguramente en equilibrio termodinámico.
      
 
GAS PLANETA
VENUS TIERRA sv  MARTE  TIERRA
Bióxido de Carbono  98 98  95  0.035 
Nitrógeno  1.9  1.9  2.5  78
Oxígeno 0 TR 0.25 21
Argón 0.1 0.1 2.0 0.9
Temperatura
(°C) 477 290 + 50 -53 16
Tabla 1. Comparación de la composición atmosférica y de la temperatura superficial de los planetas interiores del Sistema Solar. Se incluyen las características hipotéticas de la Tierra sin vida (sv). (Modificada de Lovelock, 1988 y Schlesinget, 1991). Los valores de concentración son porcentuales (%).TR = traza.
 
Los gases de invernadero en la actualidad          
 
Como es imposible exponer con detalle todos los aspectos relevantes de los gases de invernadero aun de los más importantes, expondremos a continuación la problemática general de algunos de ellos. Trataremos con mayor extensión el caso del bióxido de carbono ya que es, probablemente, el más importante y acerca del cual se ha realizado más investigación en muy diversas áreas del conocimiento. Es necesario señalar que, salvo los clorofluorocarburos, los gases que se mencionan son, en primera instancia, producto de procesos naturales, que ya existían muchísimos millones de años antes de la evolución del hombre. En particular, varios de ellos son emitidos como resultado de la actividad biológica de los microorganismos del suelo.
 
El bióxido de carbono         
 
Este gas, importante componente de nuestra atmósfera desde hace miles de millones de años, tuvo su origen en la actividad volcánica del planeta que lo lanzaba a la atmósfera. Ya mencionamos que la concentración de dicho gas en la atmósfera podría estar controlada en el largo plazo por el ciclo geoquímico del carbonato-silicato, pero a corto plazo el ciclo está regulado por procesos biológicos. El bióxido de carbono es, posiblemente, el componente atmosférico más importante y más afectado por las actividades humanas. De acuerdo con las predicciones de los modelos climáticos globales, cerca de 55 del calentamiento predicho para el próximo siglo se debe al bióxido de carbono (CO2), 20% a los clorofluorocarburos (CFC) y el 25% restante al metano (CH4) y al óxido nitroso (N2O)
 
El aumento de CO2 en la atmósfera está bien documentado. Las mediciones realizadas en Mauna Loa, Hawai, han mostrado un aumento en su concentración de 315 partes por millón (ppm), en 1957 a 350 ppm en 1988. Los resultados obtenidos con núcleos de hielo han mostrado concentraciones de 280 ppm al principio de la era industrial (1880). Esto significa un incremento de 25% en poco más de 100 años (0.25% anual), cuando la tasa de aumento actual es de 0.4% por año. Aunque se han documentado concentraciones similares a la actual en el registro geológico, ésta constituye el nivel más alto alcanzado en los últimos 160000 años y la velocidad de cambio parece mucho mayor.
 
Las causas de este incremento incluyen el uso industrial y doméstico de combustibles que contienen carbono (petróleo, carbón, gas natural y leña), la deforestación —que provoca la descomposición de la materia orgánica— y la quema de la biomasa vegetal (tabla 2). Sin embargo, es el uso indiscriminado e ineficiente de los combustibles fósiles el principal generador de la tendencia actual. La quema de dichos combustibles ha aumentado a una tasa de 4.3% anual desde la Revolución Industrial, excepto en algunos periodos como las guerras mundiales y durante la Gran Depresión. La cantidad de carbono emitida por esta vía varía, según los cálculos, entre 5.5 y 5.7 Pg/año (tabla 3) (1 petagramo [Pg] = 1015 g). Las estimaciones recientes indican que la desforestación de los bosques tropicales podría contribuir con alrededor de 35% a 50% de dichas emisiones, es decir de 2 a 3 Pg/año, pero aún existe mucha incertidumbre sobre los flujos de carbono debidos al cambio en el uso de la tierra, sobre todo en los trópicos. De hecho, la magnitud de este flujo podría ser menor. Los cálculos realizados recientemente para América Latina, afinando las estimaciones de la pérdida de carbono del suelo entre otras variables, mostraron valores por debajo de los obtenidos previamente. Por ejemplo, el flujo neto de carbono obtenido para el año de 1985 estuvo entre 0.4 y 0.8 Pg y representó valores de 40% por debajo de las estimaciones previas. Asimismo, en dicho estudio se determinó que dos de los tres factores que produjeron mayor variación en los cálculos se relacionan con las estimaciones de biomasa de los bosques. Esto hace más evidente la necesidad de determinar la biomasa vegetal de manera más precisa si queremos reducir la incertidumbre en la estimación de los flujos debidos a los cambios en el uso de la tierra. Desde la perspectiva del ciclo global del carbono, estos flujos antropogénicos son pequeños si se comparan con los que se dan naturalmente entre la atmósfera, los ecosistemas terrestres y los océanos, pero son suficientes para modificar los flujos netos y aumentar el contenido de CO2 de la atmósfera a una tasa de 3.2 Pg/año.
 
Para el cálculo del balance global de carbono hay que considerar fuentes de emisión y sumideros o sitios que captan carbono (tabla 3). De los valores presentados, sólo la magnitud de los flujos debidos a la quema de combustibles fósiles y el del aumento en la atmósfera son bien conocidos; los demás valores presentan diversos grados de incertidumbre. Se observa que del CO2 emitido por los combustibles fósiles sólo 56% se acumula en la atmósfera, lo que sugiere que el resto debe acumularse en otros sumideros. Es justamente la magnitud de los mismos lo que constituye una de las controversias y áreas de investigación más activas en la actualidad.
 
Se distinguen tres posibles sumideros para el carbono: a) los océanos, b) los bosques templados y los boreales, y e) los bosques y pastizales tropicales (tabla 3).      
 
La capacidad de los océanos para captar bióxido de carbono ha sido ampliamente discutida en los últimos años. El intercambio de CO2 de la superficie del océano y la atmósfera está regulado por la diferencia en la presión parcial de dicho gas (pCO2) entre ambos fluidos, por la velocidad del viento sobre la superficie oceánica y por el estado de la misma. Existen pruebas de que la “bomba biológica” del océano controla la pCO2 de las aguas superficiales. De esta manera, cuando la “bomba” está activa, baja la pCO2 superficial, aumenta la presión parcial de las aguas profundas que no están en contacto con la atmósfera y permite la entrada de bióxido de carbono al océano. En áreas de baja productividad primaria, la presión parcial superficial es a menudo mayor que la de la atmósfera y por lo tanto el CO2 es liberado de la superficie oceánica. La medición de estas variables es más compleja de lo que uno podría suponer, pero los esfuerzos recientes del World Ocean Circulation Experiment (WOCE) y del Joint Global Ocean Flux Study (JGOFS) del Programa Internacional de la Geósfera-Biósfera (JGBP) han mostrado que la pCO2 es mucho más cambiante de lo que se pensaba y que está influida negativamente por la abundancia de fitoplancton. Es decir, a mayor abundancia de éste menor es la pCO2.
 
Los modelos recientes indican que la capacidad del océano para actuar como sumidero del bióxido de carbono que no permanece en la atmósfera es mucho más reducida de lo calculado previamente. Cuando más, podría captar en el orden de 1 Pg/año de CO2; lo cual implica que por lo menos 3 Pg/año deberían ser captados por la biota terrestre. Takahashi et al., sugieren que no es el océano el principal sumidero de carbono sino que son los bosques templados y boreales del Norte. No obstante, se opina que cuando se tome en cuenta una serie de factores como la estacionalidad biológica, las influencias a nivel de meso-escala y el papel de los mares cercanos a las costas en el ciclo del carbono oceánico, la capacidad del océano como sumidero de carbono tendrá que ser evaluada nuevamente.
 
La capacidad de los ecosistemas terrestres para capturar el CO2 atmosférico también ha estado sujeta a debate, en particular la concerniente a los ecosistemas tropicales. Existen posiciones muy escépticas que sostienen que dadas las tasas actuales de perturbación de la vegetación y del crecimiento poblacional, la discusión se vuelve puramente académica (Schlesinger, 1990). De manera menos pesimista pero no menos crítica, se ha cuestionado también la suposición teórica de que los ecosistemas terrestres naturales estén en estado estable y que estaban en equilibrio o casi antes de 1860. Lugo y Brown llevan este cuestionamiento al caso de los bosques tropicales y calculan que éstos tienen una capacidad potencial para “secuestrar” carbono del orden de 1.5 a 3.2 Pg/año. El mayor potencial lo tienen los bosques sucesionales, que capturan 43% del total. Estos resultados contradicen el consenso respecto a que sólo los bosques templados y boreales pueden actuar como sumideros y que los bosques tropicales funcionan fundamentalmente como emisores de CO2 a la atmósfera.
 
La capacidad de los ecosistemas terrestres para funcionar como sumideros depende también del posible efecto de fertilización por el aumento en la concentración de bióxido de carbono en la atmósfera. ¿Pero sabemos de sus consecuencias sobre el funcionamiento y crecimiento de las plantas? Las investigaciones fisiológicas han mostrado, entre otros resultados, lo siguiente: a) las plantas con la ruta fotosintética C3 —la mayoría de las plantas silvestres y cultivadas— responden más que las C4 (maíz, caña de azúcar y otras); b) el incremento inicial en las tasas de fotosíntesis y de crecimiento puede disminuir conforme avanza el tiempo de exposición a las concentraciones elevadas; c) hay un aumento en la eficiencia del uso del agua aún bajo condiciones de campo; d) la respuesta de la fotosíntesis y del crecimiento es particularmente pronunciada cuando otros recursos como la luz, el agua y los nutrientes son abundantes; e) las plantas fijadoras de nitrógeno tienden a beneficiarse más del aumento que las no fijadoras; f) el contenido de carbohidratos no estructurales aumenta generalmente, mientras que la concentración de nutrientes disminuye; g) en consecuencia, la calidad de la hoja como recurso disminuye provocando un aumento en los requerimientos de biomasa per capita en el caso de los herbívoros, y h) la respuesta puede diferir entre las especies de la misma comunidad y entre las poblaciones de la misma especie. La mayoría de los estudios que permiten llegar a las consideraciones anteriores se han realizado en condiciones controladas y más de dos tercios de los trabajos publicados se han realizado con especies cultivadas. Del tercio restante, gran parte lo constituyen investigaciones con plántulas de árboles y malezas.
 
Aunque la investigación ha permitido generar predicciones factibles de ser validadas en condiciones naturales, existen críticas a los resultados obtenidos en dichos estudios. Por ejemplo, algunos trabajos recientes han mostrado que si no se tiene un control adecuado de la nutrición mineral de las plantas sujetas a experimentación no puede saber cuál es el verdadero efecto de un aumento en la concentración de CO2. Esto es, la disponibilidad de nutrientes puede determinar el tipo de respuesta al tratamiento. La respuesta diferencial de las especies y de las poblaciones, la existencia de ajustes, tanto en la planta como en el ecosistema, y la notable preferencia de esos estudios por las especies cultivadas, hacen que la modelación del cambio de vegetación en respuesta a las concentraciones altas de CO2 sea una tarea muy difícil. Sin duda, la información más útil será producto de las investigaciones en condiciones naturales. Los problemas logísticos para montar los experimentos son grandes y en la actualidad se han publicado únicamente resultados de dos ecosistemas: la tundra del Ártico y la vegetación de zonas inundables en la costa atlántica de Estados Unidos. Ambos ecosistemas tienen vegetación de baja estatura que facilita el montaje de las cámaras de enriquecimiento de CO2. Los resultados revelan que los ecosistemas responden de manera diferente al enriquecimiento y que los patrones de respuesta no coinciden necesariamente con los obtenidos en condiciones controladas (ver Mooney et al., 1991). Como las investigaciones realizadas en los ecosistemas naturales representan un porcentaje bajísimo del total (menor a 1%), actualmente la investigación se dirige hacia otros ecosistemas como los pastizales y los bosques boreales y tropicales, de modo que permita tener bases más sólidas para la modelación requerida a escala global.
 
Metano (CH4)          
 
Este gas es, después del bióxido de carbono, el compuesto de carbono más abundante en la atmósfera. Se produce de manera natural en la fermentación de la materia orgánica en condiciones anaeróbicas, tal como ocurre en los humedales, los sedimentos lacustres y en el aparato digestivo de los rumiantes y las termitas. Su concentración en la tropósfera está aumentando cerca de 1% anual, una tasa mucho más alta que la del CO2, y se ha duplicado en los últimos 240 años hasta alcanzar su nivel actual de 1.7 partes por millón. La concentración de metano muestra variaciones latitudinales —es mayor en el hemisferio norte— y fuertes oscilaciones estacionales. El metano tiene una capacidad de absorción de la radiación infrarroja 20 veces mayor por molécula que el bióxido de carbono, por lo que el aumento de este gas en la tropósfera puede sin lugar a dudas contribuir de manera significativa a un cambio climático global. Aunque con cierto grado de incertidumbre, se cree que la creciente superficie cultivada con arroz así como la quema de la biomasa vegetal están contribuyendo de manera importante a dicho aumento (tabla 2). El incremento del hato ganadero y de las poblaciones de termitas ha sido descartado como fuente importante de metano en términos globales. Por otro lado, muchos investigadores creen que el aumento puede deberse a una disminución de radicales OH que reaccionan con el metano y lo eliminan de la atmósfera. Tal fenómeno podría deberse al incremento en las emisiones de monóxido de carbono, contaminante que se combina rápidamente con dichos radicales. Otra posibilidad es que los cambios en el uso de la tierra en los trópicos estén reduciendo la tasa de consumo de metano por parte del suelo y que esto contribuya también a su aumento en la atmósfera.
 
Óxido nitroso (N2O)             
 
El óxido nitroso se origina de manera natural en los procesos microbianos, tanto en los ecosistemas terrestres como marinos en los que se produce como resultado de la nitrificación (conversión de amonio a nitratos o nitritos) y la desnitrificación (conversión de nitratos a óxido nitroso y nitrógeno molecular). Su concentración ha aumentado a una tasa anual de 0.2 a 0.3% en los últimos 20 a 30 años hasta alcanzar una concentración actual de 330 partes por billón. La molécula de N2O es 250 veces más eficaz que la de bióxido de carbono para absorber la radiación infrarroja por lo que, al igual que en el caso del metano, su aumento tiene potencialmente la capacidad de contribuir al cambio climático global. Una característica de este gas es que además de actuar como “gas de invernadero” en la tropósfera, dada su larga permanencia en la atmósfera, (tabla 2) llega a la estratósfera donde se oxida a óxido nítrico, el cual reacciona con el ozono y lo destruye. Por ello el aumento actual adquiere mayor importancia. Las causas del aumento no son bien conocidas pero se cree que la quema de la vegetación, el uso indiscriminado de fertilizantes nitrogenados y la conversión de tierras en los trópicos constituyen las fuentes de emisión más importantes (tabla 2).
 
 
GAS ORIGEN  PERMANENCIA EN ATMÓSFERA 
Bióxido de carbono (CO2)

Combustibles fósiles
Desforestación
Quemas

100 años
Metano (CH4)

Arroz, Ganado
Combustibles fósiles
Quemas

10 años
Óxido nitroso (N2O)

Fertilizantes
Desforestación
Quemas

170 años
Clorofluorocarburos (CFC) Aerosoles 60-100 años
Tabla 2. Principales gases de invernadero cuya concentración está aumentando en la atmósfera como consecuencia de diversas actividades humanas. (Tabla modificada de Graedel & Crutzen 1989)
      
 
Clorofluorocarburos         
 
Estos compuestos conocidos como CFC son, en contraste con los anteriores, de origen netamente antropogénico ya que se producen como propelentes de aerosoles, refrigerantes y solventes (tabla 2). Tienen la propiedad de ser prácticamente inertes en la tropósfera y por eso llegan a la estratósfera en donde son los principales responsables de la destrucción del ozono. La radiación ultravioleta libera los iones de cloro, sumamente reactivos con el ozono y se produce oxígeno molecular. Sin embargo, en la tropósfera los CFC pueden contribuir también de manera significativa al calentamiento del planeta ya que los dos más comunes (CFC-11 y CFC-12) tienen, por molécula, de 17 500 a 20000 veces la capacidad de la del bióxido de carbono para absorber la radiación infrarroja. Su concentración está aumentando a una tasa de 5% anual, lo que aunado a su larga permanencia en la atmósfera (tabla 2) los hace de crucial importancia. A eso se debe que la comunidad internacional haya promovido acuerdos (por ejemplo el Protocolo de Montreal) para controlar la producción de dichos compuestos.
 
Perspectiva de investigación: el IGBP     
 
A pesar de que en el presente artículo se hace hincapié en los gases de invernadero y en su relación con la biota, es preciso insistir, nuevamente, en que el cambio global es un tema mucho más amplio. Lo tratado aquí es solamente un aspecto del problema, aunque los cambios en la composición atmosférica representen individualmente la amenaza más importante para la estabilidad ambiental. El reconocimiento de que la humanidad está alterando significativamente todos los sistemas y ciclos que en conjunto hacen posible la vida en la Tierra, dio como resultado el lanzamiento en 1986, por parte del Consejo Internacional de Uniones Científicas (ICSU), de un programa de investigación muy ambicioso: el Programa Internacional de la Geósfera-Biósfera, más conocido como IGBP (International Geosphere-Biosphere Program: A Study of Global Change). Se reconoció que el clima, los ciclos globales del carbono y del agua, y la estructura y el funcionamiento de los ecosistemas naturales están íntimamente relacionados, y que cualquier cambio importante en cualquiera de estos sistemas afectaría a los demás, con consecuencias potenciales muy serias para la humanidad y otras formas de vida en el planeta. El objetivo fundamental del IGBP fue, por lo tanto, describir y entender los procesos físicos, químicos y biológicos interactuantes que regulan el sistema de la Tierra, el ambiente singular que provee para la vida, los cambios que están ocurriendo en este sistema y la forma en que los afectan las actividades humanas. Cumplir con este objetivo implica la interacción activa y constante de disciplinas científicas que nunca o rara vez se comunicaban entre sí, un reto pocas veces planteado con estas dimensiones. Se empezó por identificar los problemas y a construir el programa a partir de preguntas clave.
 
En la actualidad el IGBP está estructurado en seis proyectos núcleo y tres actividades. Los proyectos abordan cuestiones de la química atmosférica, los ecosistemas terrestres, el ciclo hidrológico, las interacciones océano-tierra en la zona costera, la biogeoquímica de los océanos y los cambios globales del pasado. Casi todos ellos cuentan ya con un programa activo de investigación con subproyectos y actividades muy precisas, y son los comités nacionales involucrados en el programa los que están llevando a cabo el trabajo.
 
Fuentes  CO2 (Pg/año)  SUMIDEROS  CO2 (Pg/año)
Combustibles fósiles  5.7  Atmósfera  3.2
Desforestación en los trópicos 2.1?  Océanos 1.0? 
CO y CH4 de quema de vegetación y cambios del suelo 0.7?  Bosques templados y boreales  1.8? 
    Bosques y pastizales tropicales 2.5? 
Total de emisiones 8.5?  Total sumideros 8.5? 
Tabla 3. Proyección del balance anual de bióxido de carbono para 1990 (Modificado de Jarvis & Dewar, 1993). Los valores con un signo de interrogación son inciertos. 1 Pg = 1015g.
  
Se trata de un reto formidable y aunque la investigación en muchas áreas es muy costosa, la comunidad científica ha decidido que es mucho más costoso no entender ni predecir las consecuencias de lo que estamos haciendo con este planeta.
 
 articulos
Agradecimientos
 
Agradezco los comentarios de Alejandro Morón y de Manuel Maass para mejorar el presente manuscrito.
     
Referencias Bibliográficas
 
Bolin, B., 1989, “Changing climates”, pp. 127-147, en: L. Friday & R. Laskev, The Environment, Cambridge University Press, Cambridge.
Gay, C., L. Menchaca & C. Conde, 1991. “El efecto invernadero y México”, Ciencias 22: 3-10.
Graedel, T. E. & P. J. Crutzen, 1989, “The changing atmosphere”, Scientific American 261: 28- 37.
GRIP, 1993, “Climate instability during the last interglacial period recorded in the GRIP ice core”, Nature 364: 203-207.
Houghton, R. A., D. L. Skole, & D. S. Lefkowitz, 1991, “Changes in the landscape of Latin America between 1850 and 1985”, II. Net release of CO2 to the atmosphere, Forest Ecology and Management 38: 173-199.
Jarvis, P. G. & R. C. Dewar, 1993, “Forests in the global carbon balance: From stand to region”, en: Ehleringer, J. R. & C. R. Field, (eds.) Scaling Physiological Processes: Leaf to Globe, pp. 191-222, Academic Press, Nueva York.
Kasting, J. F., O. B. Toon & J. B. Pollack, 1988, “How climate evolved on the terrestrial planet” Scientific American 256: 90-97.
Korner, C., 1993 “CO2 fertilization: The great uncertainty in future vegetation development”, en: A. M. Solomon & H. H. Shugart, (eds.) Vegetation Dynamics and Global Change, pp. 53-70, Chapman & Hall, Nueva York.
Lovelock, J. E., 1979, Gaia: A New Look at Life on Earth, Oxford University Press, Oxford.
Lovelock, J. E., 1988, The Ages of Gaia, W. W, Norton, Nueva York.
Lugo, A. E., & S. Brown, 1992, “Tropical forests as sinks of atmospheric carbon”, Forest Ecology and Management 54: 239-255.
Margulis, L. & D. Sagan, 1986, Microcosmos, Simon & Schuster, Nueva York.
Matson, P. A. & P. M. Vitousek, 1990, “Ecosystem approach to a global nitrous oxide budget”, BioScience 40: 667-672.
Mooney, H. A., R. G. Drake, R. J. Luxmoore, W. C. Oechel, & L. F. Pitelka, 1991, “Predicting ecosystem responses to elevated CO2 concentrations”, BioScience, 41: 96-104.
Moore, III B., & B., Bolin, 1986, “The oceans, carbon dioxide, and global climate change”, Oceanus 22: 9-15.
Rosswall, T., 1991, “Greenhouse gases and global change: International collaboration”, Environmental Science and Technology 25: 567-573.
Sagan, C., W. R. Thompson, R. Carlson, D. Guruett & C. Hord, 1993, “A search for life on Earth from the Galileo spacecraft”, Nature 365: 715-721.
Schneider, S. H., 1989, “The changing climate”, Scientific American 261: 38-47.
Schlesinger, W. H., 1990, “Vegetation: an unlikely answer”, Nature 348: 679.
Schlesinger, W. H., 1991, Biogeochemistry: An Analysis of Global Change, Academic Press, New York.
Silver, C. S., & R. S. DeFries, 1990, One Earth, One Future, National Academy Press, Washington, D. C.
Takahashi, T., P. P, Tans, & I. Fung, 1992, “Balancing the budget: Carbon dioxide sources and sinks, and the effects of industry”, Oceanus 35: 18-28,
Vitousek, P. M., 1992, “Global environmental change: An introduction”, Annual Review of Ecology and Systematics 23: 1-14.
Vitousek, P. M., P. R. Ehrlich, A. H, Ehrlich & P. A. Matson, 1986, “Human appropriation of the products of photosynthesis” BioScience 36: 368-373.
White, J. W. C., 1993, Don’t touch that dial, Nature 364: 186.
Williamson, P., & P. M. Holligan, 1990, “Ocean productivity and climate change”, Trends in Ecology and Evolution 5: 299-303.
     
 _________________________________      
Victor J. Jaramillo
Centro de Ecología,
Universidad Nacional Autónoma de México.
     
_____________________________________      
 
cómo citar este artículo
Jaramillo, Víctor J.  1994. El cambio global: interacciones de la biota y la atmósfera. Ciencias núm. 35, julio-septiembre, pp. 4-14. [En línea].
     

 

 

R35Articulo02   menu2
índice 35 
siguiente
anterior 
PDF
   
   
Victor Magaña Rueda
     
               
               
Mucha gente se pregunta si los veranos son ahora más
calientes que antes y si llueve menos o más. El cambio en el clima, el “agujero de ozono” y el fenómeno de El Niño, parecen ya ser parte del vocabulario de muchos. Opiniones y preocupaciones sobre variaciones en el clima se expresan día a día pero, ¿qué hay detrás de lo que intuitivamente sentimos que está pasando con nuestra atmósfera?, ¿la estamos calentando? o ¿posee “los mecanismos” necesarios para adaptarse a las modificaciones asociadas a factores antropogénicos? Estas preguntas son las mismas que están en la mente de muchos científicos en el mundo y son motivo de grandes discusiones y proyectos.
 
Cuando se habla de variaciones en el clima, se habla implícitamente de la circulación de la atmósfera en diferentes escalas de tiempo y espacio. Para tener una idea de cómo se pueden interpretar dichas relaciones espacio-tiempo hagamos referencia a la figura 1. En esta gráfica se observa que cuanto más grande sea la escala en el espacio del fenómeno, mayor es la escala de tiempo que se utiliza para su descripción y viceversa. A muchos nos gustaría pronosticar en forma precisa cuál será el clima de la Ciudad de México en diez años bajo los efectos, por ejemplo, del aumento de gases de invernadero, pero esto aún no es posible. Cuando más, podemos especular acerca de cómo variará la temperatura en los trópicos, ya que para la descripción adecuada de cualquier fenómeno atmosférico se deben siempre considerar escalas de tiempo y espacio. Por ejemplo, los procesos de menor escala ocurren generalmente en horas o minutos y están cercanos a lo que se conoce como turbulencia, por lo que su estudio es difícil. Para simplificar la descripción de fenómenos atmosféricos se ha creado una subdivisión un poco artificial. Así, se tienen procesos de escala planetaria (~104 km), sinóptica (~103 - 102 km), mesoescala (< 102 km), etcétera, y se habla de tiempo y clima según sea su escala temporal.   
 
En Meteorología las subdivisiones no deben hacernos pensar, sin embargo, que las variaciones en el clima son independientes de las variaciones en el tiempo en escala sinóptica. Después de todo, el clima no es sino el tiempo promedio que ha hecho durante muchos días. Supongamos que iniciamos nuestro estudio de variaciones climáticas analizando alguna escala de tiempo, la más pequeña que se nos ocurra, digamos un día, y pensemos en una de las variables con las que estamos más familiarizados: la temperatura. Durante la mañana ésta comienza a subir, llega a un máximo y por la noche y madrugada desciende hasta alcanzar un mínimo antes de volver a subir. Nos podemos referir a tales variaciones como una oscilación con periodo de un día. Los valores máximos y mínimos de tales oscilaciones dependen de la estación del año. En general, serán mayores durante el verano y menores durante el invierno, es decir son modulados por las estaciones. Tales máximos y mínimos de la temperatura durante las estaciones son a su vez modulados por oscilaciones interanuales que, aunque no siempre tienen un periodo regular, están presentes. Ejemplos de tales fluctuaciones en el clima son el popular fenómeno de El Niño y su menos conocida contraparte, La Niña. Podemos continuar hablando de oscilaciones en escalas mayores de tiempo, modulando escalas menores, hasta llegar a las fluctuaciones de miles de años, como las glaciaciones. Basados en tales procesos de modulación, ¿qué decir, por ejemplo, de procesos de calentamiento global de la atmósfera? Pudiera ser que tal calentamiento sea sólo parte de la variabilidad natural de la atmósfera y que actualmente nos encontremos en la parte ascendente de alguna de las oscilaciones con periodo de decenas o cientos de años. ¿No hay motivo, entonces, para preocuparse si se duplica el bióxido de carbono o el metano “gracias” a las industrias contaminantes en el mundo? Las respuestas son motivo de discusiones acaloradas en los grandes foros científicos y políticos. Gente a favor y en contra expresa opiniones, no siempre sobre bases firmes, principalmente porque aún no se entiende de manera adecuada cómo funciona y “reacciona” nuestra atmósfera a factores anómalos externos.
 
El problema de la variabilidad en la circulación atmosférica se estudia basándose en consideraciones físicas, pues sólo en este marco de referencia se pueden abordar problemas como el de los cambios en el tiempo y en el clima, que son el resultado de complejas interacciones entre atmósfera, océano y continentes.
 
Consideraciones sobre el calentamiento global
 
El efecto invernadero          
 
En la actualidad, el calentamiento global y las consecuentes catástrofes en el mundo se dan como un hecho. El incremento observado en el último siglo en la concentración de bióxido de carbono (CO2) y otros gases “de invernadero” nos ha llevado a crear escenarios de climas con sequías devastadoras y hundimiento de ciudades bajo los efectos del creciente nivel del mar asociado al deshielo en los polos. Sin embargo, la evaluación objetiva de estos peligros requiere una determinación real del problema.
 
El sistema Tierra-atmósfera es calentado por radiación solar de onda corta dada por S0 (1–α) /4, donde S0 es la “constante” solar, α es la fracción de radiación reflejada por la Tierra y el factor 4 está relacionado con la geometría de la Tierra. Este calentamiento debe ser balanceado por emisiones de onda larga (térmica o infrarroja) hacia el espacio (figura 2a). La razón de enfriamiento está dada por σTe4, donde σ es la constante de Stefan Boltzman y Te es la temperatura efectiva a la que radia el sistema. En condiciones de equilibrio:
 
S0 (1-α)/4 = σTe4        
 
que al tomar un valor aproximado de 0.3 para el albedo nos da una temperatura Te de 255°K (–18°C). Si no existiera la atmósfera, ésta sería la temperatura de la superficie de la Tierra.
 
35A02figura01
Figura 1. Relación espacio-tiempo para algunos procesos que ocurren en el sistema atmósfera-océano-continente.
           
 
El vapor de agua, el bióxido de carbono, y otros gases de invernadero son relativamente ineficientes para absorber radiación de onda corta (solar), pero eficientes para absorber la radiación de onda larga. Así, los gases de invernadero absorben la radiación emitida por la superficie y la re-emiten tanto a la superficie, donde produce un calentamiento adicional, como al espacio, para mantener un balance entre la energía que entra y la energía que sale del sistema (Figura 2b). Como resultado, la temperatura superficial media del planeta (~285K) es significativamente más elevada que la temperatura Te con la que radiaría el sistema si no existiera la atmósfera. Este aumento en la temperatura superficial es lo que se conoce como efecto de “invernadero”. Un aumento en CO2 permitiría atrapar más radiación de onda larga, lo que resultaría en una mayor temperatura superficial.
 
Aunque gran parte del CO2 que producimos es absorbido por los océanos, mediante mecanismos que no son completamente conocidos, durante el último siglo, la cantidad de CO2 en la atmósfera ha aumentado significativamente. Tal aumento está asociado principalmente al consumo de combustibles fósiles. Existen datos geológicos que muestran que las fluctuaciones de los gases de invernadero están íntimamente relacionadas con variaciones en la temperatura (figura 3). De acuerdo con las predicciones más recientes se prevé que el duplicar la cantidad de CO2 en la atmósfera se traducirá en incrementos promedio globales de temperatura de superficie de entre 0.5 y 5°C debido al llamado efecto de invernadero y una disminución de la temperatura en las partes altas de la atmósfera, enfriadas por la radiación térmica emitida por este gas. Por otro lado, el incremento de la cantidad de CO2 podría estimular un aumento en ciertos tipos de vegetación. Tal posibilidad está siendo estudiada y de ser cierta, podría representar un cambio benéfico.
 
Ahora bien, el CO2 constituye sólo una mínima parte de los gases de la atmósfera. La distribución del vapor de agua puede determinar el clima de manera aún más directa. Los diversos procesos que involucran circulaciones oceánicas y atmosféricas, variaciones en la cubierta hielo-nieve, nubes y radiación, etcétera, son determinantes en la evolución del clima. Por eso, para analizar el fenómeno del calentamiento global se utilizan esquemas que incluyen la mayoría de estos procesos.
      
 
35A02figura02
Figura 2. Ilustración esquemática del efecto de invernadero, mostrando el balance entre energía incidente, reflejada y emitida al exterior en (a) un planeta sin atmósfera, y (b) un planeta con atmósfera.
 
El uso de modelos de circulación general de la atmósfera y el océano
 
El cambio climático global se estudia utilizando diferentes procedimientos. El más común hace uso de modelos numéricos basados en leyes que gobiernan la física de la atmósfera y el océano. Por ejemplo, existen modelos de balance de energía y modelos radiactivo-convectivos (Gay y Conde 1992), que se fundamentan en principios de conservación de energía para pronosticar cambios en la temperatura de superficie. Estos modelos han sido utilizados desde los años setentas para obtener pronósticos con cierto éxito.
 
Existen también los modelos de circulación general (GCM, por sus siglas en inglés), que sacrifican la relativa “simplicidad” de los anteriores con el fin de incluir la mayoría de los efectos que determinan la dinámica atmosférica en gran escala y sus interacciones con los océanos. Por su complejidad, dichos modelos sólo describen procesos de gran escala espacial. Los efectos de menor escala, nubes, orografía, características del terreno, algunas ondas atmosféricas, etcétera, quedan parametrizados en términos de variables de gran escala. Los GCM son capaces de simular la variación estacional y latitudinal de la temperatura en superficie, la localización de los centros de baja presión donde se generan tormentas, las zonas intertropicales de actividad convectiva, etcétera, por lo que se han convertido en la herramienta más popular en los estudios del clima.             
 
La manera como se emplean los GCM se basa en el pronóstico de la circulación atmosférica a partir de las condiciones observadas en el presente (experimento de control) y de condiciones iniciales anómalas, que corresponden a escenarios climáticos tales como El Niño, las glaciaciones, etcétera. Los pronósticos que se obtienen a partir de estas condiciones anómalas son comparados con los obtenidos a partir del experimento de control, y de esta forma se logra tener una idea aproximada del impacto en el clima de una situación anómala. Así, se pueden construir escenarios en los que exista el doble de bióxido de carbono en la atmósfera y su correspondiente clima, incluyendo los cambios de la temperatura promedio del planeta.
 
Aunque el costo de usar modelos de circulación general es alto, pues se requieren de sofisticados equipos de cómputo, en la actualidad se realizan diversos experimentos numéricos del clima para entender el impacto de un aumento de los gases de invernadero. Son varias las maneras en que se realizan tales experimentos. En uno de los casos, por ejemplo, se aumenta gradualmente el CO2 hasta duplicarlo en un cierto número de años, tiempo en que se analizan las condiciones anómalas en el clima. Los resultados de estos experimentos muestran que la temperatura promedio superficial aumenta. En otro tipo de experimento, se considera el doble de bióxido de carbono como condición inicial y se corre el modelo hasta alcanzar una situación de equilibrio. Como en el caso anterior, el resultado corresponde a aumentos de temperatura superficial, aunque de diferentes órdenes de magnitud debido a la inercia térmica del océano. Un ejemplo de tales predicciones, para invierno y verano, se muestra en la figura 4.
 
Los estados de equilibrio alcanzados por la mayoría de los modelos de circulación general acoplados a modelos de océano, que son muy probables de ocurrir en la atmósfera real indican que, de duplicarse la concentración de CO2:
 
• la estratósfera (entre 10 y 50 km de altura) se enfriará, 
• la tropósfera (de la superficie a 10 km de altura) se calentará y, el ciclo hidrológico se intensificará.       
 
Por otro lado, los siguientes cambios ocurren en modelos similares y probablemente se observarán en la atmósfera: 
 
• el calentamiento será mayor en latitudes altas durante el invierno,
• el calentamiento medio anual será pequeño en los trópicos,
• el calentamiento en los trópicos variará poco con las estaciones,
• la precipitación aumentará durante los meses de invierno en latitudes medias y altas,
• la humedad del suelo y los escurrimientos al océano aumentarán en latitudes medias y altas durante el invierno, y
• el hielo en los polos se derretirá tempranamente y se formará tardíamente.
 
Finalmente, algunos modelos predicen los siguientes cambios que resultan menos probables de ocurrir en la atmósfera:     
 
• el ciclo anual de la cubierta de nieve será más corto, y 
• la humedad acumulada en el suelo será menor durante el verano en las latitudes medias del hemisferio norte.    
 
La incertidumbre en la mayoría de los resultados se debe a que la sofisticación de los distintos modelos de circulación general parece ser aún insuficiente para entender la variabilidad climática. La respuesta de los GCM puede variar grandemente dependiendo del tipo de modelo de circulación del océano al que sea acoplado. Las diferencias en la temperatura superficial promedio del planeta pronosticada pueden ser de hasta 2°C. Además, como se mencionó anteriormente, un factor más de incertidumbre es la manera en que se ha diseñado el experimento. Si se inicia con condiciones iniciales 2 x CO2 los cambios pronosticados son mayores que si se aumenta gradualmente la cantidad de CO2 en la atmósfera. El sentido común indicaría aumentar gradualmente la cantidad CO2 en la atmósfera pero, cuánto tiempo tardará en duplicarse depende de factores geofísicos, políticos, económicos y sociales, no siempre fáciles de cuantificar. En la parte geofísica, por ejemplo, factores como la capacidad y velocidad de asimilación de CO2 por parte de los océanos, la inercia térmica de éstos, los tiempos de circulaciones profundas, etcétera, poco entendidos hasta ahora, son determinantes a la hora de dar una respuesta confiable. Se estima, sin embargo, que la duplicación de la cantidad de CO2 pudiera ocurrir entre cincuenta y cien años.
 
De acuerdo con modelos numéricos, el incremento en los gases de invernadero durante los últimos 150 años debería haber producido ya un calentamiento de entre 0.5 y 2°C. Sin embargo, ese cambio no ha sido detectado satisfactoriamente en observaciones de temperatura en superficie y cuando más se habla de un incremento de 0.5°C desde 1880. Esto no significa que el aumento no haya ocurrido. El problema es que las observaciones para determinar el cambio de temperatura en el planeta son pocas y no siempre consistentes, haciendo difícil corroborar las predicciones de los modelos.
 
 
Variaciones climáticas en escalas geológicas de tiempo
 
Muchos experimentos con los GCM han sido desarrollados para cuantificar y validar simulaciones del clima. Los mismos GCM que ahora se usan para pronosticar el cambio climático en los próximos decenios, han sido utilizados en estudios de paleoclima. La comparación de los resultados numéricos, con datos obtenidos de análisis de O18 y CO2 en columnas de hielo extraídas de los polos, registros climáticos generados a partir de los anillos de crecimiento de árboles o los registros de sedimentos y polen en los estratos del subsuelo, muestran una concordancia significativa. En varios casos, los cambios de temperatura simulados por los modelos corresponden con precisión a periodos de calentamiento e incluso de glaciaciones. Sin embargo, las condiciones especiales bajo las que esos experimentos numéricos se realizan pueden llevar a una falsa confianza en la capacidad de los modelos para simular el clima en grandes escalas de tiempo. Mediante estudios paleoclimáticos se ha concluido que el sistema atmosférico es mucho más sensible que nuestra habilidad para modelarlo. Aun así, se sabe que las fluctuaciones de la temperatura asociadas a cambios en CO2 son reales (figura 3), tal como lo muestran los modelos. Por tanto, aunque la sensibilidad del sistema no sea completamente conocida, es suficientemente grande como para que el rápido aumento en los gases de invernadero sea motivo de preocupación.
 
35A02figura03
Figura 3. Variaciones en las concentraciones de CO2 y fluctuaciones en la temperatura superficial durante los últimos 160000 años a partir de una columna de hielo extraída en la Antártida.
     
 
En el pasado han existido concentraciones de CO2 mucho más grandes que las actuales, pero éstas se dieron gradualmente, en periodos de muchos miles de años, mientras que los cambios actuales se dan en periodos muy cortos (decenas de años). El rápido incremento del CO2 en nuestro tiempo está asociado a condiciones de no-equilibrio que harán aumentar la variabilidad del sistema climático. Las características actuales de la orografía, las circulaciones oceánicas y el terreno, tan diferentes a las de hace millones de años, nos llevan a concluir que de continuar el aumento del CO2, los cambios climáticos por venir serán únicos en la historia de la Tierra.
 
 
 35A02figura04
Figura 4. Cambios en la temperatura de superficie pronosticados por el GCM, del Centro Climático Canadiense debido a un incremento del doble en la concentración del CO2 en la atmósfera durante (a) invierno, y (b) verano.
 
Cambios climáticos durante el último siglo
 
Para entender los cambios climáticos recientes, se han compilado los datos colectados durante los últimos cien años en estaciones meteorológicas y por barcos mercantes. Su análisis requiere consideraciones especiales que incluyen correcciones de errores sistemáticos en las medidas, así como de los efectos de urbanización, en el caso de estaciones en ciudades. Con base en esos datos se ha determinado que durante el último siglo han existido periodos de calentamiento global, como entre 1920 y 1939 y entre 1967 y 1986 (figura 5). También se ha observado que el aumento aproximado de la temperatura superficial del planeta durante este periodo es de 0.5°C. Tal tendencia de la temperatura superficial valida parcialmente los pronósticos de los GCM. Los cambios de temperatura no son, sin embargo, uniformes en todo el planeta pues como predicen los modelos, los aumentos parecen ser mayores en latitudes altas (Figura 4). Por eso también se tiene interés ahora en los cambios climáticos regionales, como la frecuencia de sequías o inundaciones, aumentos locales en la temperatura, etcétera, ya que tendrán un impacto directo en la actividad humana.    
    
 
35A02figura05
Figura 5. Estimaciones de las variaciones anuales de la temperatura en superficie a partir de 1860, respecto de una normal de referencia, para el Hemisferio Norte, Hemisferio Sur y global. (Tomado de Jones et al., 1991).
 
El cambio climático regional
 
Aunque en general los modelos coinciden en sus predicciones al estimar cambios climáticos en grandes áreas del planeta, existen diferencias notables cuando se comparan cambios climáticos regionales o locales.
 
No es sino hasta fechas recientes que se ha comenzado a estudiar el cambio climático a escala regional. Para algunos lugares se pronostica que un ciclo hidrológico más intenso corresponderá a periodos de inundaciones más frecuentes. Esto implica que habrá un mayor número de tormentas durante los meses de lluvia, que no serán de una lluvia uniforme y moderada, sino que serán tormentas fuertes y localizadas que provocarán graves daños. Los huracanes, por ejemplo, que de manera tan directa afectan nuestro país, serán más intensos de lo que hasta ahora son. Asimismo, los periodos de sequía serán mucho más prolongados. De acuerdo con modelos numéricos, tales cambios se manifestarán de manera clara en los subtrópicos, por ejemplo en México. Algunos científicos incluso especulan que los primeros indicios de sequías ya comienzan a aparecer en el Sahel. Por otro lado, los incrementos de temperatura podrían afectar grandemente a los crecientes núcleos de población en las costas del mundo, ya que el aumento en los niveles del mar pondrá en riesgo las ciudades. Este fenómeno se dejará sentir también porque afectará la ecología de playas, estuarios, lagunas costeras, etcétera, al trastornar el delicado balance entre aguas de diferentes grados de salinidad.
 
Desde un punto de vista más práctico, debemos señalar que los cambios más notables en el clima regional están, y estarán, asociados a cambios en las características del terreno por actividades humanas, más que al cambio climático por aumento del CO2 Los efectos de la deforestación, sobrexplotación de los pastizales por la industria ganadera, crecimiento desmedido de las manchas urbanas, etcétera, provocan variaciones, a veces significativas, en el clima local. Aunque actualmente se trabaja en todo el mundo con el fin de entender el cambio que provocará el aumento de CO2 en el clima y su impacto en los ecosistemas, pudiera ocurrir que para cuando éste se dé, los ecosistemas que hoy describimos ya hayan desaparecido.
 
Los factores que determinan cambios climáticos regionales son muchos. En el caso de la Ciudad de México por ejemplo, se experimenta el llamado efecto de la “isla de calor” (Jáuregui, 1992), asociado a aumentos de temperatura superficial. Mediante datos promedio mensuales se puede observar que durante los últimos cincuenta o sesenta años existe una ligera tendencia de aumento de temperatura (figura 6a). Sin embargo, este cambio es difícil de detectar por “pura experiencia personal”. Las grandes variaciones climáticas interanuales y de decenios, inherentes al sistema, engañan nuestra memoria. Estas variaciones se observan no sólo en temperatura sino también en la precipitación, y oscurecen a veces los cambios debido a factores antropogénicos. Para darnos cuenta de ello, baste observar las variaciones en la precipitación en la Ciudad de México durante un periodo de ochenta años (1921-1980). Con un poco de cuidado se encontrará que han existido periodos de menor y mayor cantidad de lluvia en escalas de tiempo de unos treinta años (figura 6b). Después de analizar esa gráfica, ¿puede nuestra intuición decirnos si llueve ahora más o menos que antes?  
 
35A02figura06
Figura 6. (a) Temperatura promedio mensual, y (b) precipitación acumulada mensual, en la ciudad de México para el periodo 1921-1980. Los huecos corresponden a falta de datos.

 
Conclusiones    
 
El estudio del cambio climático encierra una gran cantidad de problemas. Aquí nos hemos referido principalmente a los procedimientos que se siguen para pronosticar el impacto que tendrá en el clima ante un eventual aumento al doble de la cantidad de bióxido de carbono en la atmósfera. En general, parece existir un consenso sobre el aumento en la temperatura superficial del planeta al aumentar el CO2, aunque sin saber de qué magnitud será y en cuantos años se dará. No está por demás repetir que la mayoría de esas predicciones se basan en modelos numéricos con imperfecciones, y que sólo son una aproximación a la realidad. Se tendrá más certeza en esas predicciones cuando los estudios se realicen con modelos de mayor resolución espacial, y una representación más realista de los factores que determinan el clima local: nubes, hidrología subterránea, efectos de la vegetación, orografía detallada, etcétera. Por supuesto, a escala global, los modelos también tendrán que mejorar, entre otras cosas, en la simulación de la absorción y transporte de calor y de CO2 por los océanos. Sólo así se conocerá el grado de sensibilidad del sistema atmósfera-océano-continente a perturbaciones naturales o antropogénicas. Por otra parte, se estima que a escala regional los cambios climáticos estarán mayormente determinados por cambios en las características del terreno asociados a la actividad humana. Los detalles de tales cambios tampoco pueden describirse con exactitud pues se desconoce cómo actúan muchos procesos de retroalimentación en el sistema que controla el clima en estas escalas espaciales.
 
Aunque en el entendimiento de los fenómenos que controlan el clima y el tiempo se ha progresado notablemente, falta aún mucho que conocer del sistema atmósfera-océano-continente; alterarlo sin saber cómo reaccionará es un juego peligroso que puede tener consecuencias por demás indeseables. Aunque ciertos factores físicos nos podrían hacer pensar que la atmósfera se ajustará a los cambios que hoy le imponemos, ya sea por aumentos en el CO2 o cambios en el terreno, es necesario manejar inteligentemente el planeta. Nuestro escepticismo podría llevarnos a pensar que dado que los pronósticos del tiempo y el clima nunca son acertados, no hay por qué preocuparse. Concluiré haciendo referencia a un planteamiento que en este sentido me hicieron hace poco tiempo. Si se nos dijera que el avión en el que vamos a viajar está fallando y que existen posibilidades de que pudiera estrellarse, ¿lo abordaríamos?
 
 articulos
 
     
Referencias Bibliográficas
 
Adem, J., 1992, “Estimación del cambio climático global”, Ciencia, 43, 9-11.
Anthes, R., 1984, “Enhancement of convective precipitation by mesoscale variations in vegetative covering in semiarid regions”, J. Clim. Appl. Meteor. 23, 541-554.
Conde, C. y C. Gay, 1992, “Modelo radiactivo convectivo. Comparación entre los casos cielo despejado y con nubes”, Ciencia 43,15-19.
Emanuel, 1992, The dependence of hurricane intensity on climate, Nature, 326, 483-485.
Gay, C., L. Menchaca y C. Conde, 1991, “El efecto invernadero y México”, Ciencias 22: 3-10.
Jáuregui, E., 1992, “Aspects of monitoring local/regional climate change in a tropical region”, Atmósfera, 5, 69-78.
Jones, P. D., T. M. L. Wigley y G. Farmer, 1991, “Marine and land temperature data sets: A comparison and a look at recent trends”, en Greenhouse Gas-Induced Climate Change: A Critical Appraisal of simulations and observations (ed. M. E. Schlesinger) Elsevier, Amsterdam.
Mitchell, J. F., 1989, “The ‘greenhouse’ effect and climate change”, Reviews of Geophys. 27, 115- 139.
 
     
____________________________________________________________      
Víctor Magaña Rueda
Centro de Ciencias de la Atmósfera,
Universidad Nacional Autónoma de México.
     
____________________________________________________________      
 
cómo citar este artículo
Magaña Rueda, Víctor. 1994. El pronóstico del tiempo para los próximo días, meses, años .... Ciencias núm. 35, julio-septiembre, pp. 15-22. [En línea] .
     

 

 

R35Articulo06   menu2
índice 35 
siguiente
anterior 
PDF
   
   
Julieta Fierro      
               
               
Una propiedad de la naturaleza es el tiempo. Nos podemos
dar cuenta del paso del tiempo al observar fenómenos repetitivos, como la sucesión del día y de la noche.
 
Quizá una de las más antiguas inquietudes del hombre ha sido la de comprender lo que es el tiempo y tratar de medirlo. Galileo, el primer físico experimental de la época moderna, se dio cuenta de que un fenómeno repetitivo como el de las oscilaciones de un largo candil de una iglesia le permitiría medir el tiempo. Lo descubrió comparándolo con su pulso. Inventó el péndulo.
 
El lector puede fácilmente construir uno, usando cualquier objeto colgado de un cordón, y comprobar por sí mismo lo que descubrió Galileo, a saber, que la frecuencia del péndulo depende de su longitud. Sugerimos que el lector construya un péndulo bastante largo, lo ponga a oscilar y lo vaya acortando, jalando del cordón. A simple vista podrá notar cómo se mueve más rápido entre menor sea la longitud de la cuerda.   
 
El pulso de una persona sana es de entre 78 y 80 pulsaciones por minuto. Desde luego que este número puede cambiar: aumenta con el calor y el ejercicio físico. Galileo hizo su experimento cómodamente sentado, por consiguiente su pulso fue bastante estable. El lector puede medir su pulso colocando suavemente sus dedos índice, medio y anular de una mano, sobre la vena que está bajo la muñeca, poco antes del pulgar de la otra mano.
 
La medición del tiempo utilizando péndulos se ha empleado incluso en tiempos recientes. Durante la Revolución francesa se trató de redefinir la unidad de tiempo, de tal manera, que hubiera diez horas durante el día divididas en cien minutos y en cien segundos. Así, la unidad de segundo sería el lapso que le tomaría a un péndulo de un metro de longitud completar una oscilación. Esta propuesta no tuvo éxito, y aunque sí utilizamos el metro definido parcialmente de esta manera, seguimos empleando la unidad de segundo inventada por los caldeos hace unos tres mil años.
 
Los relojes antiguos
 
Una herramienta que ha inventado el hombre es el reloj, instrumento que mide intervalos de tiempo.
 
Ya desde la antigüedad se utilizaban relojes de arena y clepsidras inventadas por los egipcios y los chinos, los lapsos correspondían al tiempo que le tomaba a una cantidad de agua determinada, pasar de un recipiente a otro por un orificio pequeño. De hecho, una cafetera donde escurre el agua de un recipiente a otro, como una Melita, es una clepsidra, ya que siempre tarda lo mismo en preparar esa bebida aromática. Sin embargo, la clepsidra, al igual que el reloj de arena, es incapaz de medir tiempos absolutos y es bastante imprecisa.
 
El gnomon        
 
Un intervalo que nos da noción de tiempo es la sucesión del día y la noche. Observando la posición del Sol en el cielo se puede tener una idea de la hora. Cerca del ecuador, el Sol se levanta al amanecer por el horizonte Este, como a las 6 a.m., a mediodía está casi encima de nuestras cabezas, y al atardecer se mete en el horizonte Oeste, como a las 7 a.m. A esta unidad le llamamos día y la hemos dividido en 24 horas: doce de luz y doce de oscuridad, utilizando docenas, unidades que empleaban los caldeos para contar.
 
Los egipcios de la antigüedad pensaban que cada día nacía el dios del Sol, Ra, y que navegaba a lo largo de la bóveda celeste en un barco sagrado. Este mito data de hace unos 4000 años. Cada mañana el barco navegaba por el cielo, que para ellos era un océano, saliendo por el horizonte Este. Por la noche la barca se metía en el horizonte Oeste y continuaba su viaje por el inframundo, donde moría. Los griegos tenían una idea similar. Para ellos, Apolo conducía por el cielo una carreta tirada por tres caballos, y así lograba recorrerlo en un día.
 
Estos pueblos y muchos más, notaron que la sombra que proyectaba una barra de madera enterrada de tal manera que quedara vertical en relación al suelo, cambiaba de longitud y de dirección a lo largo del día. Cualquier barra perpendicular a una superficie que sea empleada para observar el cambio de longitud y de dirección de su sombra, y por consiguiente para medir el tiempo se llama gnomon.
 
Sugerimos que el lector construya un reloj de Sol muy primitivo colocando un lápiz bien derechito, dentro de una bola de plastilina y que lo instale cerca de una ventana que dé al Este o al Oeste; o bien en algún lugar soleado, ya sea dentro o fuera de casa. Podrá observar que conforme pasa el tiempo la sombra cambia de longitud. Si está nublado o es de noche y el lector desea verificar el funcionamiento de su “lápiz reloj”, podrá iluminarlo con una lámpara desde diferentes posiciones y notará lo corta y larga que se puede hacer la sombra.
 
Para comprender cómo funciona el reloj de lápiz, notamos que durante el día el Sol se mueve de Oriente a Poniente en aproximadamente 12 horas. Es decir que el Sol recorre ciento ochenta grados, medio hemisferio, en 12 horas; o lo que es lo mismo, -dividiendo ambos números entre doce-, quince grados por hora. Así, conforme avanza el Sol en el cielo, se va moviendo quince grados por hora y sus rayos van incidiendo en diferentes ángulos sobre nuestro lápiz, produciendo una sombra de diversa longitud, de acuerdo al lugar que ocupe el Sol. En el amanecer y al atardecer, las sombras que proyecta la barra son alargadas, mientras que a mediodía la sombra se vuelve muy cortita. Este principio de la variación de la sombra de una estaca clavada en el piso es lo que permite construir relojes de Sol. Este método ha resultado tan eficaz que se siguió usando comúnmente hasta finales del siglo pasado.
 
Los egipcios utilizaban relojes de Sol de dos tipos, unos magníficos, los obeliscos, que son enormes esculturas delgadas y altas, y otros de tipo personal en forma de T. Los más antiguos que se conocen datan del año 2000 a. C. Estos últimos se colocaban orientados al Este, de tal manera que por la mañana la sombra de la barra horizontal era grande, y conforme ascendía el Sol la sombra se iba acortando hasta desaparecer al mediodía; después del mediodía, había que voltear el instrumento para que la T ahora apuntara al Oeste, de manera que la sombra creciera gradualmente hasta el atardecer. Lo ingenioso de los relojes de sombra en forma de T es que la longitud de la sombra siempre es la misma, ya que es producida por la parte superior de la T. Es como tener un reloj de lápiz paralelo al piso en lugar de perpendicular a él. Sugerimos que el lector haga la prueba.
 
Hasta ahora hemos descrito relojes de Sol colocados en latitudes cercanas al ecuador. ¿Qué sucedería con un reloj de Sol colocado cerca de los polos? Durante los seis meses en que solo es de noche, ¡no serviría para nada! Sin embargo, durante los meses en que siempre es de día, un gnomon sería ideal. Como el Sol parece moverse alrededor del horizonte a lo largo del día y nunca se pone, la sombra del gnomon circularía alrededor del gnomon, como las manecillas de un reloj de pared. La sombra recorrería trescientos sesenta grados en 24 horas. Ahora bien, un reloj paralelo al piso, como la barra de la T, proyectaría una sombra tan distante que no serviría de mucho.
 
Por consiguiente, el reloj más adecuado dependerá de la latitud del usuario. La latitud es una medida de distancia que nos indica qué tan alejados estamos del horizonte. Una persona parada sobre el ecuador está a O grados, mientras que una sobre el Polo Norte estará a más de noventa grados, y en la ciudad de México estaría a 19 grados.         
 
A pesar de la precisión y la formalidad del Sol los relojes solares tienen dos problemas: la noche y los días nublados.
 
Las estaciones
 
Los planetas tienen dos movimientos, por un lado giran sobre sí mismos como trompos, lo que constituye el movimiento de rotación, y por otro lado giran alrededor del Sol, lo que se conoce como movimiento de traslación. Quien se haya subido en una feria a “las tazas”, un juego que gira como “los caballitos” y que uno hace dar vueltas girando un volante, puede imaginar muy bien cómo se mueven los planetas. Con excepción de Urano, que más bien rueda conforme se traslada (como dar marometas mientras gira el tiovivo).
 
Todos los planetas dan vuelta alrededor del Sol casi en un plano al cual podemos imaginar como el piso de los caballitos —aunque desde luego en el caso de los planetas es un plano imaginario: el plano de traslación.
 
La línea imaginaria alrededor de la cual rotan los planetas se llama eje de rotación. La dirección en la que apunta el eje de rotación combinada con el movimiento de traslación, da lugar a las estaciones. En algunos lugares de la Tierra se producen estaciones muy marcadas: primavera, verano, otoño e invierno. En otros lugares se notan de manera distinta, como en la zona ecuatorial en donde se percibe una época de lluvias, y una de secas, por ejemplo. En otros planetas como Marte, también hay estaciones; sus casquetes polares cambian notablemente de tamaño durante el año marciano. En cambio, en mundos como Júpiter no hay estaciones. Para entender cómo se producen las estaciones veremos primero qué pasa en Júpiter.
 
El eje de rotación de Júpiter es perpendicular a su plano de traslación. Es como si el eje estuviera parado. Debido a esto, cuando Júpiter rota, la cantidad de luz y calor que cae en cada punto de su superficie es siempre la misma, sin importar en qué parte de su órbita se encuentre. Es decir, independientemente del día del año, los diversos lugares de la superficie reciben igual cantidad de horas de luz y de noche. Cerca del ecuador siempre hay mayor insolación que cerca de los polos.
 
En Urano la situación es diferente. El eje de rotación está en el plano de su órbita, de manera que parece estar acostado. En la figura 1 (lado izquierdo) se muestra a Urano en varias posiciones de su órbita. Cuando está en la posición A su polo norte apunta casi hacia el Sol. Aunque está rotando, la luz solar cae siempre en la misma mitad del planeta. La otra mitad está siempre oscura. En el lado iluminado por el Sol, es verano, mientras que en el otro lado hace mucho frío porque no lo ilumina el Sol y es invierno. Cuando el Sol está en posición B, el polo sur es el que apunta al Sol, por lo que siempre está iluminado, mientras que el lado norte permanece oscuro. Ahora es verano en el sur e invierno en el norte. Por más que rote el planeta en la posición B, al hemisferio norte no le toca nada de luz.
 
 
Reloj de Sol.
   
 
Desde luego que durante su órbita, a Urano le tocan posiciones intermedias, donde toda la superficie recibe iluminación conforme rota el planeta. Esta posición sería la de la primavera uraniana.
 
Así, mientras que en Júpiter no hay estaciones, en Urano sí las hay y son extremas. ¿Qué sucede en la Tierra o en Marte? Sus ejes de rotación están ligeramente inclinados. La figura 1 (lado derecho) muestra a la Tierra en su órbita. Cuando está en la posición A, llega más luz al hemisferio norte, y es verano en el norte e inverno en el sur. Cuando está en la posición B, la situación se invierte.
 
De todo lo anterior se puede concluir que las estaciones se deben a la inclinación del eje de rotación de un planeta.
 
A ello se debe que en Marte y en la Tierra la situación no sea tan aburrida como en Júpiter, en donde no hay estaciones, ni tan extremas como en Urano, en donde prevalece una situación de todo o nada. Los ejes de rotación de la Tierra y de Marte, están inclinados unos 24 grados con respecto a sus planos de traslación, de tal manera que, alternadamente, los hemisferios norte y sur reciben mayor cantidad de radiación solar.
 
Este mismo fenómeno hace que en Júpiter los días siempre duren lo mismo que las noches, y que en Urano, Marte y la Tierra, existan dos días en sus periodos de traslación, en que el día y la noche tengan la misma duración en todo el planeta. En la Tierra éstos son, aproximadamente, el 21 de marzo y el 21 de septiembre.
 
Las salidas y puestas del Sol          
 
Aunque sabemos que la Tierra gira alrededor del Sol, sentimos que el Sol es el que da vueltas en torno a la Tierra. Así, es posible seguir la trayectoria del Sol por los cielos de nuestro planeta o de cualquier otro de nuestro sistema solar. Desde diferentes planetas, imaginemos dónde estaría colocado el Sol a mediodía durante las distintas estaciones, tanto en el ecuador, como en alguno de los polos. Los habitantes de otras regiones registrarían situaciones intermedias.
 
Primero Júpiter. A mediodía un habitante del ecuador vería siempre el Sol encima de su cabeza, mientras que un habitante del Polo, lo vería siempre cerca del horizonte, independientemente del día del año.
 
 
La medición del tiempo astronómico se hace, en la actualidad, respecto a las estrellas.
       
 
Ahora Urano. En el verano un habitante del polo Norte vería que el Sol está encima de su cabeza todo el día, aunque el planeta rote. En la primavera el Sol estaría en el horizonte, y el invierno no saldría para nada ya que, por más vueltas que diera el planeta, el Sol no dejaría de estar en dirección opuesta a sus pies.
 
Cuando es primavera en Urano, un habitante del Ecuador, vería que el Sol está encima de su cabeza a mediodía, y que, conforme transcurre el año, el Sol se va acercando al horizonte, hasta llegar el invierno en que estaría pegadito a él. Así, un reloj de Sol en algún polo de Urano, serviría de muy poco, tanto en invierno como en verano. En pleno verano, no proyectaría sombra, ya que el Sol siempre estaría encima de la cabeza del observador, y en invierno ni siquiera saldría.
 
En la Tierra, un habitante del ecuador tendría al Sol encima de su cabeza a mediodía, 23.5 grados hacia el norte durante el verano y corrido en el mismo ángulo hacia el sur en el invierno.
 
De igual manera que visto desde la tierra, el Sol parece estar en distinta posición a mediodía durante el año, así varía la posición del lugar por donde sale y por donde se mete. Esto depende también de las estaciones, es decir, de la inclinación del eje de rotación de la Tierra.
 
El tiempo sideral
 
Las mediciones del tiempo astronómicas, están basadas en la rotación y traslación de la Tierra; movimientos que marcan el paso de los días y de los años. En la actualidad se utilizan dos pasos sucesivos de una estrella por el meridiano del observador para medir un día, y las posiciones de las mismas estrellas en el cielo para medir el año. Sin embargo, en este artículo preferimos referirnos a las mediciones del tiempo utilizando al Sol porque pensamos que son más intuitivas.
 
 
Figura 1.
 
 articulos
____________________________________________________________      
Julieta Fierro
Instituto de Astronomía,
Universidad Nacional Autónoma de México.
     
____________________________________________________________
     
 
cómo citar este artículo
Fierro, Julieta. 1994. El tiempo en astronomía. Ciencias núm. 35, julio-septiembre, pp. 52-56. [En línea].
     

 

 

R35Articulo07   menu2
índice 35 
siguiente
anterior 
PDF
   
   
Francisco Sour Tovar      
               
               
El concepto del tiempo, como parámetro de medición
de la historia de la Tierra, constituye un aspecto del conocimiento humano que se ha desarrollado, paralelamente a la cultura y que por lo tanto ha sido explicado desde muy diversos puntos de vista.
 
Anaximandro, filosofo jónico del siglo VI a. C., concebía al Universo como una entidad de extensión y duración infinita, donde la materia era indestructible, eterna y fuente de origen de todas las cosas. Pensaba en una ciclicidad en el tiempo, durante el cual habían surgido, desaparecido y vuelto a aparecer infinidad de universos que en su ocaso se disolvían en materia amorfa. Imaginó a la Tierra como una columna cilíndrica, flotando en el centro del Universo y rodeada de aire. Anaximandro pensaba que el origen de los seres vivos “sencillos” había ocurrido a partir de la evaporación de un elemento líquido, mientras que los seres que presentan un desarrollo más complejo, como el hombre, que necesitan un largo periodo de amamantamiento y cuidados antes de poder alimentarse por sí mismos, se ha originado a partir de individuos de una especie más “sencilla”. Por ejemplo, sugirió que los primeros hombres habían sido engendrados por tiburones que los parían en un estado de desarrollo avanzado, arrojándolos sobre las playas. 
 
Empédocles, cien años después, mantenía la idea de una ciclicidad en el tiempo, a través del cual fuerzas opuestas se alternaban el dominio de la naturaleza. Este pensador creía que los seres vivos habían surgido en un momento en que el amor reinó sobre la Tierra, permitiendo que la naturaleza creara por la combinación de diversos elementos, estructuras orgánicas sueltas (brazos, piernas, cabezas, órganos internos) que en un segundo periodo de armonía se mezclaron produciendo una diversidad de seres vivientes con características muy peculiares como quimeras, minotauros, bicéfalos, centauros, hombres, animales, etcétera, que se enfrentaron a las condiciones ambientales y de los cuales sólo sobrevivieron los que presentaban una constitución acorde y “funcional”.
 
Las ideas de Anaximandro y Empédocles reflejan en gran medida la creencia de los griegos presocráticos sobre un origen natural del Universo y todas sus partes. Para ellos, la historia de la materia, orgánica e inorgánica, cualquiera que fuese, se enmarcaba sin problemas en una concepción de la Tierra vagando en el universo durante un tiempo infinito.
 
En el siglo III a. C. estas concepciones naturalistas se enfrentaron al idealismo que se desarrolló con Sócrates, Platón y sus seguidores quienes proponen que el origen de toda la naturaleza son designios u obras divinas. En particular los seres vivos son considerados como obras de los dioses, creados de acuerdo a patrones ideales. Así, los cuerpos de las plantas y animales son simples portadores del alma, una esencia divina. Por la obra Timeus se sabe que Platón creyó que toda la naturaleza fue creada a partir de los cuatro elementos primordiales (fuego, aire, agua y tierra): y que los cuerpos de los seres vivos, están formados por triángulos que al desgastarse en sus vórtices rompían la armonía de la estructura provocando enfermedades y envejecimiento.
 
Al hablar sobre el hombre, se manifiesta la idea platónica de la reencarnación. Se piensa que en el ser humano existen tres tipos de almas: una superior que reside en la cabeza y que le otorga cualidades intelectuales y espirituales; la segunda, caracterizada por el valor, que se ubica en el pecho y se comparte con los animales; el tercer tipo de alma, la inferior, se encuentra en el abdomen, y es compartida con los animales “inferiores” (“peces” y “ostras”) y le da al hombre un carácter débil, lujurioso y criminal. En este esquema el hombre podía ser dominado durante los diferentes periodos de su vida por alguna de sus tres almas y dependiendo de su comportamiento global y de acuerdo cpn los patrones éticos de la época, su destino sería reencarnar en algún tipo de planta o animal —donde se incluía a las mujeres. Aquellos hombres de comportamiento ejemplar podían aspirar a reencarnar en un nivel supremo representado por las estrellas. Con estas ideas, el pensamiento platónico mantiene la idea de que la historia de la naturaleza se desarrolla en un ciclo temporal en que los seres vivos están sujetos a una cadena sin fin, en donde cada eslabón representa un nivel de vida para la esencia divina que portan.
 
 
Figura 1. Dibujo de Henry de la Beche donde caricaturiza las ideas de Charles Lyell sobre un uniformitarismo extremo, la ciclicidad del tiempo y la reaparición de biotas fósiles en el futuro, cuando se repitan las condiciones ambientales del pasado. Ilustra al profesor Ichtyosaurus discutiendo con colegas y alumnos, acerca de las características de una extraña criatura (un hombre) que existió durante la última creación.
 
En el siglo III a. C. las ideas presocráticas y las platónicas confluyen en el desarrollo de la escuela aristotélica. En esta etapa la cultura griega se caracteriza por observar y estudiar a la naturaleza de manera empírica y objetiva, pero siempre las interpretaciones que se hacen se mezclan con una serie de conceptos idealistas. Aristóteles en particular reconoce en los seres vivos la existencia de una gradación que se inicia con los seres sencillos y que avanza progresivamente hasta llegar al hombre. Estableciendo la llamada “escala natural”, reconoce la existencia de una serie de tipos básicos (gusanos, moluscos, plantas, peces, aves, mamíferos, etcétera), que son vistos como resultado de una creación ordenada matemáticamente. Existiendo un ser supremo responsable de esta creación, cada especie es considerada un reflejo de una forma ideal y perfecta pero dada la inestabilidad de la naturaleza, los individuos degeneran alejándose morfológicamente de la forma ideal y conservando una esencia divina. Propone la existencia de un motor que genera todo el movimiento en la naturaleza y lo ubica en una esfera que envuelve a todo el Universo y que se manifiesta en una esencia divina llamada “psiquis” a la que Aristóteles le atribuye el poder de generar cambios en cada individuo en un intento de acercarse o regresar al arquetipo o forma ideal. Estas ideas alejan al pensamiento humano de la forma materialista y objetiva con la que los antiguos jónicos analizaron a la naturaleza y repercuten en un cambio de la concepción del tiempo, concepción que se establece en los siguientes 16 siglos conocidos como la Edad Media o el periodo del oscurantismo.
 
“Porque habiendo dos especies de formas, una que se da exteriormente a cualquiera materia corporal, como son las que fabrican los alfareros y carpinteros y otros artífices semejantes, que forjan y hacen figuras y formas parecidas a los cuerpos divinos; y otra que interiormente tiene sus causas eficientes, según el secreto y oculto albedrío de la naturaleza que vive y entiende; la cual, no sólo hace las formas naturales de los cuerpos, sino también las mismas almas de los animales al nacer, la primera forma se puede atribuir a cualesquiera artífices, pero esta otra no, sino solamente a Dios creador y autor de todas las cosas visibles e invisibles, que crió al mundo y a los ángeles sin ningún mundo y sin ningunos ángeles.”
 
El párrafo anterior, que proviene del capítulo 27 de la “Ciudad de los Dioses” escrita por San Agustín (354-430 d. C.), esboza las ideas dominantes durante los siglos que abarca la llamada Edad Media. Durante ella las ideas cristianas, mezclas de antiguas escrituras hebreas, ideas religiosas griegas, romanas, maniqueístas y otras, se fusionan con ideas platónicas o aristotélicas. El Universo, en este periodo histórico, se concibe como una esfera que gira completa y diariamente alrededor de la Tierra, objeto inmóvil, macizo y pesado, rodeado por un espacio que incluía al Sol, la Luna y los planetas, limitado por una esfera que contenía a las estrellas y sobre la cual se encontraba, más allá del Universo, una región celestial libre de toda mancha y corrupción. Este tipo de pensamiento va a dominar el escenario medieval, salvo que el tiempo se concebirá de acuerdo a estimaciones basadas en referencias bíblicas. Así, al igual que la naturaleza de todas las cosas y la magnitud se cree que del tiempo no pasa de algunos miles de años. Muchos eclesiásticos establecieron la edad de la Tierra, como James Ussher, Arzobispo de Armagh, (Irlanda) quien en el siglo XVII calculó, con datos extraídos de la Biblia, que la Tierra había sido creada el día 26 de Octubre del año 4004 a. C., a las 9 de la mañana, es decir, hace apenas unos 6000 años.
 
A principios del siglo XVII, surgen personajes tan famosos como Keppler y Galileo que desarrollan diversas ideas sobre la Tierra y la conciben como una estructura dinámica y compleja. Sin embargo, el tiempo, dada su intangibilidad, se sigue considerando como un parámetro de extensión limitada. La acción de los fenómenos geológicos, como la erosión, los movimientos de la corteza o el vulcanismo, es imperceptible y no permite explicar en esta época los grandes rasgos de la superficie terrestre, por lo que se sigue creyendo en origen brusco y catastrófico para todos ellos.
 
Primer esbozo de la idea de continuidad
 
En 1669, el danés Nicolás Steno publicó su obra De solido intra solidum naturaliter contento dissertationis prodromus (Discurso introductorio acerca de un cuerpo sólido naturalmente contenido en el seno de un sólido) en la que estableció sus tres famosas leyes sobre la interpretación de la secuencias estratigráficas. La primera de ellas se conoce como la ley de la horizontalidad original y señala que los sedimentos normalmente se depositan formando capas horizontales y en algunos casos de manera paralela a terrenos inclinados. La segunda ley llamada de la continuidad original, postula la existencia de una deposición constante de sedimentos a lo largo de la historia de la Tierra, deposición que se ve registrada en los estratos de la corteza terrestre y que sólo es interrumpida por la existencia de etapas de erosión. La tercera ley de Steno corresponde a la superposición de los estratos y hace una interpretación de las edades de las capas de rocas sedimentarias, estableciendo que los estratos antiguos son los más profundos y los más recientes son los más superficiales. Con esta explicación se deduce, por ejemplo, que los fósiles contenidos en un estrato son más jóvenes que los que se encuentran subyacentes. En su tratado, entre otras muchas cosas, demostró además el origen orgánico de los fósiles y visualizó que la historia de la vida sobre la Tierra, de acuerdo al registro fósil, estaba caracterizada por cambios en los tipos de organismos que habían existido durante la formación de las diferentes capas de la corteza terrestre. Sin embargo, y dado que no fueron sino hasta mediados del siglo XIX en que no aparece ninguna idea aceptada sobre la evolución orgánica, los fósiles eran considerados simplemente como representantes de especies sin relación alguna con otras —preexistentes o actuales— o como restos de especies extintas o no conocidas por el hombre.
 
 
CALENDARIO CÓSMICO
DICIEMBRE
 
DOMINGO  LUNES MARTES MIÉRCOLES JUEVES VIERNES SABADO
  1 Formación de una atmósfera apreciable de oxígeno en la Tierra. 2 4 5 Formación extensiva de álveos y masas volcánicas en Marte.

6

9 10  11 12 13
14  15  16 Primeros gusanos. 17 

Fin del Precámbrico. Inicio de la era paleozoica y del perIodo Cámbrico. Aparecen los invertebrados.

18 Primer plancton marino. Aparecen los trilobites. 19 Periodo Ordoviciense. Primeros peces. Aparecen los vertebrados. 20 Periodo Silúrico. Primeras plantas vasculares. La vegetación empieza a cubrir el suelo.
21 Comienzo del período Devónico. Primeros insectos. Los animales empiezan a poblar la Tierra. 22 Aparecen los primeros anfibios. Primeros insectos alados. 23 Periodo carbonífero. Primera flora arbórea. Aparecen los reptiles. 24 Periodo pérmico. Primeros dinosaurios. 25 Fin de la era Paleozoica. Se inicia el Mesozoico. 26 Período Triásico. Aparición de los mamíferos. 27 Periodo Jurásico. Aparición de las aves.
28 Período Cretáceo. Primeras flores. Se extingue el dinosaurio. 29 Era Mesozoica. Empieza la era Cenozoica y el Terciario. Primeros cetáneos y primates. 30 Primera evolución de les lóbulos frontales del cerebro de los primates. Primeros homínidos. Aparición de los grandes mamíferos. 31 Fin del Plioceno. Periodo Cuaternario (Pleistoceno y Holoceno). Aparición del primer hombre.      
Cuadros elaborados por Carl Sagan para comparar la edad de la Tierra con un año solar. En él es posible notar que los principales eventos en la historia de la vida abarcan el equivalente a unos cuantos días y la historia del hombre (página opuesta) tan sólo unas horas del último día de diciembre.
 
Tomando en cuenta las leves de Steno, en 1756, se estableció la primera escala geológica cuando Johann Lehmann reconoció tres edades para la formación de los diferentes tipos de rocas. Llamó Era Primitiva a la etapa durante la cual, según él, se dio la formación de las rocas cristalinas, como el granito y el gneis; ubicó en la Era Secundaria a las rocas sedimentarias consolidadas y fosilíferas, y nombró Era Aluvial a la etapa en la que se habían depositado suelos y sedimentos sueltos. Cuatro años más tarde Giovanni Arduino dividió la historia de la Tierra en cuatro edades: la Primitiva representada por las rocas cristalinas que forman el núcleo de las montañas; la Secundaria caracterizada por la formación de rocas sedimentarias; la Terciaria en la que se depositaron sedimentos no consolidados y la era Volcánica, caracterizada por la formación de rocas ígneas extrusivas.
 
De estos términos, el único que se sigue utilizando en los sistemas actuales de nomenclatura cronológica es “Terciario”, y es necesario aclarar que ninguna de las etapas que se proponen para la formación de las partes de la corteza terrestre se ubican en un marco temporal concreto o absoluto y sólo se habla de edades relativas sin mencionar una posible magnitud del tiempo.
 
En 1775, Abrahán Werner, uno de los maestros de Geología más influyentes y persuasivos de Europa, propone la teoría neptuniana, la cual fue aceptada rápidamente y que aún en nuestros días es de gran interés, ya que muchas interpretaciones estratigráficas presentan vestigios de ella. Para Werner, durante su origen, la Tierra consistía de un núcleo sólido cubierto totalmente por un océano primitivo y nebuloso que contenía en solución elementos y minerales que se depositaron concéntricamente y ordenadamente formando las capas de la corteza. Tomando como base las divisiones propuestas por Arduino, Werner postuló que cada capa concéntrica poseía un tipo de roca particular. Por ejemplo, señaló que todos los tipos de granito se habían depositado en la Era Primitiva.
 
Las divisiones hechas por Lechmann, Arduino y Werner representan las primeras dataciones relativas que se hicieron sobre los eventos que formaron la corteza terrestre. A la vez, esas dataciones fueron utilizadas para establecer un orden aparente en la sucesión de la vida sobre la Tierra. Ésta, sin embargo, se explicaba todavía a partir de postulados creacionistas que incluso utilizan los datos sobre las características de la Tierra, el orden de los estratos y la existencia de eventos geológicos catastróficos para apoyar o postular ideas religiosas como la del Diluvio Universal.
 
El origen de todos los seres vivos, en particular, se sigue explicando a partir de una creación divina pero dado que el registro geológico demuestra la existencia de variedad de formas orgánicas características de cada nivel estratigráfico de la corteza terrestre, se postula que Dios ha experimentado repetidas veces sus actos de creación y destrucción de biotas completas por medio de catástrofes naturales.
 
A finales del siglo XVII, el geólogo escocés James Hutton puso en tela de juicio la teoría werneriana, así como a algunas doctrinas remanentes del Medievo. Sus observaciones sobre diversos aspectos geológicos de Escocia lo llevaron a postular que los procesos naturales que se observan en el presente, como la erosión, deposición, vulcanismo y otros, actuando a lo largo del tiempo, son suficientes para explicar los principales rasgos de la superficie terrestre. Lo novedoso de su teoría es que excluye a procesos catastróficos y es acorde al pensamiento de su época, que intenta encontrar un orden matemático en la naturaleza. Su teoría, conocida como uniformitarismo, recuerda ideas presocráticas y contempla a la Tierra como una máquina, con un ciclo casi infinito, que con diversidad de fuerzas dinámicas eleva montañas desde los océanos, crea volcanes o cambia los rasgos de la corteza con la erosión. Las ideas de Hutton se resumen en sus palabras “…desde lo alto de la montaña hasta las costas oceánicas, todo se encuentra en constante cambio… la Tierra posee un estado de crecimiento y de acrecentamiento;… y así este mundo es destruido por una parte pero vuelto a construir por otra”.
 
Las brillantes ideas de James Hutton como muchas otras que se han expuesto por primera vez en un tiempo en el que el ambiente cultural o científico no es el adecuado o son expuestas por un naturalista sin influencia académica, fueron ignoradas por la mayoría de sus contemporáneos. Sin embargo, sus ideas sirvieron de base a los naturalistas de las generaciones siguientes, favoreciendo que la escala de tiempo se desarrollará durante el siglo XIX. Trabajando de manera independiente, numerosos geólogos, biólogos, químicos y otros científicos desarrollaron diferentes esquemas para subdividir el registro de la historia de la Tierra.          
 
Las ideas catastróficas, con sus implicaciones sobre la historia de la Tierra y la vida, en el siglo XIX se enfrentan a un cambio radical. Sobresale en gran medida Charles Lyell, inglés de gran influencia académica quien publica entre 1830 y 1833 su libro Principles of Geology, considerado como la raíz de la geología moderna. En esta obra, Llyell combate acaloradamente las ideas catastróficas, expone y ejemplifica las ideas de Hutton, y propone una historia de la Tierra en la que el uniformitarismo de Hutton es acompañado por un ritmo de cambio constante y gradual, donde no solo los paisajes de la superficie se crean y destruyen cíclicamente, sino que también las formas de vida surgen, desaparecen y vuelven a aparecer acompañando al cambio ambiental. Las ideas de Lyell enmarcan un pasado y un futuro infinitos para la historia de la Tierra y una ciclicidad que lleva al extremo al postular que las condiciones del pasado se repetirán con exactitud en el futuro. Por ejemplo, propone que las biotas antiguas, que se observan a partir del registro fósil, reaparecerán sobre la Tierra en el momento en se repitan las condiciones ambientales bajo las que vivieron. Esta última idea en particular es duramente criticada y caricaturizada por sus contemporáneos. Sin embargo, el trabajo global de Lyell hace pensar en una edad para nuestro planeta, mucho mayor a las propuestas por las doctrinas religiosas, aún dominantes, y es acompañada por una serie de estimaciones acerca de la edad de la Tierra obtenidas por diferentes métodos. Por ejemplo, Kelvin propuso una edad para la Tierra de alrededor de 24 millones de años. Para ello se basó en una hipotética tasa de enfriamiento del planeta, desde su formación hasta el presente, y la comparó con las velocidades de enfriamiento que observó en diferentes cuerpos esféricos con los que había experimentado. Otras estimaciones sobre la edad de la Tierra, se llevaron a cabo tratando de calcular las velocidades de diversos procesos geológicos, como las tasas de deposición de sedimentos en distintas cuencas o las posibles tasas de concentración y acumulación de sales en los océanos. Estos intentos dieron origen a estimaciones muy variables sobre la edad de la Tierra.
 
Paralelamente a la concepción de un tiempo geológico de gran magnitud, los naturalistas acumularon una enorme cantidad de datos sobre las características de los seres vivos. Las observaciones sobre los patrones de distribución de las especies, sus relaciones intraespecíficas e interespecíficas, el análisis del registro fósil y otros factores, llevan a Darwin y Wallace a concebir la Teoría de la Evolución por medio de la Selección Natural, postulando (Darwin en particular) un proceso de cambio lento, gradual y continuo en las especies. Con ello se enlaza irreductiblemente la historia de la vida sobre la Tierra con una concepción del tiempo de gran magnitud.
 
 
Un reloj geológico
 
En 1896 Henry Becquerel descubrió la radioactividad y durante los siguientes quince años se desarrollaron los mecanismos de medición de edades de las rocas a partir de elementos radiactivos. Así, en 1911 se publicaron las primeras estimaciones sobre la edades de las rocas pertenecientes a diferentes periodos geológicos, las cuales fueron obtenidas con métodos radiométricos por el químico estadounidense B. Boltwood.           
 
Con el mismo método, la edad de la Tierra, que es de más de 4500 millones de años, se obtuvo a principios del siglo XX, y al presente se conoce con relativa exactitud la edad de los diferentes estratos que conforman la corteza terrestre. Se tiene como principales datos, emanados del registro fósil y dataciones radiométricas que:  

• Hace alrededor de 3400 m.a., la vida surge en la Tierra;

• Los primeros eucariontes aparecen hace 1200 m.a.;

• Los metazoarios alrededor de hace 670 m.a.;

• La gran radiación de organismos con concha hace 600 m.a.;

• Los primeros cordados entre 490 y 510 m.a.;

• Las primeras plantas terrestres y los primeros vertebrados mandibulados 440 m.a.;     

• Los primeros peces cartilaginosos y los peces óseos a mediados del Devónico alrededor de hace 360 m.a.);

• Los primeros anfibios a finales del Devónico (345 m.a.);

• Los primeros reptiles durante el Carbonífero (280 m.a.);

• Los primeros mamíferos durante el Triásico (225-190 m.a.);

• Las aves durante el Jurásico Superior 130 m.a.);

• Las primeras angiospermas y los primeros mamíferos placentarios durante el cretácico (120-65 m.a.);

• Los primeros primates durante el Paleoceno (50-65 m.a.);

• Los primeros homínidos durante el Plioceno (hace 7 m.a.) y el hombre aparece como especie hace alrededor de 40000 años.

 
Hasta 1970, todos los conocimientos implicados en el párrafo anterior eran concebidos como producto de un proceso lento, gradual y continuo, respondiendo a los postulados de la teoría de la evolución neodarwinista y al uniformitarismo geológico, en un marco temporal de gran magnitud. Las ideas catastróficas, geológicas o biológicas, los saltos evolutivos y en general, los procesos rápidos de cambio ambiental u orgánico, son mal vistos y discriminados. En ese año, la publicación del texto de Sthepen Jay, Gould y Miles Eldredge en el que proponen la Teoría del Equilibrio Puntual o Teoría de la Evolución por Equilibrios Intermitentes, provoca una ruptura en el pensamiento evolutivo y, en general, sobre la concepción de la historia de la vida. Basándose en las características del registro fósil, postulan que las tasas de cambio evolutivo sólo se observan durante las etapas de especiación. La historia de las especies es caracterizada por la existencia de largos periodos de estasis morfológica, durante la cual las especies permanecen prácticamente inmutables, con breves periodos durante los cuales ocurren los procesos de especiación o de radical modificación morfológica. En esta teoría, la magnitud del tiempo geológico, a pesar de su inmensidad, es insuficiente para explicar la evolución orgánica a través de un proceso gradual. Paralelamente, al interior del desarrollo de la geología moderna, la teoría de la Tectónica de Placas, la observación de procesos catastróficos, como vulcanismo, maremotos o choques de meteoritos contra la Tierra, los cuales provocan cambios radicales en los rasgos de la superficie terrestre y en las condiciones ambientales, han contribuido también a romper la idea del cambio geológico gradual y constante, postulado básico del uniformitarismo.
 
La importancia de la exactitud
 
Durante la historia cultural del hombre, el tiempo ha representado un concepto que ha motivado el desarrollo de grandes controversias en diversas áreas de la filosofía y la ciencia, existiendo opiniones que le otorgan un carácter totalmente abstracto, y otras en donde el tiempo es caracterizado con leyes o principios físicos y matemáticos. Este último punto de vista tiene una historia y es producto de la interacción de una serie de áreas del conocimiento científico, que a lo largo de la historia de las civilizaciones, han producido ideas, teorías, técnicas y la recopilación de una enorme cantidad de observaciones que han determinado que el tiempo sea un parámetro en el cual se enmarca a la mayoría de los fenómenos naturales, geológicos o biológicos. Conocer la historia global de la Tierra, enmarcarla en parámetros temporales exactos, representa, para el hombre, encontrar la verdad sobre el origen y evolución de nuestro planeta, los principales rasgos de la vida, de la diversidad de organismos que se conocen hoy día y los que existieron en el pasado, así como comprender con ello el origen de nuestra propia especie.
 

EL CALENDARIO CÓSMICO

31 de diciembre  

 
Origen del Proconsul y del Ramapithecus, probables ascendientes del simio y del hombre. ~ 13.30 
Aparición del primer hombre. ~ 22.30
Uso generalizado de los útiles de piedra.  23.00
El hombre de Pekín aprende a servirse del fuego.  23.46
Empieza el último periodo glaciar.  23.56
Pueblos navegantes colonizan Australia.  23.58
Florece el arte rupestre en toda Europa.  23.59
Invención de la agricultura.  23.59.20

Cultura neolítica. Primeros poblados. Primeras dinastías en Sumer, Ebla y Egipto.

 23.59.35
Grandes avances de la astronomía.  23.59.50
Invención del alfabeto. Imperio Acadio. Babilonia y los Códigos de Hammurabi. Egipto: imperio medio.  23.59.52
Metalurgia del bronce. Cultura micénica. Guerra de Troya. Cultura olmeca. Invención de la brújula.  23.59.53
Metalurgia del hierro. Primer Imperio Asirio. Reino de Israel. Los fenicios fundan Cartago.  23.59.54
La India de Asoka. China: dinastía Chi’n. La Atenas de Pericles. Nacimiento de Buda.  23.59.55
Geometría euclidiana. Física de Arquímedes. Astronomía ptolemaica. Imperio romano. Nacimiento de Jesucristo.  23.59.56
La aritmética india introduce el número cero y los decimales. Caída de Roma. Conquistas musulmanas.  23.59.57
Civilización maya. China: dinastía Sung. Imperio bizantino. Invasión mongólica. Las cruzadas.  23.59.58
La Europa del Renacimiento. Viajes de descubrimiento de los países europeos y de la dinastía china de los Ming. La ciencia y el método empírico.  23.59.59
Formidable expansión de la ciencia y de la tecnología. Universalización de la cultura. Adquisición de los medios de autodestrucción de la especie humana. Primeros pasos en la exploración planetaria mediante vehículos espaciales y en la búsqueda de seres inteligentes en el espacio extraterrestre. Tiempo presente: Primer segundo del Año Nuevo.
articulos
 ____________________________________________________________      
Francisco Sour Tovar
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
____________________________________________________________      
 
cómo citar este artículo

Sour Tovar, Francisco. 1994. El tiempo geológico. Ciencias núm. 35, julio-septiembre, pp. 57-63. [En línea].

     

 

 

R35Articulo03   menu2
índice 35 
siguiente
anterior 
PDF
   
     
Rafael Martínez Enríquez
     
                 
                 
Una leyenda antigua relata que la división del día en horas surgió de observar la regularidad con que un simio sagrado, el cinocéfalo, expulsaba sus excrementos…
 
Edward J. Wood
 
articulos
 
 
Historia poco delicada, pero que revela fuentes a las que
puede recurrir el intelecto para buscar explicaciones de aquello que se pierde en el pasado: la medición del tiempo. Sin importar que la ciencia siga aún descubriendo qué es el tiempo, lo cierto es que los primeros grupos humanos debieron acomodar sus actividades según ciertas señales que no por casualidad encontraron correspondencias en los ritmos naturales.
 
El sentido común sugiere que el alba y la puesta del Sol debieron ser las primeras señales que marcaron etapas en el transcurrir del tiempo. De aquí se desprenden dos hechos: uno, muy notable, que aquello que se esconde bajo la palabra tiempo —y que, según San Agustín, nadie entiende, si bien todos lo conocen cuando de él se habla— ha sido medido de múltiples maneras, y el otro, de tipo práctico, aunque no por ello menos importante, que han sido los movimientos de los astros sobre la bóveda celeste lo que por milenios marcó el pulso del tiempo.
 
Quienes primero entendieron los ciclos celestes se convirtieron en una casta que gracias a sus conocimientos se situó en la cúspide de las sociedades antiguas. Aunque nos parezca contrario a lo que siempre supusimos, originalmente la tarea principal de estos sacerdotes no era cuidar las almas, sino el calendario. Sus miembros eran consejeros de los agricultores más que de espíritus acongojados. Su confianza en la repetición de los ritmos planetarios se sumó a las ventajas conferidas a quienes por sus conocimientos se colocaban al lado de los poderosos. Así, presidiendo los ritos y ceremonias que marcaban los actos sagrados que se reflejaban en los astros —solsticios, equinoccios, etcétera—, se beneficiaban de las ofrendas que se creía propiciaban los grandes eventos estelares. Su negocio era expulsar al invierno, guiar al Sol en su ruta y, tomando sus riesgos, llegaban a convocar las lluvias.    
 
Los eclipses, impresionantes aún en nuestros días, ya eran anunciados por los sacerdotes-astrónomos de Babilonia, quienes sabían de su ocurrencia cada 18 años o, siendo más precisos, cada 223 lunas. Sabedores de que era más peligroso fallar en no anunciar un eclipse que predecir uno que no ocurriera —a fin de cuentas, esto sólo mostraría que los ruegos habían logrado prevenir su aparición y las calamidades asociadas con él—, anunciaban todos los posibles eclipses.
 
Pensar lo que fue el tiempo entre los antiguos remite al objeto o instrumento con que era medido. En muchas de las viejas culturas el Sol va con el tiempo, su presencia o ausencia es la causa del suceder del día y de la noche. Dador de vida, tal vez también sería el hacedor del tiempo. Por siglos, las imágenes primitivas permanecieron en la mente de la humanidad y, tomando a la Biblia al pie de la letra, el pensamiento medieval en sus últimos alientos se negaba a creerle a Copérnico:
 
¡Sol, permanece quieto sobre Gabaón: y tú, Luna, sobre el valle de Ayalón”.       
 
Y el Sol se detuvo y paróse la Luna hasta que el pueblo [de Israel] se hubo vengado de sus enemigos... Paróse, pues, el Sol en medio del cielo, y no se apresuró a bajar casi un día entero”.            
 
A las mentes del Medievo debió parecerles, sin duda, que al detenerse el Sol y la Luna también se detendría el paso del tiempo, lo cual ya para el racionalismo decimonónico era algo francamente aberrante. Para un científico de entonces sería natural preguntarse cómo es que, si el tiempo no transcurría, los israelitas pudieron medir el paso del tiempo hasta completar un día. También cabría que se preguntaran si el tiempo cesó de transcurrir en las otras partes del orbe. Ejercicio ocioso, pues indudablemente los representantes de Dios aquí en la Tierra tendrían todo un catálogo de respuestas que en última instancia colgarían de la fe, y quien no las aceptara bien podría ir pensando en todas las nuevas amistades que haría en los separos del Santo Oficio.
 
Restringiéndonos a la sociedad medieval inglesa —sobre la que mucho se ha escrito— sabemos que para el inglés típico los horizontes temporales eran tan limitados como los espaciales, ya que la mayoría vivía en zonas limitadas por bosques o en pequeñas aldeas que nunca abandonaban, esencialmente por no existir razones ni vías de comunicación seguras para hacerlo. Los viejos caminos romanos habían caído en desuso y casi nadie se aventuraba más allá de los dominios de su parroquia; es un hecho que pocos habitantes del interior del país habían llegado a conocer el mar. Aun para Chaucer, hombre culto y con varios viajes en su haber, Escocia no era sino un “país desconocido, muy al norte, no puedo decir dónde”. Adán no estaba tan lejano en el tiempo —según la Biblia sólo 75 generaciones lo separaban de Cristo— y el Día del Juicio Final estaba por llegar, lo cual hacía que la eternidad no fuera algo de este mundo.
 
Sólo a partir del siglo XIX, cuando geólogos y biólogos lograron entrever el significado de las múltiples evidencias que la naturaleza ponía ante sus ojos, se pudo tener conciencia de las escalas de tiempo involucradas en los cambios que ocurrieron sobre la Tierra. Mientras tanto, para el hombre común que marchaba en peregrinaje a Canterbury, a Stonehenge, a cualquier otra ruina sajona o hacia los restos de una muralla romana, estas construcciones eran consideradas igualmente “viejas”, sepultadas en la memoria del “hace mucho tiempo”, donde Alfredo el Grande era tan real como Adán y Eva y, todos ellos, igualmente infechables.
 
Afortunadamente esta condición no se extendía a toda la sociedad y, en cierto modo, la iglesia a la que tanto se ha culpado de retrasar el avance del conocimiento, se ocupó de mantener una estructura que permitió dar cuenta de lo que después se consideraría historia. Esta institución, al hacerse cargo de establecer los calendarios, recurrió a los ciclos del Sol y de la Luna, y de paso provocó la maraña de días festivos que había que acomodar una y otra vez para salvar las múltiples contradicciones a las que daba lugar. 
 
Las fechas más importantes —nótese el carácter religioso de la necesidad— por determinar eran las Pascuas, ya que todo lo demás se supeditaba a dicho periodo. La tarea no era sencilla pues desde el siglo II d. C., había controversias acerca de cuándo debían celebrarse. Para los hebreos se iniciaban el día 14 —día de Luna llena— de su primer mes, durante el equinoccio de primavera. Por su parte, la mayoría de las sectas cristianas coincidían en que la Pascua florida o de Resurrección debía caer en domingo. El Concilio de Nicea (325 d. C.), además de resumir en el Credo lo que todo cristiano debía creer, fijó la Pascua de Resurrección en “el domingo que cayera en o después de la Luna llena correspondiente al equinoccio de primavera”.
 
Inevitablemente, esta regla provocó que en ocasiones la Pascua cristiana coincidiera con la hebrea y la de algunos grupos calificados de heréticos, y como esto no era permisible para quienes encabezaban la cristiandad, se decidió que cuando esto sucediera, el día de Pascua debía posponerse una semana. Pero como la cuestión de asignar fechas tomaba en cuenta tres ciclos que no guardaban relación entre sí —la semana, el mes lunar y el año solar— el asunto se convirtió en una especie de juego de ajedrez en el que las piezas se desplazaban siguiendo reglas impuestas tanto por los movimientos astrales como por “números dorados” asociados con ciclos lunares de 19 años y las letras “dominicales” ligadas a los días de la semana.
 
El Año Nuevo también ha deambulado a lo largo del calendario y, civil o religioso, ha sido celebrado el 25 de diciembre, el 1 de enero o de marzo, el 25 de marzo, en Pascua o el 1 de septiembre. Un viajero que partiera de Venecia en su Año Nuevo (1 de marzo) de 1245, llegaría a Florencia en 1244, a Pisa en 1246, y si llegara a Francia antes de Pascua (la francesa), estaría en 1244.        
 
Los tiempos        
 
En el Medievo cristiano es posible distinguir dos tipos lineales de tiempos, otro cíclico y además una multiplicidad de tiempos sociales. El primer tiempo lineal es el cronológico, que toma como modelo —para señalar límites calendáricos— primero el tiempo del periodo consular romano y luego el de los emperadores cristianos. Más adelante se utilizó un sistema que agrupaba periodos de 15 años julianos y que tomó como inicio lo que consideró el año de nacimiento de Jesucristo. Esto aconteció en el 532 d. C., gracias a la insistencia de Dionisio, quien en su Libellus de Ratione Paschae puso a punto un calendario que giraba alrededor de la determinación de la Pascua.        
 
Más tarde, en el 725, un monje inglés conocido como el Venerable Beda, presentó el tratado más completo de la Edad Media para el cómputo de los años, el De temporum ratione. Aceptado en Francia —a pesar de las rivalidades que de religiosas derivaban en políticas y, en este caso, en “calendáricas” — a fines del siglo VIII, igual sucedió en Alemania en el IX y, para los territorios dominados por el Papa, hubo que esperar hasta el X para que la razón superior del calendario de Beda fuera aceptada.
 
El segundo tipo de tiempo lineal es de carácter teológico: va desde la creación del mundo hasta el día del Juicio Final, con un acontecimiento intermedio, la Encarnación de Dios Padre en Jesucristo. Este tiempo apunta hacia la eternidad, y produce a lo largo del camino una decadencia en los valores y los actos de la humanidad. Es la concepción pesimista del tiempo humano que San Agustín transmitió a la cristiandad. 
 
Es obvio que la concepción cíclica del tiempo, de la que ya se habla en las tradiciones asirio-babilónicas y las heredadas del pensamiento hindú, no podía ser relegada al olvido. Sustentada en la observación de la naturaleza, en los movimientos de las luminarias que colgaban de la bóveda celeste, en la sucesión de las estaciones, a medida que se fueron desarrollando las civilizaciones se fue afirmando la idea de un tiempo que circulaba y de una historia que eternamente retornaba, un tiempo a cuyo paso las cosas se reproducían una y otra vez, en una danza eterna. Según esta idea, sobrepuesto a un ciclo general había ciclos más pequeños, anuales, en los que se repetían las fiestas, los días fastos y los nefastos. Para comprender la importancia que tenían ciertas fechas y cómo alteraban los ritmos de trabajo normal, baste recordar que para los hebreos de los tiempos bíblicos las fiestas del Sabbath impedían que se realizaran 39 tipos de trabajos. Una elaboración de esta idea de los descansos llevó a que para ciertos terrenos de siembra —los viñedos en particular cada séptimo año era considerado “sabático”, y durante ese año no se debían sembrar. Las bondades de esta ley han llegado hasta nuestros días, y gracias a ella muchos profesores universitarios pueden relajarse y, con algo de suerte, saldar algunas deudas de carácter económico.
 
Pero las nociones de tiempo se mezclan y coexisten unas con otras y, sobre las ya mencionadas, se superpone lo que podría ser llamado tiempo litúrgico, mismo que consiste en la sucesión a lo largo de un año de la conmemoración de los acontecimientos importantes de las vidas de Jesús y de la Virgen María. Este calendario se entrelaza con el que deriva de las transformaciones de la naturaleza en cuatro estaciones y que, plagado de simbolismos, fue maravillosamente descrito por Jacopo della Voragine. Es en su obra, La leyenda dorada —colección de relatos teológicos y hagiográficos—, donde encontramos nociones tales como las razones del ayuno en cada una de las estaciones: durante la primavera, siendo cálida y húmeda, se ayunaba para temperar el humor de la lujuria; en el verano, caliente y seco, para castigar el calor que es la avaricia. Por otra parte, el ayuno de otoño, éste frío y seco, servía para calmar la aridez del orgullo. Finalmente, asociado al frío y la humedad del invierno, estaba el ayuno que dulcificaba el frío de la infidelidad y de la malicia.
 
Había además otros tiempos sociales, pero el instaurado por la Iglesia en su ascenso al poder sentó sus reales en la sociedad medieval, gracias a lo cual dicha institución se apropió de la medida y de la notificación del tiempo. Al cuadrante solar, a la clepsidra, pequeños artefactos de registro del tiempo fabricados para ser utilizados en pequeñas comunidades, se sumó en los siglos VI y VII la campana, el nuevo instrumento de iglesias y monasterios para anunciar los ritmos del día y convocar a la comunidad a los nuevos ritos litúrgicos.
 
   
  Reloj de Sol sajón, construido “en los tiempos del rey Eduardo y del Earl Tosti”.
 
 
La hora al alcance de todos        
 
Fuera de los monasterios, los únicos momentos del día que no eran de disputa respecto a cuándo ocurrían, eran el amanecer, el mediodía y la puesta del Sol. De ellos, sólo el mediodía guardaba una relación fija con los intervalos marcados en el reloj de Sol vertical que se esculpía en las paredes orientadas al sur. En el hemisferio norte ésta era la pared donde tenía sentido medir, mediante las sombras proyectadas por el gnomon o agujeta, los intervalos en que se dividía el día. Dados los cambios en la inclinación con que el Sol recorría los cielos a lo largo del año, las marcas que señalaban el transcurso de un cierto intervalo de tiempo en una época no servían para otra, pues las sombras proyectadas tenían distintas longitudes.
 
Entre los siglos VI y X los intervalos que se marcaban en el reloj de Sol eran sólo cuatro, los llamados tides, vocablo inglés que originalmente se refería a intervalos de tiempo de aproximadamente 3 horas, y que hoy día sólo significa “marea”. Más adelante, y con el fin de hacer más preciso el momento del día del cual se hablaba, se agregaron marcas al reloj de Sol, pero éstas sólo lograban proyectar las sombras del gnomon —en ángulo recto con la pared de manera que coincidieran con la hora real en cuando más cuatro ocasiones en el año. Y la diferencia entre la hora real y la marcada aumentaba conforme se iba más al norte y se hacía más patente la diferencia entre la duración del día y de la noche.
 
Había otro problema que considerar, y éste surgía de que si bien el Sol y las estrellas aparentemente toman un día en completar su periplo alrededor de la Tierra, en realidad el día “solar” dura un poco más de 4 minutos que el real, de manera que después de un año se acumula un error de casi un día. Para empeorar las cosas, el retraso no es uniforme a lo largo del año y la diferencia entre la hora aparente dada por un reloj de Sol y la que marcaría un reloj moderno llega a ser de hasta 16 minutos. Aunque esto, en la Edad Media, poco importaría.
 
Si dejamos de lado la salida y la puesta del Sol, la gente común y corriente para saber la hora sólo tenía que contar los tañidos de la campana del monasterio o iglesia cercanos que señalaban cuándo iniciar el trabajo en los campos y cuándo terminarlo. Este tañido también llamaba al servicio religioso y anunciaba el llamado “toque de queda”, después del cual quien fuera visto en las calles podía ser detenido y enviado a prisión —claro está, si no era un personaje conocido en la comunidad como alguien respetable. En ciertos lugares también participaba la campana del señor feudal, que informaba que el horno estaba libre para que los campesinos acudieran a hornear su pan, o la campana que convocaba al mercado, a la fiesta o al funeral, y también la que daba la señal de alarma, fuera por motivo de un incendio o por la aparición de alguna fuerza invasora.
 
Para quienes vivían fuera del alcance del sonido de la campana, los únicos recursos para estimar el tiempo transcurrido durante la noche eran la lámpara de aceite y las velas, que mediante marcas para medir el nivel del aceite o la longitud del tronco de cera, permitían estimar los lapsos transcurridos. Las velas eran un lujo rarísimo hacia el siglo X. Según una antigua crónica, el rey Alfredo el Grande (849-901) determinó las dimensiones que debían tener seis velas para que ardiendo una después de la otra duraran un día. Como dichas velas no se consumían de manera uniforme si las afectaban corrientes de aire, Alfredo “inventó” la lámpara, que consistió en una cubierta protectora hecha con trozos de películas transparentes de cuernos de vaca, lo que de paso explica el origen de la palabra inglesa para lámpara: de lanthorn (cuerno iluminado) se pasó a lantern.
 
En el siglo XI los árabes mejoraron el sistema del reloj de vela cubriendo la vela reglamentaria con una lámpara de seis caras, cada una graduada con una escala de horas distinta y que se usarían según la estación del año. Conocido como horologium nocturnum, se utilizó hasta bien entrado el siglo XIV.
 
 
Máquinas del tiempo          
 
Dadas las preocupaciones monásticas no es de extrañar que los primeros mecanismos de relojería que usaron ruedas y pesos hayan aparecido en los monasterios, donde los encargados de avisar de los cambios de actividades seguramente estarían fastidiados de mantener funcionando los relojes de agua o prendidas las velas. El nuevo reloj no tañía la campana de la torre, pero sí pequeñas campanillas que avisaban al sacristán en qué momento debía jalar las cuerdas de la campana. El invento de este reloj es atribuido al papa Silvestre II —un “científico” que los azares de su tiempo colocaron en la curia papal— y al año 996; sin embargo, lo que sorprende es que su uso aún no se hubiera extendido 300 años después de su aparición.
 
Analizando el caso, da la impresión de que la necesidad no había presionado a quienes, conocedores de las ruedas dentadas que se usaban en los molinos de agua y de viento, bien podrían haberlo diseñado para entonces. El uso de pesos como fuente de fuerza motriz tampoco era desconocido, así que no se hubiera necesitado mucho esfuerzo para diseñar un mecanismo que cada hora golpeara un metal en señal de que cierto tiempo había transcurrido. Al principio estos relojes no tenían manecillas y señalaban la hora mediante el número de tañidos de campanillas, lo cual resultaba novedoso, como lo atestigua una vieja descripción de 1309 acerca de un reloj milanés de hierro:
 
… un gran martillo golpea la campana 24 veces al día… y en la primera hora suena una vez, dos en la segunda... distinguiendo así las horas, lo cual resulta muy útil a los hombres de cualquier rango.”            
 
Los idiomas europeos en uso en las zonas donde el conocimiento era objeto de interés de sectores importantes de la sociedad, reflejan algunas etapas en el desarrollo de la relojería. La palabra clock originalmente denotaba un instrumento que medía el paso del tiempo y sonaba periódicamente una campanilla, sin que, las más de las veces, tuviera una manecilla. Los relojes que poseían una manecilla o flecha eran denominados watch (en singular), aun cuando no fuera posible transportarlos de un lugar a otro, como sucede con lo que hoy se conoce con dicho nombre. Un horloge —en francés actual es el reloj de pared— era cualquier instrumento que marcara el tiempo sin recurrir al Sol. Un dial —lo que implica una flecha o manecilla— sería un reloj de sol o cualquier carátula de reloj.
 
En la Edad Media era obvio que había una diferencia sustancial entre medir el tiempo y medir una longitud. Para esto último bastaba cualquier palo o varilla que pudiera ser utilizada como patrón una y otra vez. Para medir el tiempo ocurría algo curioso: cualquier intervalo que se tomara como patrón dejaba de serlo en cuanto era definido como tal. En su esencia misma estaba que el tiempo era algo que fluía y no se dejaba atrapar, por lo que no se podía usar repetidas veces. Sin embargo, la situación no era trágica, ¿desde cuándo un impedimento que se genera en la racionalidad constituye razón suficiente para frenar a práctica? Como ya hemos visto, bastaba con elegir un intervalo entre acontecimientos naturales cuya repetición ocurriera de manera más o menos regular —según lo estimara la “práctica” — o, mejor aún, construir un mecanismo que marcara la repetición de estos intervalos.
 
Lo esencial en esta nueva empresa era acomodar tres elementos: una fuerza motriz, un conjunto de ruedas dentadas de diferentes radios para disminuir la tasa de movimiento, y un sistema para regular la velocidad de rotación.    
 
Sobre estos mecanismos sabemos muchas cosas, directa o indirectamente. Ejemplo de lo último es un relato acerca del incendio que ocurrió el 23 de junio de 1198 y que consumió parte de la iglesia de Bury St. Edmunds, en el norte de Inglaterra. El texto en cuestión dice que: “… corrimos todos y encontramos que las llamas habían alcanzado el refectorio… y los jóvenes de entre nosotros corrieron por agua, algunos hacia el pozo y los otros al reloj…”. Se preguntará uno para qué podría servir un reloj en este caso. La respuesta es que para entonces ya existían relojes cuyo funcionamiento dependía del agua almacenada en un depósito. Estos relojes representaban un grado de adelanto muy grande respecto de las antiguas clepsidras, que a la manera de un reloj de arena en lugar de ésta utilizaban agua. Su desventaja era que en noches de invierno el agua podía congelarse, inutilizando así el dispositivo.
 
Los nuevos relojes de agua añadían a su funcionalidad un elemento que se adaptaba a las cambiantes duraciones del día a lo largo del año. Con ello se alcanzó un registro relativamente preciso de cómo iban pasando las horas. 
 
Con mecanismos de relojería tan adelantados el problema de conocer las horas en días nublados —lo que hacía inútil el recurrir al reloj de Sol y durante las noches quedaba resuelto. El monje encargado de hacer sonar las campanas ya no tenía que depender de que su propio reloj de agua le indicara los momentos en que debería entrar en acción. En la Regla de una orden cisterciense se estipula que el sacristán “al ser alertado por el sonido del reloj, procederá a tocar la campana”.    
 
Es indudable que los primeros relojes mecánicos tenían un aspecto bastante burdo. Con un peso para mantener el movimiento, se recurría al mecanismo de regulación o “de escape” —mediante el cual la energía “escapa”— para transformar el movimiento rotatorio adquirido por la rueda al bajar un peso en el ir y venir de una balanza. Éste debió ser el origen del llamado “árbol de volante” de un reloj, y que consistía en una varilla con pesos en cada extremo que giraba libremente montada sobre un pivote. Dos pequeñas paletas sobresalían y enganchaban los engranes de una gran rueda horizontal, produciendo con ello un movimiento intermitente y, de paso, el tan peculiar tic, tac, tic, tac de los relojes mecánicos.
 
Evidentemente, el resultado de estos movimientos era algo irregular, y un error de unos veinte minutos cada día era algo normal. Esto no hubiera sido tan grave si el retraso fuera constante, pero no resultaba así y, por lo tanto, dichos relojes requerían de la frecuente atención de un experto que los ajustara. Tan grave era el problema que cuando murió el “maestro” del gran reloj de Pavía (siglo XV), éste se detuvo para siempre porque no había quien entendiera su funcionamiento, aun cuando se contaba con instrucciones escritas para su manejo.
 
Tan importante era poseer un reloj que rigiera la vida en las cortes, que el puesto de relojero adquirió (siglo XIV) cierta relevancia, y aparecieron nombramientos tan rimbombantes como “Ciudadano del gran reloj de nuestro Señor el Rey, en el palacio de Westminster”. Merece mencionarse que este tipo de puestos no exigía que sus ocupantes fueran del sexo masculino. Las damas también podían alcanzar tal honor, y se sabe que en la catedral de Lincoln, en Inglaterra, durante un tiempo fue una mujer quien se encargó del reloj, si bien la razón subyacente no fue tan halagadora. La dama en cuestión ocupaba el puesto para que “con celo cuide el reloj, y despierte temprano a las otras damas para que se ocupen de sus trabajos”.  
 
La vida pública de la localidad debía estar regida por algún reloj situado en un edificio de importancia —la catedral, la sede de gobierno edificios situados, por regla general, en la plaza principal—, y cuanto más espectacular fuera el señalamiento de las horas más ascendencia adquiría entre los usuarios. Al igual que las campanas, los primeros grandes relojes aparecieron en los monasterios (siglo XII) y de ahí pasaron a las catedrales y finalmente a los edificios públicos (siglo XV).
 
El reloj astronómico de la catedral de Wells (Inglaterra), que un contemporáneo nuestro observaría sin comprender gran cosa de lo que nos informa, es un hermoso recuerdo de cuando el mercader y el “cirujano”, el rey y el viajero, consultaban las estrellas para saber cuándo iniciar el viaje, cuándo extirpar un diente y qué fortuna le esperaba al recién nacido. Para quien vive nuestra “modernidad”, esta “información” ya viene digerida en los horóscopos que aparecen en múltiples revistas, periódicos y que, últimamente, se puede recabar vía telefónica. En la Edad Media las posiciones estelares servían a muchos que siguiendo reglas más o menos elementales, aprendidas como parte del adiestramiento que a su oficio correspondía, creían leer en los cielos los tiempos propicios y los adversos. Relojes como los de la catedral de Wells —en una época en que sólo en las cortes y en bibliotecas conventuales se lograba obtener información escrita— eran la única fuente de información acerca de las horas y de las moradas astrales.
 
En 1481 los pobladores de la ciudad de Lyon pidieron un reloj público para “que más gente acudiera a las ferias —la fama de las telas de Lyon y de las ferias que reunían a los comerciantes de toda Europa se remonta a esos años— y que los ciudadanos estén satisfechos y felices y que lleven una vida más ordenada”. Al ser anunciadas las horas mediante el tañido de la campana, pronto se hizo evidente que los intervalos iguales entre las horas que marcaba el reloj discrepaban con los que marcaban los viejos relojes de Sol. Esto llevó a mejorar el diseño de estos últimos y, curiosamente, a que fueran utilizados para corregir la hora señalada por los relojes mecánicos. Con este propósito, algunos de los primeros relojes tenían integrado su propio reloj de Sol.
 
Al principio, las carátulas de los relojes marcaban sólo seis horas y la manecilla daba cuatro vueltas en un día. La falta de exactitud en su funcionamiento hacía inútil que hubiera otra manecilla que marcara intervalos de tiempo tales como nuestros minutos, pero se sabe que para 1500 el reloj de Wells marcaba los cuartos de hora. Si se necesitaba medir tiempos más cortos había que recurrir al reloj de arena. Por ello, cuando en tiempos de Isabel I de Inglaterra alguien preguntaba por la hora —What o’clock it is?— sólo significaba desear saber cuál era la última hora que había sonado.          
 
Construidos según requisitos más numerosos que los actuales, los relojes de las postrimerías del Medievo transmitían más datos que la simple hora del día. El gran reloj de Estrasburgo, construido en 1352 y considerado en su época una de las grandes maravillas de Alemania, incluía un calendario que variaba según las fiestas movibles del año religioso, y para 1574 le había sido añadido un sistema planetario ¡copernicano! donde se mostraban las fases de la luna, eclipses, tiempos siderales y la precesión de los equinoccios. Una de las manecillas señalaba los santos y los días que les correspondían, en tanto que los cuartos de hora eran anunciados por las figuras de la Infancia, Adolescencia, Edad Adulta y Vejez, mismas que golpeaban una campanilla. A mediodía aparecían los 12 apóstoles, seguidos de un gallo cacareando y carrozas llevando deidades paganas que representaban los días de la semana. Tan complicado era su mecanismo que cuando falló —en el siglo XIX— tardaron cuatro años en arreglarlo.      
 
Para mediados del siglo XV, cuando el espíritu aventurero de algunos osados marinos recibió el apoyo de reyes y de no menos arriesgados comerciantes, la navegación comenzó a depender cada vez más de instrumentos que midieran el paso del tiempo. El reloj de arena seguía siendo por entonces el único dispositivo para medir la velocidad de un barco, lo que se lograba contando el número de nudos de una cuerda que caían por la borda de un barco durante un intervalo de tiempo medido con el reloj de arena, y que usualmente era de alrededor de medio minuto. Si caían siete nudos se decía que la velocidad era siete millas náuticas por hora.
 
Desafortunadamente el procedimiento anterior no resultaba eficiente cuando se intentaba medir velocidades en tierra firme. Aun así, el uso del reloj de arena ya era algo común en muchas actividades de la vida diaria, en particular en la medición de las jornadas de trabajo o en el cocimiento de algún manjar, y salvaba el tener que recurrir a lapsos medidos mediante la repetición de Padres Nuestros o de Misereres. Su utilidad es innegable al considerar que en 1483, en ciertas partes del norte de Europa, se implantó una ley que obligaba a los oficiales religiosos a colocar un reloj sobre el púlpito. Seguramente esto fue a consecuencia de las múltiples quejas de una grey hambrienta que buscaba que el predicador estuviera consciente de que su público notaba que se estaba excediendo en la duración del sermón.
 
Se sabe que para 1410 el afamado arquitecto Filipo Brunelleschi ya estaba construyendo relojes que se servían de un resorte para mantener el sistema en movimiento. Mejorando el funcionamiento mediante el uso de tornillos y de una cuerda enrollada dentro de un tamborcillo para regular la disminución de la tensión del resorte, la nueva máquina resultó de dimensiones más pequeñas, dando paso al reloj portátil, y con ello al sometimiento cada vez mayor del hombre a los pulsos del tiempo.
 
Los primeros relojes portátiles no eran tan pequeños como los actuales; iban encerrados en cajitas con forma de huevo, libro de oraciones, calaveras y otras figuras que la imaginación sugería a los artesanos-artistas que los fabricaban, y las personas se los colgaban del cuello o de la ropa.
 
Que el reloj pasó a ser símbolo de riqueza y de elegancia lo constatamos en una obra de Ben Johnson, donde uno de los personajes afirma que “anoche he prestado mi reloj a alguien que hoy cena con el sheriff”. Mucho más importante fue que la ciencia también se sirvió de él, convirtiéndolo en objeto de algunas de sus teorías y mejorándolo para que la sirviera con mayor eficacia.
 
La Ilustración          
 
En cuanto a avances teóricos, Galileo fue el primero que realizó una aportación revolucionaria al darse cuenta que un péndulo oscilaba de manera casi periódica, sobre todo cuanto más pequeño fuera el arco de oscilación. Con base en ello, diseñó un mecanismo de relojería novedoso, aunque nunca se le ocurrió dotar a su modelo de manecillas y carátula. Christian Huygens sí lo hizo y, además de adaptarle un nuevo sistema de pesos, le añadió una banda flexible de metal en el punto donde se sujetaba el péndulo, logrando con ello que la oscilación fuera elíptica. Con estos añadidos construyó un péndulo de 39 pulgadas de longitud que realizaba una oscilación completa en un segundo.
 
En ese momento de la historia irrumpieron los ingleses, vía Roberto Hooke y su conocida ley ut tensio sic vis, que describe la fuerza F que ejerce un resorte elongado una distancia x a partir de su longitud normal (F = – kx). El mismo Hooke diseñó un sistema con pequeños resortes en espiral que adaptó a las balanzas de un reloj, con lo que logró una mejora tal en la medición del tiempo que por primera vez tuvo sentido agregar otra manecilla que marcara el transcurso de los minutos. De paso obtuvo, una vez más, el sonido producido por la paleta y el engrane, tic al engancharse, toc, al soltarse.           
 
El progreso hacia la exactitud en la medición del tiempo alcanzó en el siglo XVI niveles inimaginables para hombres como Tycho Brahe, Kepler y toda su generación de astrónomos y científicos. Los nuevos dispositivos hicieron más exacta y más autosuficiente la marcha del reloj: un barril que permitía dar cuerda al reloj sin que se detuviera su funcionamiento durante dicha acción; un pedómetro, que no es lo que el lector piensa, daba cuerda al reloj conforme un peso giraba impulsado por el movimiento del usuario. Se puede afirmar que la horología, en esta etapa, se empezó a establecer como una ciencia, alejándose de las viejas prácticas artesanales.
 
Al tomar cada vez más en serio lo que decían las Escrituras respecto a que el Creador hizo al mundo según reglas que ordenan el número, el peso y la medida, las mediciones alcanzaron una exactitud nunca antes soñada, hasta el punto que la Royal Society estableció los patrones de longitud, volumen y peso. Y como el vernier y el micrómetro ya existían, lo que faltaba era el instrumento que permitiera realizar una medición precisa y repetible, con un patrón supuestamente inalterable, del paso del tiempo. Aunque los físicos ya podían medir dos de las que después serían consideradas unidades fundamentales, la longitud y la masa, lo que faltaba —si se querían cuantificar cualidades secundarias, como la velocidad, pero que en el contexto del siglo XVI adquirían una importancia teórica extraordinaria— era medir el tiempo.
 
Sin aparatos ni procedimientos confiables para determinar los momentos en que ocurrirían los eventos, ni la velocidad, ni la aceleración, y por ende tampoco la fuerza, podían ser calculadas. Igualmente, la más fina observación del paso de un astro resultaba imposible si no se establecía el momento del evento. Más importante aún para un mercantilismo que buscaba nuevos horizontes, si no se contaba con un dispositivo relativamente exacto para medir el tiempo, los viajes interoceánicos eran poco menos que aventuras de locos, tanto para quienes iban en las naves como para quienes arriesgaban sus capitales en el patrocinio de la expedición.
 
La navegación y la medición del tiempo participaron en un proceso de retroalimentación que ilustra de manera fehaciente los beneficios que la ciencia puede aportar la sociedad cuando ésta presta atención a las necesidades de la ciencia. El problema que se planteaba era de orden práctico: determinar a qué distancia se encontraba un barco de su destino, o de su punto de partida, cuando lo único que se tenía como referencia eran el cielo y sus estrellas. La respuesta, teóricamente, era simple. Si se conoce la hora exacta en que ocurre un evento —un eclipse, por ejemplo— en algún sitio de la Tierra, y si además se puede determinar para el mismo evento la hora exacta que corresponde al punto donde se encuentra el observador, la diferencia entre ambos tiempos es una medida de la diferencia en longitud entre los sitios que se están tomando en cuenta. La latitud, por su parte, se medía fácilmente con el viejo astrolabio o con la llamada escuadra del agrimensor. Con ambos datos, longitud y latitud, la posición del barco quedaba perfectamente determinada.
 
Varios elementos novedosos se conjugaban para proporcionar información sistemática que hiciera confiable el método arriba mencionado. Uno de ellos fue el que Jean Dominique Cassini, astrónomo de la Académie Royale des Sciences, presentó en 1669: unas tablas que daban cuenta de los tiempos en que ocurrían los eclipses de las lunas de Júpiter. Éstos ocurrían casi a diario, lo cual los hacía, en este caso, más útiles que los de nuestra propia luna. Cassini había calculado los tiempos de ocurrencia a lo largo de un meridiano estándar y, por lo tanto, quien quisiera determinar la longitud terrestre de un sitio en particular, sólo tendría que comparar los datos de Cassini con el tiempo local de ocurrencia del fenómeno. Lo único que faltaba para que este procedimiento diera los frutos esperados era contar con un sistema suficientemente exacto para determinar la hora.
 
Hasta entonces el reloj más exacto era el diseñado por Huygens (1650), pero éste, al ser utilizado en alta mar por Jean Richer (1671), se atrasó un promedio de 2.5 minutos diarios. Al regresar al punto de partida grande fue la sorpresa de Richer al encontrar que había ganado en promedio 2.5 minutos diarios, ¡los mismos que había perdido de ida! Huygens en persona se encargó de explicar la razón de estos cambios, y la encontró en las variaciones de la fuerza de gravedad en los distintos sitios por donde pasó el navío. Con ello ilustraba, de paso, la diferencia entre “peso” y “masa”. Pero entender la causa del error no remediaba que éste ocurriera, y lo que había que hacer era diseñar un mecanismo que midiera el tiempo y que de alguna manera evitara los errores de origen gravitacional. La empresa no resultó sencilla; los esfuerzos para mejorar el reloj de Huygens fueron infructuosos por no poder contrarrestar el efecto del movimiento del barco y las alteraciones en la longitud del péndulo ocasionadas por los cambios en la temperatura ambiente.
 
Tan importante era poder determinar la longitud a la que se encontraba un barco en alta mar que en Inglaterra se ofreció, en 1714, un premio de 20000 libras esterlinas (para darse una idea de lo que esta cantidad significaba en aquella época, he aquí algunos datos: un poeta como John Dryden vivía con una pensión anual de 200 libras esterlinas; Newton, por su puesto en la Casa de Moneda recibía 400 libras anuales; una casa para un funcionario se rentaba a razón de 40 libras anuales) a quien pudiera hacerlo con un error máximo de 45 km después de 6 semanas de viaje. Esto requería, si se usaba un reloj, que su error diario no excediera de 3 segundos. La mitad del premio le fue otorgada en 1765 a John Harrison, carpintero inglés, quien después de presentar varios relojes que no satisfacían los requisitos propuestos, finalmente construyó un aparato que después de 156 días de viaje perdió 54 segundos.
 
El reloj, que tenía un costo muy elevado (450 libras esterlinas), y permitió fijar la posición de un barco después de un viaje a lo largo del Ecuador, en donde el error que se comete es máximo, con una incertidumbre inferior a 12 km. Mejoras posteriores, avaladas por el viaje de circunnavegación del capitán Cook (1772), y la intervención personal del rey Jorge III (no todas las autoridades se desentienden de la ciencia y su potencial), le valieron al Sr. Harrison que en 1776 se le otorgara el premio completo.
 
   
  Astrolabio (The ring of Truth). Tomando en cuenta la posición de las estrellas, el astrolabio proporcionaba la fecha y la hora.
 
Una manera de apreciar los avances logrados por la relojería en tan corto tiempo es contrastar las mejoras que tuvieron lugar desde los tiempos antiguos hasta muy entrado el siglo XVII, y contrastarlos con los que como avalancha llevaron a que el instrumento diseñado por Huygens sólo fallara en 10 segundos diarios y que con una mejora posterior —debida a un mecanismo que compensaba los cambios en la temperatura— redujera el error a un segundo cada día. El último reloj de Harrison llevó a 1/7 de segundo diario este error, haciendo de su reloj un mecanismo cien veces más exacto que el de Huygens.
 
Mientras esto sucedía, Christopher Wren había levantado el Observatorio Real en Greenwich (1675) —“un poco para presumir”, nos lo dice él mismo—, y con ello el nombre de este pequeño puerto cercano a Londres comenzó a recorrer el mundo, llevado por los navegantes ingleses que utilizaban la hora de su meridiano como tiempo de referencia.
 
   
  Recursos para medir el tiempo y en los que la técnica del agrimensor saltaron al primer plano. La ilustración aparece en la Teoría y Práctica del Cuadrante Geométrico de Levinus Hulsius (1594) y muestra el uso de la escuadra del agrimensor, cuadrantes, teodolitos, etcétera, tanto para medir la posición de objetos celestes como la dimensión de objetos terrestres.
 
El tiempo vuela          
 
Tempus fugit (el tiempo vuela) fue la imagen romana que equiparó el tiempo con el clima. De ahí en adelante el tiempo sopló como viento romano, voló imitando el ave y caminó junto al anciano que carga una guadaña. Compañero inseparable de algunos de los primeros enigmas filosóficos, fluyó cual río, abriendo el cauce de la eternidad.
 
El tiempo fue movimiento, y todos entendieron que el tiempo real debería medirse usando algún tipo de modelo físico: un objeto que al moverse recorriera espacios iguales, repitiéndose como el Sol al cruzar el firmamento, como péndulo que busca los extremos, como resorte que controla el reloj, como cristal que vibra en el reloj digital.         
 
Ha sido una larga historia la de medir el tiempo. Tan larga que sus propósitos de origen sólo los imaginamos, y únicamente recordarnos que los primeros relojes de agua griegos no eran sino simulacra, imitaciones de cómo funciona el cosmos. Su fin era exclusivamente alcanzar la satisfacción estética de construir un instrumento que imitara los movimientos planetarios, como la Torre de los Vientos en Atenas, erigida para consignar la belleza y simplicidad de la danza de las esferas celestes.
 
Y llegó la Edad Media, y con ella la disciplina y la vida controlada que los monasterios y la Iglesia reclamaron para sus seguidores: las horas para orar, los momentos de descanso y las citas en el refectorio. Pronto la necesidad de exactitud en la medición del tiempo se extendió a la sociedad entera, y marinos y comerciantes hicieron de los relojes piezas indispensables de trabajo e, inevitablemente, se acuñó la frase Time is money.         
 
Y queda para la discusión la idea de Lewis Mumford de que “…fue el reloj, y no la máquina de vapor, el instrumento clave en el surgimiento de la época industrial moderna”.
 
  AÑO JULIANO Y DURACIÓN DE LOS MESES
 

Tan confuso resultaba el calendario romano que en la época de Julio César llegó a suceder que el clima que asociamos con el invierno aparecía en primavera. Para remediarlo, César decretó, en lo que para nosotros sería el 46 a. C., que después de un año de transición de 445 días se iniciaría un nuevo sistema para fechar eventos. El primer “año juliano” se inició el 1 de enero del 708, contado a partir de la fundación de Roma (nuestro 752-53 a. C.). Este calendario no prestaba atención alguna a las estrellas y se basaba exclusivamente en el Sol.

Así, el año tendría 365 días, excepto el cuarto —llamado bisiesto—, que era de 366. Como 365 no es divisible entre 12, se decidió que los meses pares fueran de 30 y los nones de 31 días, excepto febrero, con 29 días en un año normal y 30 en el bisiesto. Todo hubiera funcionado bien si no fuera porque la vanidad humana se entrometió en estos asuntos: habiendo decidido el emperador Augusto que su nombre debería adornar el calendario de igual manera que lo había hecho Julio César con el quinto mes del año —llamado quintilis—, optó por escoger el sexto para sí y, no sintiéndose inferior a César, tomó un día de febrero para que su mes de “Augustus” también tuviera 31 días. Como esto provocó que tres meses consecutivos fueran largos, entonces, para mantener cierta regularidad, septiembre y noviembre fueron reducidos a 30 días y octubre y diciembre aumentados a 31. Gracias a ello seguimos haciéndonos pelotas sobre cuántos días tiene cada mes.

 
 
  LA APROPIACIÓN DE LOS FASTOS
 

Parece ser que el Nuevo Testamento no comenta el establecimiento formal de ninguna de las festividades propiamente cristianas. Estas celebraciones se fueron acumulando de manera paulatina, y son esencialmente adaptaciones de viejas fiestas del pueblo hebreo y de cultos paganos de varias regiones. En su sabiduría, la Iglesia supo asimilar lo que de otros cultos le permitiría hacer proselitismo.

Las historias han sido documentadas por los especialistas, y eso nos permite saber que el nombre que los países anglosajones dan a la Pascua —Easter— deriva de una antigua diosa sajona: Eostur. Los huevos y los conejos de chocolate apuntan a que los símbolos de fertilidad se mezclan con el significado de la Resurrección y las fogatas druídicas con el Día de todos los Santos (All Hallows Eve, Halloween). El día de San Valentín coincide con un festival romano en el que los hombres sacaban de una caja el nombre de la dama que los acompañaría —sin la suegra— en el carnaval. Aquí cabe una reflexión, y es que resulta una lástima que las fiestas de mayo medievales —las más bellas del año, y en las que las parejas se formaban, sin compromisos posteriores, y se perdían en el bosque— no hayan encontrado asilo en el santoral.

Las únicas festividades celebradas por la Iglesia cristiana que menciona Orígenes (c. 185-254 d .C.), uno de los más destacados exponentes del pensamiento filosófico religioso, son el domingo, las Pascuas (incluida la de Resurrección) y Pentecostés (entre los judíos es el día en que Dios entregó a Moisés las Tablas de la Ley). Lo que la Iglesia católica celebra en dicha fecha es la aparición —50 días después de la Pascua— del Espíritu Santo ante la Virgen María y los apóstoles).

La Epifanía, es decir, la aparición de Cristo a los Reyes Magos, es una idea posterior, al igual que la Navidad. Para San Agustín (354-430 d. C.) la fecha del nacimiento de Cristo era desconocida y en su tiempo no se celebraba de manera oficial. Cuando se hizo, se escogió la fecha “equivocada”, ya que los llamados Padres de la Iglesia consideraban que la Natividad tuvo lugar —según nuestra cronología— en el año 2 o 3 antes de nuestra era. La fecha tradicional para la Navidad, el 25 de diciembre, fue establecida en el siglo 111 d. C., en tiempos en que la Natividad y la Epifanía (que por entonces se asociaba con el bautizo de Jesús) caían en el 6 de enero.

Lo anterior resultaba absurdo y ponía a prueba la fe de muchos creyentes, puesto que significaba que Jesús nacía en Belén y de inmediato era trasladado a Jerusalén para que el bautizo tuviera lugar el mismo día. Para poner fin a situación tan embarazosa, el Papa consultó los trabajos del historiador Flavio Josefo y con base en ellos fechó el nacimiento del Hijo de Dios el 25 de diciembre. Elección afortunada para los habitantes de la Britania, pues el periodo entre el 25 de diciembre y el 6 de enero coincidía con las fiestas de Yule, celebraciones paganas de 12 días de duración.

 
 
  LAS REGLAS DEL TIEMPO
 

Durante los siglos que siguieron a la caída del Imperio romano el conocimiento y el orden fueron patrimonio casi exclusivo de los monasterios. Muy en especial, la orden de los benedictinos se encargó de preservar una regla tan estricta que imponía a sus miembros rezar los 150 salmos a lo largo del día. Otra orden mantenía un coro cantando día y noche, con relevos que ocurrían en horas precisas y que requerían ser determinadas con cierta exactitud. Se desprende de lo anterior que la vida monacal estaba sujeta a una serie de actividades que poco dejaban a la iniciativa de quienes se habían entregado a ella. Usualmente, la vida de un monje transcurría según el siguiente esquema, medido en nuestras horas: ocho horas de sueño ininterrumpido, cinco de ritos religiosos (ocho en domingo, para celebrar), seis de trabajo, cuatro de estudio y una de meditación.

Para marcar los cambios entre las diversas actividades se recurría a todo tipo de campanas: la gran campana de la torre, la nola en el coro, el cymbalum en el claustro, el tintinnabulum en el refectorio o comedor, y todo tipo de cascabeles o campanillas en los dormitorios. La puesta en acción de cada una de las campanas estaba regulada por el reloj de arena o la clepsidra o la vela-reloj. Los intervalos en que sanaban variaban según la época del año, siendo común dividirlo en invierno (de septiembre a Pascuas) y verano únicamente. Un día sería el intervalo entre la salida y la puesta del Sol, dividido en doce horas, al igual que la noche. A lo que esto llevaba era que la duración de las horas tendría que ser desigual entre el día y la noche, y que también variarían según la época del año.

Con la aparición de los relojes mecánicos se igualó la duración de las horas, pero esto significó que el número de horas que correspondían al día y a la noche variarían según la época del año. Así, en noviembre se tenían ocho horas de día y dieciséis de noche, proporción que se invertía en mayo. No obstante estas complicaciones, la vida en un monasterio benedictino se organizaba más o menos como sigue: el día se iniciaba a medianoche con el primero y más largo servicio religioso: maitines. Quienes tenían asignadas labores nocturnas se retiraban a cumplirlas, en tanto se tocaban las campanas para laudes y la comunidad se retiraba a dormir entre la 1 y las 2 a.m., para no retomar la actividad sino hasta el amanecer. Venía entonces prima, y con ella un servicio de corta duración, luego algo de limpieza corporal con agua fría, para enseguida halagar el paladar con pan y cerveza ingeridos de pie. A continuación tenía lugar una misa, acompañada de sermones, confesiones y, posiblemente, algunas mortificaciones para purificar el alma. Después de un periodo en el claustro sonaría tercia (alrededor de las 9 a.m.); en domingos o días festivos habría una procesión y a continuación se tendría sexta (mediodía). El Ángelus —rezos en memoria de la Anunciación— se repetía tres veces al día, a las 6 a.m., a mediodía y a las 6 p.m. A las 11 a.m. una campana convocaba a que los monjes se lavaran y pasaran a tener la única comida en forma de la jornada. Justo antes de nonas (las 3 de la tarde, aunque luego correspondería a las 12) se deberían lavar una vez más, y luego realizar algunas pequeñas labores y tomar un descanso antes de las vísperas. Más adelante tendrían la cena y alguna lectura sobre un tema espiritual y, antes de completas, un poco de cerveza. Sólo quedaba, para terminar la jornada, que en procesión se dirigieran a sus camas.

La descripción anterior remite a una especie de dictadura ejercida por el tiempo, una cronarquía organizada y absoluta. Las rutinas se extendían más allá, con ciertos periodos marcando las pautas: lavado de copas y cubiertos una vez al día, de los tarros de cerveza una vez a la semana, un baño integral tres o cuatro veces al año, lavado de pies cada semana y un sangrado cada seis o siete semanas, dependiendo de la orden.

En 1271, en un comentario a La Esfera de Jacobo de Dondi, astrónomo y médico nacido en Padua, sentó las bases de su fama cuando presentó el reloj mecánico que adornaría una de las torres de su ciudad natal. Se cree que fue el primero que añadió a un reloj mecánico una carátula con manecillas que indicaran la hora, ya que antes sólo marcaban el paso de las horas mediante golpes sobre una campanilla. Su hijo, Giovanni, alcanzaría una fama superior por ser quien construyera (1364) un reloj cuyas especificaciones han llegado a nuestros días y “… tan grande maravilla era que los grandes astrónomos venían de lejanos lugares para admirar el trabajo. Para construir su esfera [reloj] como lo concibió su sutil mente, Giovanni no hizo otra cosa durante dieciséis años.”

Durante varios siglos las estrellas fueron una guía para los navegantes que se alejaban de las costas. Para realizar mediciones que resultaran adecuadas para sus cálculos hubo que diseñar instrumentos de medición, y el nocturnal fue una de las aportaciones del siglo XVI. Como su nombre lo delata, servía para determinar la hora durante las noches, lo cual lograba midiendo las posiciones relativas de la estrella Polar y Kochab, una pequeña estrella en la parte superior de la Osa Menor. Los picos de sierra del disco interior que se muestran en la figura permitían hacer las mediciones recurriendo sólo al tacto.

 
 
     
Referencias Bibliográficas
 
L. Sprague de Camp, 1990, The ancient engineers, Technology and invention from the earliest times to the Renaissance, Dorset, NY.
James Burke, 1985, The day the Universe changed, Little, Brown & Company, Boston.
Anthony Aveni, 1989, Empires of time, Calendars, Clocks and Cultures, Basic Books, USA.
James Burke, 1978, Connections, Little, Brown & Company, Boston.
Carlo M. Cipolla y Dereck Birdsall, 1979, The Technology of Man, Holt, Rinehart & Winston, N.Y Lancelot Hogben, 1972, Astronomer Priest & Ancient Mariner Heinemann, London.
Henry C. King, 1957, The Background of Astronomy, C. A. Watts & Co. LTD, London.
George Sarton, 1959, A History of Science, Harvard University Press, Cambridge, USA.
J. D. North, 1989, Stars, Minds and Fate, The Harnbledon Press, London.
Colin Ronan, 1976, Lost Discoveries. The Forgotten Science of the Ancient World, Bonanza Books, N.Y.
     
 _________________________________      
Rafael Martínez Enríquez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
________________________________________
     
 
cómo citar este artículo
Martínez Enríquez, J. Rafael 1994. Historias del tiempo. Ciencias núm. 35, julio-septiembre, pp, 26-39. [En línea].
     

 

 

nota         menu2
índice 35  
siguiente
anterior
PDF
                 
La catedral de la vida. El biodomo
de Montreal
R035B01  
 
   
   
Patricia Magaña Rueda    
                     
En la actualidad la posibilidad de romper totalmente
nuestra relación con el medio es cada día más cercana, por lo que desde hace más de 20 años un cierto tono de alarma resuena con mayor profundidad en muchos más sectores sociales. ¿Cómo detener esta marcha hacia la destrucción de nuestro planeta? Puede haber muchas respuestas, pero para buena parte del mundo académico e intelectual la respuesta está en la educación y la formación de conciencia entre todos los ciudadanos de que nuestro futuro, el de nuestros hijos y descendientes, está comprometido con el manejo que hagamos del medio, y por lo tanto, que es necesario cambiar las tendencias destructoras de la naturaleza. Entre las opciones educativas están la televisión, el radio, las publicaciones, los museos, el cine, el video, las muy de moda empresas turístico-ecológicas y por supuesto las exposiciones, en jardines, parques, acuarios y zoológicos, a través de los cuales los hombres han intentado recrear la naturaleza. Sin embargo, esta naturaleza, cuya constitución y funcionamiento apenas empezamos a conocer, difícilmente podrá ser representada en toda su magnitud y complejidad.
 
Para los canadienses, particularmente los quebequenses, una respuesta educativa concreta ha sido la construcción del biodomo en la ciudad de Montreal. El biodomo es un nuevo concepto en museo de ciencias de la naturaleza, un concepto único, con muchas facetas, cuyo objetivo primario es despertar la conciencia del público acerca de la fragilidad del planeta y la responsabilidad que tenemos cada uno de nosotros en su conservación.
 
Como herencia de los juegos olímpicos de 1976, el velódromo de Montreal tenía muchos problemas, su rentabilidad era muy baja y aunque se usaba para eventos especiales, tenía un déficit de 1.5 a 2 millones de dólares canadienses por año, por lo que se decidió montar en él este museo vivo. Para sus creadores, el biodomo representa el inicio de la reconciliación de los hombres con la naturaleza, ya que marca un progreso respecto a lo que le precedió. En el biodomo se reproducen cuatro ecosistemas: el mundo polar, el bosque tropical lluvioso, el bosque lorenciano (ecosistema único de Canadá) y la marina de San Lorenzo.
 
Su construcción, a pesar de lo complicado de todos los requerimientos científicos y técnicos, que van de la construcción del gran domo, las rocas y pozas para los acuarios, además de la aclimatación de plantas y animales, permitió mejorar la suerte de las plantas, animales y peces considerados separadamente, lo que es parte de su originalidad; implicó conjuntar el jardín botánico, el acuario y el zoológico en un todo integrado, donde la técnica no es más importante que la naturaleza.
 
El mundo polar
 
Este ecosistema ocupa alrededor de 700 m2; representa dos zonas distintas: el Ártico y el Antártico. Se pueden ver acantilados de rocas, esquistos estratificados de las costas del Labrador, que albergan una impresionante comunidad de aves asociadas al agua (frailecillos, murras, alcas y patos), bajo la mirada nerviosa de otras aves, que se relajan en las aguas frías. Otra zona es la constituida por rocas basálticas de la Antártida, que sirve a colonias de pingüinos saltadores, y en el corazón del ecosistema, una pequeña zona donde el visitante puede ver caer nieve en pleno mes de julio, sobre los pingüinos reales.
 
Bosque tropical lluvioso
 
Sobre más de 2600 m2 y bajo un techo de vidrio de 20 metros de alto, a una temperatura de 25°C durante el día y 21°C por la noche, y con una humedad del 70%, el bosque tropical revela la lujuria y diversidad de su fauna y flora, entre rocas, acantilados y grutas calcáreas de donde surgen infinidad de cascadas. Fue diseñado con ayuda de un equipo científico del Museo Nacional de Costa Rica e ilustra la sucesión dinámica de un bosque primario y uno secundario. Un río forma una pequeña poza, además de rápidos y estanques con las orillas erosionadas, donde descansan los caimanes. Un bosque primario dominado por las ceibas, otro secundario por cecropias. Entre las especies arborescentes están Clusia, Calophyllum, Canavillesia, Pachira, Tabebuia y Xantaxylum y entre los arbustos Casimiroa, Liboria y Psycatria. Entre las herbáceas encontramos acantáceas, araceas, comelináceas, gesneriáceas, heliconiáceas y piperáceas, además de trepadoras y epífitas. Resaltan las begonias y bromelias. El ecosistema alberga primates, perezosos, capibaras y coatís, sin olvidarse de la fauna alada abundante y multicolor. El bosque tropical también tiene murciélagos, anacondas, batracios, iguanas, pirañas, y otros tipos de peces. Seis árboles gigantes —simulados— que se apoyan en sus contrafuertes o se ahogan bajo la presión irresistible del matapalo dejan caer sus lianas entrelazadas. Estos árboles constituyen el mecanismo humidificador del bosque tropical por el que, de manera continua, se puede observar la salida de vapor de agua, permitiendo el mantenimiento de la humedad en este ecosistema.
 
Bosque lorenciano
 
Intermedio entre el gran bosque de coníferas o boreal y el bosque de hojas caducas al sur de Canadá, el bosque mixto o lorenciano es el reino del gneiss, roca metamórfica formada por cristales de mica, cuarzo y feldespato. La retracción de los glaciares ha formado innumerables lagos, donde viven peces como las truchas, salmónidos y mamíferos como el castor y las nutrias. El biodomo reproduce sobre 1500 m2 este ecosistema dominado en sus partes rocosas por piceas, abetos y sauces y en su parte baja por los arces rojos y azucareros, las hayas y los abedules. Viven también ahí el lince, los mapaches, el puerco espín y toda una gama de aves migratorias y anidantes: pico gordos, urracas azules, verdines, garzas, patos y guacos.
 
En el otoño, después de lo apoteótico del espectáculo de los árboles que cambian sus hojas a tonos ocres, el bosque, bajo el efecto combinado de fotoperiodo y frío, entra en un largo periodo de reposo para el sueño invernal.
 
La marina de San Lorenzo
 
Los mares y océanos constituyen las 2/3 partes del planeta. El biodomo se concentró en el estuario de San Lorenzo, puerta de entrada a Canadá por el Atlántico. En una galería submarina, detrás de una pared transparente, se puede admirar una sección de mar de 1600 m2 con la presencia de rocas graníticas, donde cohabitan en una zona salina, distintos tipos de peces e invertebrados con formas y comportamientos extraños. A la fauna ictiológica del Atlántico norte, vendrán a sumarse este año las belugas del gran norte canadiense. Se construyó una poza de 2.5 millones de litros de agua salada con pequeñas playas, islas rodeadas de acantilados abruptos de una altura de 10 m que sirven para la anidación de gaviotas.
 
El ecosistema de San Lorenzo es también la representación de una vegetación pobre en coníferas, con árboles enanos de las regiones frías, aves de orilla y un estanque de marea con cangrejos, estrellas de mar, moluscos y otros invertebrados.
 
Con un costo de más de 50 millones de dólares, el biodomo se abrió en junio de 1992. Se plantea como una institución permanente, no lucrativa, al servicio de la sociedad y de su desarrollo, que conjunte investigación concerniente a las relaciones del hombre y el ambiente, que conserve, comunique, discuta y eduque.
 
Al detenerse frente a alguno de los ecosistemas recreados y pensar en lo que involucra montar, mantener y estudiar algo tan complejo, la sensación de asombro crece a cada momento. Al adentrarse en los recovecos técnicos del funcionamiento del biodomo, lo cual en el futuro será parte de las atracciones del lugar, se piensa en la necesidad de investigación y desarrollo de nuevas tecnologías, donde la alimentación de cada organismo, la filtración del agua, la eliminación de los desechos, el control de la luz, la humedad y el fotoperiodo, la salud de los animales, el control de las plagas, etcétera, representan un reto a la imaginación y creatividad de cada uno de los participantes de este interesante museo vivo. De igual manera, uno piensa en las infinitas posibilidades recreacionales y educativas, pero sobre todo se llega al punto nodal: ¿valdrá la pena el esfuerzo? Los debates generados alrededor del biodomo pueden ser muchos y apasionantes. Es un reto a la comprensión social de un proyecto que intenta dar a conocer las maravillas de la vida, y que esto permita protegerlas y manejarlas de la mejor manera.
  articulos
 _____________________________________________________________      
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________________
     
 
cómo citar este artículo
Magaña Rueda, Patricia. 1994. La catedral de la vida. El biodomo de Montreal. Ciencias núm. 35, julio-septiembre, pp. 23-25. [En línea].
     

 

 

del herbario         menu2
índice 35
siguiente
anterior
PDF
                 
La flora de Mesoamérica
R035B02  
 
   
   
Patricia Magaña Rueda    
                     
En los últimos años se ha planteado, de manera reiterada,
que el mundo se enfrenta a una pérdida acelerada de su biodiversidad, con una alta tasa de extinción de especies y se requiere por ello —con urgencia—, de estudios que nos permitan conocer la flora y la fauna aún existentes. México es uno de los países tropicales con una megadiversidad, cuya importancia hasta hace poco tiempo fue reconocida por el gobierno, al formarse la Comisión Nacional para el Conocimiento y el Uso de la Biodiversidad. Sin embargo, ya con anterioridad se habían iniciado proyectos en los círculos académicos, encaminados a conocer los recursos vegetales del país. Uno de ellos, sin precedente en esta zona del mundo, es el relativo a la elaboración de la Flora Mesoamericana.
 
Este proyecto surge a mediados de 1980, organizado por el Instituto de Biología de la UNAM, el entonces Museo Británico, hoy Museo de Historia Natural de Londres, y el Missouri Botanical Garden. Su objetivo es el de realizar un inventario sinóptico de las plantas vasculares de Mesoamérica, que por la forma en que fue delimitada, abarca ocho países de forma total o parcial. La delimitación del área es principalmente geográfica y cubre las siguientes regiones, políticamente bien definidas: los estados mexicanos de Tabasco, Yucatán, Campeche, Quintana Roo y Chiapas, y los países centroamericanos de Belice, Guatemala, El Salvador, Honduras, Nicaragua, Costa Rica y Panamá. México comparte con esta zona, en casi la totalidad de su extensión, historia, lengua y cultura.
 
En el caso de México, cuatro áreas razonablemente bien definidas fuera de esta región: Uxpanapa y Los Tuxtlas en Veracruz, Chimalapa y Tuxtepec en Oaxaca, en la confluencia de los límites de Oaxaca, Chiapas y Veracruz, muestran también, en cuanto a su flora, un carácter marcadamente mesoamericano, por lo que se decidió que los taxa de dichas áreas podrían ser incluidos en el tratamiento, si se estima que son de procedencia tropical.
 
Se afirma que las floras representan el lenguaje de los botánicos, en este caso el idioma de publicación de la Flora Mesoamericana es el español, con lo que se marca un momento histórico para los países de habla hispana en América, ya que la mayor parte de lo que se había publicado en este campo se había hecho en otros idiomas. Será el tratado más extenso de plantas escrito en español.
 
De las aproximadamente 265000 especies de plantas vasculares y briofitas que existen en el mundo, se estima que la Flora Mesoamericana comprenderá cerca de 19000 plantas vasculares, incluyendo a los helechos y plantas afines, cicadáceas, coníferas y angiospermas. También se incluyen plantas exóticas naturalizadas, malezas agrícolas y ruderales, plantas cultivadas a escala agrícola, árboles de ciudad, plantas de ornato muy comunes y otras plantas cultivadas extensamente.
 
Se calculó en un primer momento, que el proyecto tendría una duración aproximada de doce años, de los cuales los primeros cuatro serían de exploración en el campo, para culminar en la publicación de siete volúmenes. Obviamente por lo complejo y dinámico de su elaboración, un trabajo de esta envergadura sobrepasó dicha estimación, y apenas en marzo de 1994 se presentó el primer volumen terminado, el número VI. Esto congregó en el Jardín Botánico de la UNAM, a investigadores de las instituciones organizadoras, autores mexicanos y extranjeros, y profesionales de la Botánica de nuestro país; en la mesa de presentación, estuvieron Antonio Lot, Mario Sousa, José Sarukhán, Sandra Knapp, Gerrit Davidse, Peter Raven y Alfonso Delgado.
 
En esta publicación, las familias están ordenadas en secuencia taxonómica, sin embargo, los volúmenes no aparecerán en secuencia numérica. Este primer volumen incluye 28 familias de monocotiledóneas, 326 géneros y 1891 especies, de los que se describieron como nuevas una familia (Lacandoniaceae), 2 géneros y 104 especies. Participaron 47 taxónomos (20 de Estados Unidos de Norteamérica, 14 de Europa, 10 de México, 2 de Costa Rica y 1 de Honduras). Los taxa se incluyen según se muestra en la tabla.
 
Familias  Géneros  Especies 
Alismataceae 2 22 
Limnocharitaceae
Hydrocharitaceae
Potamogetonaceae 2 9
Cymodoceaceae 2 4
Najadaceae 1 4
Triuridaceae 3 4
Lacandoniaceae 1 1
Smilacaceae 1 25
Liliaceae 15 43
Agavaceae 11 45
Haemodoreaceae 2 2
Alstroemeriaceae 1 13
Hypoxidaceae 3 4
Velloziaceae 1 1
Dioscoreaceae 1 44
Pontederiaceae 4 17
Iridaceae 14 36
Burmanniaceae 6 15
Juncaceae 2 17
Bromeliaceae 18 301
Commelinaceae 13 65
Mayacaceae 1 1
Xyridaceae 1 11
Rapateaceae 1 1
Eriocaulaceae 4 27
Poaceae 176 834
Cyperaceae 32 335
     
TOTAL 326 1891
 
Como coincidieron en señalar los comentaristas de este primer volumen, la Flora Mesoamericana ha significado un reto para las personas e instituciones que intervienen en su realización, en cuanto a organización y colaboración internacional, tanto en trabajo como en presupuesto. Para México implicó una fuerte ampliación de colecciones, lo cual tuvo como resultado la formación de taxónomos, la elevación de calidad del trabajo, el entrenamiento a diversos niveles técnicos, etcétera.
 
El volumen presentado, además de las cualidades de su contenido, es una obra con un magnífico trabajo editorial, elaborada con gran cuidado, de excelente presentación y fácil consulta.
 
El siguiente volumen que se publicará, será la descripción más extensa que se haya hecho sobre helechos, e incluirá 1382 especies, de las que el 10% se han descubierto en la última década.
  articulos
 _____________________________________________________________      
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________________
     
 
cómo citar este artículo
Magaña Rueda, Patricia. 1994. La flora de Mesoamérica. Ciencias núm. 35, julio-septiembre, pp. 82-83. [En línea].
     

 

 

R35Articulo08   menu2
índice 35 
siguiente
anterior
PDF
   
   
Marcelino Cereijido y Fanny Blanck-Cereijido      
               
               
Sería de buen tono comenzar un artículo científico definiendo
los conceptos que se habrán de tratar; pero sucede que los de vida y sobre todo el de tiempo han eludido con éxito y durante milenios el esfuerzo de filósofos, cosmólogos, físicos, psicólogos, biólogos y por supuesto, artistas de toda laya por encerrarlos en alguna definición que sea aceptable para todos. Pero entonces, ¿cómo se las habrán ingeniado para referirse a la vida y al tiempo todos aquellos que se ocuparon de estos conceptos? Veamos algunos ejemplos.
 
San Agustín de Hipona resume su posición así: “Si no me preguntan yo sé que es el tiempo. Pero si me piden que lo explique no puedo hacerlo (…) pues hay tres tiempos y los tres son presentes: el presente del presente en el que escribo estas líneas, el presente del pasado del que sólo me ha quedado una memoria presente, y el presente del futuro, del que por ahora tengo apenas una anticipación". Esta actitud debería resultar aleccionadora para quienes escuchan (en el presente) las vibraciones acústicas (actuales) producidas por la cinta plástica de un cassette copiado en Nueva York hace dos meses, al pasar (ahora) por una grabadora fabricada hace menos de un año en el Japón, escuchar un sonido que identifican con la voz de Enrico Caruso cantando Vesti la Giubba… ¡y creer sincera y nostálgicamente que están oyendo un pasado de setenta años!
 
Otra de las actitudes que aquí llamamos “sinceras” fue la del físico Richard Feynman, laureado con el Premio Nobel, quien en su curso de Dinámica, cuya variable central es justamente el tiempo, ante la dificultad en definirlo confesó: “El tiempo es cuánto tenemos que esperar”, y luego: “El tiempo es lo que pasa… cuando no pasa nada”. Por último, Gardel y Lepera, en su tango “Volver”, cantan:
  
Volver, con la frente marchita
las nieves del tiempo
mancharon mi sien.
Sentir que es un soplo la vida,
que veinte años no es nada
 
De modo que, a pesar de “no ser nada”, el tiempo tiene nieves y otros atributos de los que dan cuenta expresiones como: “El tiempo es oro”, “Hay que darle tiempo al tiempo”, “No tengo tiempo”, “Voy a hacerme tiempo”, “He conocido tiempos mejores”, “En mis tiempos…”, “El tiempo todo lo arregla”, “El tiempo cruel no perdona”, “El tiempo pasa volando y sin embargo deja huellas”.
 
Por supuesto, se trata de metáforas en las que el tiempo, a pesar de no ser nada, presenta propiedades insólitas, tales como ser de metal, recibir préstamos, poder ser fabricado por quien lo necesita, haber sido mejor en el pasado, pertenece a alguien, sabe componer  cualquier tipo de entuerto, ser cruel, volar.
 
La metáfora más ilustre respecto al tiempo la introdujo Heráclito, al comparar el fluir del tiempo con el de un río. Pero en el caso del río, al menos sabemos qué es lo que fluye: agua; respecto a qué fluye: las orillas que se consideran fijas; y cuánto fluye: tantos metros cúbicos por segundo. En cambio, en el caso del tiempo, ¿qué es lo que fluye?, ¿respecto a qué fluye?, y ¿cuánto fluye? ¿un segundo por segundo?    
 
Por último, el vulgo cree que el tiempo es producto del reloj y el calendario, sin advertir que a lo sumo se está refiriendo al cambio de la posición de las manecillas, o la disminución (o sea, otro cambio) del número de hojas del calendario, o del contenido de carbono catorce de un hueso de gliptodonte, son transformaciones en el tiempo, es decir, que al hablar de dichos cambios, están presuponiendo un tiempo en que esos cambios ocurren. En la misma vena, hay incluso doctos cosmólogos que están convencidos de la existencia de una “flecha temporal”, cuya dirección (de pasado a futuro está dada por el aumento de la entropía del Universo: de dos estados, el que tenga más entropía es posterior. Pero no advierten que es necesario presuponer un tiempo, es decir, algo así como un hipertiempo (con una dirección pasado ? presente ? futuro) en el cual se ubicarán secuencialmente el estado anterior (de baja entropía) y el estado posterior (de alta entropía). Por suerte los termodinamistas más rigurosos, como el físico mexicano Leopoldo García Colín, señalan que no se puede extender el Segundo Principio como para fundamentar esas “flechas temporales”. Con todo, hay cosmólogos creen haber detectado nada menos que los sitios y momentos del nacimiento del tiempo: en la Gran Explosión o en los bordes de los agujeros negros. Pero, para decirlo pronto: nadie ha concebido jamás un experimento para demostrar que hay un tiempo que transcurre. Gardel y Lepera parecen haber dado en la tecla:  “Veinte años no es nada”.
 
Hay incluso exasperados que han llegado a exclamar: “¡Muy bien, no hay ninguna evidencia de que el tiempo transcurra!”. Por lo tanto, el mentado transcurrir del tiempo ni siquiera es una ilusión, pues no entraña ningún engaño a nuestros sentidos (como cuando nos parece que la ropa oscura nos hace ver menos gordos), sino tan solo un mito. Han llegado a suponer que la realidad es estática (como las fotos de una película de cine, o las páginas de una vieja novela) pero que nuestra mente, al captarlas secuencialmente, les atribuye un tiempo en el que los personajes “cobran vida”: cada vez que leemos el Quijote de Cervantes, hacemos que el famoso “Flaco” vuelva a cargar contra molinos de viento, cada vez que leemos Hombre de la Esquina Rosada de Borges, trenzamos a los cuchilleros en salvaje duelo en el que el Corralero vuelve a caer muerto para nosotros.
 
Así, recorriendo posiciones ya cándidas, ya doctas, llegamos a la biología, pues al fin y al cabo nuestro artículo incluye la vida en su título. Una de sus ramas más distinguidas y recientes estudia los ritmos: latidos, secuencias automáticas de inspiración/expiración pulmonar, peristaltismo intestinal, oleadas de potenciales eléctricos neuronales, menstruaciones, hibernaciones, migraciones, generaciones (abuelos, padres, hijos, nietos).      
 
La relación de los organismos con el tiempo es notable. Así, unicelulares tan sencillos como el plasmodio que provoca la malaria, invaden la sangre del enfermo por el atardecer, momento en el que tiene mayor probabilidad de que las picaduras de un mosquito lo propaguen a otras víctimas. Los perros aprenden a medir el tiempo: si el investigador toca un timbre y espera veinte minutos antes de darles alimento, los animalitos se acostumbran a esperar con bastante exactitud veinte minutos antes de segregar saliva. Se ha visto que cuando se les pide que estimen la duración de un minuto sin mirar el reloj, los hipertiróideos dicen “ya” en apenas treinta segundos y los hipotiróideos a los noventa. Se han asociado los trastornos menstruales de las azafatas con los cambios horarios debido a sus viajes intercontinentales. Se han encontrado centros cerebrales cuya lesión altera la noción del tiempo y la coordinación de los ritmos temporales.
 
De modo que la única “evidencia” de que hay un tiempo que transcurre, parece consistir en que tenemos la sensación de que sí lo hay (podemos aburrirnos hasta la exasperación en la sala vacía a la que además hemos olvidado llevar el reloj) y llamamos a esa sensación “sentido temporal”. Pero cada sentido debe tener una señal y un receptor. Por ejemplo, la vista tiene como señal la luz y como receptor la retina; el olfato tiene como señal las moléculas odoríferas y como receptor la nariz; la audición tiene como señal el sonido y como receptor los tímpanos. Pero, ¿cuáles son las señales y los receptores del “sentido temporal”?           
 
Theodosius Dobzhansky afirmaba que nada en biología tiene explicación, salvo que se lo relacione con la Evolución biológica. Intentemos entonces entender la naturaleza del tiempo analizando el papel evolutivo del “sentido” temporal.
 
Las ventajas que otorga el “sentido” temporal están reflejada en frases como: “Hombre prevenido vale por dos”, “La próxima gasolinera está a media hora”, “Tiene 180 pulsaciones por minuto”, “Ganamos en tiempo suplementario”, “El secreto de la victoria, es saber de antemano”. Toda estrategia es un plan de lo que se ha de hacer en función del tiempo. Así, un maestro del ajedrez puede detectar en nuestra apertura el defecto que, dentro de veinte jugadas, se transformará en una debilidad insalvable… y dispone su juego para aprovechar el error y derrotarnos.
 
Nuestra mente, que puede pensar la realidad en función del tiempo, imagina fenómenos tan lentos como la evolución de todo el Universo a partir de la Gran Explosión (miles de millones de años) y explicarlo en una hora de clase, o tan rápido como el decaimiento del bosón Z° (2,65 × 10–25 segundos) ¡y tomarse también una hora para explicarlo! Pero, para tomar ejemplos relacionados a la supervivencia: gracias al cálculo de dinámicas, el hombre puede esquivar un lanzazo, predecir el movimiento de presas y predadores, plantar un vegetal en cierto momento del año y tener en cuenta cuándo deberá regarlo y cuándo cosechar. El “sentido temporal” hace que podamos captar relaciones tales como nublado-lluvia, sembrado-cosecha, apareamiento-crías. Una mejor elaboración de esas secuencias temporales nos lleva a entender sus mecanismos y transformar las secuencias en cadenas causales: causas antes, efectos después. Una elaboración social mucho más profunda y compleja de estas cadenas causales, acabará por generar ramas enteras de la ciencia (por qué llueve; por qué crecen los vegetales; por qué suceden las reacciones entre moléculas; por qué se hace la digestión; por qué cayó el Imperio romano; por qué ocurrirá un eclipse dentro de tres años y dos meses a las 3:45; por qué me duele el epigastrio y, concomitantemente, se me puede anestesiar y resecarme el trozo de estómago ulcerado que, de lo contrario, acabaría por matarme).
 
De manera que el “sentido temporal” ayuda a sobrevivir, y la lucha por la vida va seleccionando a aquellos organismos que pueden evaluar una cantidad cada vez mayor de futuro… y aquí estamos.
 
La vida en el planeta es un colosal proceso ordenado jerárquicamente. En el nivel más bajo ocurre un endemonial de reacciones químicas, en el que los tiempos se miden en el rango del fentosegundo (10–15 segundos), y de difusiones de moléculas de un sitio a otro de la célula en el orden del microsegundo (10–6 segundos). El “orden” aquí está expresado en las leyes de la química y de la difusión. Esas reacciones están reguladas por enzimas que codificadas en los genes cuya conducta es descrita por las leyes de la biología molecular, que se van imbricando con las leyes de la fisiología celular, ciencia que explica el orden de las señales químicas intracelulares, los potenciales eléctricos de las membranas, la estimulación e inhibición de receptores, los contactos celulares y las propagaciones de otras señales que ocurren en el rango del milisegundo (10–3 segundos). Pero las células de un organismo no tienen libertad de hacer cualquiera de las cosas de las muchas que podrían hacer, pues están sujetas a relaciones intercelulares, dependen para su nutrición del resto del organismo, están controladas por otra maraña de señales hormonales y eléctricas.               
 
Los niveles celulares, tisulares y de órgano tienen por encima el nivel jerárquico de los diversos sistemas que se coordinan formando los organismos: el aparato digestivo, el circulatorio, el endócrino, el nervioso, el muscular… Aquí las dinámicas se describen con leyes propias de la gastroenterología, la cardiología, la endocrinología… Aquí los fenómenos tienen escalas temporales del segundo, como es el caso del latido cardiaco y del ritmo respiratorio; del minuto, como los parpadeos y la circulación; de las horas como son los procesos digestivos; del día, como son los ciclos sueño/vigilia; del mes, como son las menstruaciones.       
 
Y así siguiendo, encontraríamos por encima los niveles de grupos y poblaciones, hasta llegar a toda la biósfera que, según algunos biólogos, se llega a comportar como un único y enorme organismo (Gaia), cuyo ordenamiento se describe con leyes propias de la ecología y, salvo la deletérea perturbación que introduce el ser humano con sus cacerías, depredaciones e industrias, tiene fenómenos temporales del orden de los millones de años.
 
Cabe advertir que el mundo biológico no contiene “cosas” estáticas, sino procesos dinámicos que tienen un orden temporal característico. Aquí el lector podría dudar: “Sí claro, la digestión es un proceso… pero, ¿acaso un árbol no es una cosa?” No. No lo es desde el punto de vista de este artículo, pues fue semilla, retoño, árbol, y mañana convertirse en una mesa, o un tinglado, un tobogán, leña. Aun si no lo cortaran para enviar sus maderas a un aserradero, los árboles no son eternos: tienen metabolismo el agua, las sales y los gases ingresan a él y pasan a ser el árbol, sus frutos caen, se los comen los pájaros, los árboles se pudren, se secan, los quema un rayo o un incendio forestal. Un ratón, un simple ratón, es un proceso que dura apenas dos o tres años. Una mariposa es un evento mucho más rápido, y una bacteria es por media hora el sitio de paso casi fortuito de moléculas. ¿Qué fueron Atila y Moctezuma en escala temporal cósmica?
 
La vida depende de que todos esos procesos, desde la glicosilación de una proteína hasta la migración anual de una golondrina, se cumplan dentro de escalas temporales adecuadas. Por ejemplo, cualquier reacción de la química biológica se puede efectuar en un tubo de ensayo, pero lo haría tan lentamente que no sería compatible con la vida. Dentro de una célula, en cambio, las enzimas aceleran la reacción miles de veces, en duraciones preciosamente ensambladas con los procesos difusivos, con la biosíntesis de otras enzimas en el momento adecuado. El corazón podría latir casi en cualquier momento, pero para que el organismo viva debe contraerse un número bastante fijo de veces por segundo. El cerebro no funcionaría si cada neurona, cada centro, descargara sus señales al azar. El oído tiene andanadas informativas con las que, como un correo que pasa a retirar el contenido de los buzones un par de veces al día, envía “paquetes” de información acústica cada 3 segundos, gracias a lo cual, según algunos psicólogos, tenemos sentido de la poesía y de la música.
 
Así como hay escritores que publican obras como “El Tiempo en la Arquitectura”, “El Tiempo en la Música”, “El Tiempo en la Historia”, en los que se describen cosas que ocurren en un tiempo que (supuestamente) transcurre, los fenómenos vitales que acabamos de mencionar no manejan el tiempo, sino que ocurren con cierta periodicidad en las diversas escalas temporales que fuimos mencionando, pero al tiempo en sí (suponiendo que haya algo que se llame tiempo) no le ocurre absolutamente nada.  
 
El sentido del tiempo le permite al hombre prever un futuro en el que él habrá de morir. El convencimiento de la inevitabilidad de esta muerte le causa una angustia tan grande, que lo mueve a imaginar esquemas mitológicos en los que vendrá Osiris a llevárselo en una barca por el Nilo, o llegarán las Valkirias para premiar su valentía transportándolo al Walhala, o lo resucitará el Dios judeocristiano para someterlo a un Juicio Final. Según los antropólogos, historiadores y psicólogos, la angustia ante la muerte es uno de los motivos centrales de que el ser humano desarrolle civilizaciones, y crea en tiempos que fluyen cíclica o linealmente.
 
Ahora bien, el progreso de esas civilizaciones ha generado una ciencia y una tecnología que permiten entender el fenómeno biológico y modificar la vida artificialmente, en el sentido de que el número, variedad, tamaño y actividad de nuestros animales, huertos, jardines, bosques y de nosotros mismos, reflejan lo que la humanidad ha hecho con ellos.
 
La muerte, sus múltiples causas, el momento y las circunstancias de la vida en que ocurre dependen de una constelación de factores, entre los que predomina el factor genético. Que el núcleo de un huevo fecundado vaya a generar una lagartija o un faisán, depende de la información que atesoran sus genes y las circunstancias ambientales en que se ejecuta esa información. Pero el hecho de que una mosca viva veinte días, un ratón tres años, un gato diez, un caballo quince, un elefante cincuenta y una persona setenta es todavía un misterio que la biología moderna se encarniza en tratar de descifrar.
 
A lo largo de nuestra vida el “sentido del tiempo” va cambiando. Para un niño pequeño, el pasado es un lugar chato donde convivieron Colón, Pulgarcito y su abuelo. Si le dicen que habrá de ser presidente, se verá a sí mismo ejerciendo la primera magistratura en medio de personajes adultos… pero reteniendo su forma, tamaño y puntos de vista actuales. Cuando medite sobre la muerte pensará que es algo que le ocurre a los demás. Cuando sea anciano, en cambio, toda muerte ajena referirá a la propia. Cuando sea adolescente, pensará que tiene por delante “todo el tiempo del mundo”. Recién cuando sea adulto su “flecha temporal mental” le hará pensar que hay una muerte esperándolo. Tampoco esa flecha es una “cosa”, sino un concepto elusivo, un sentimiento misterioso pues, así como la visión del tiempo que tiene el ser humano, ha ido cambiando con el tiempo, también su sentido temporal cambia con el tiempo.
 
Lo notable es que esa “flecha temporal” funcione solamente en el nivel consciente, pues según los psicoanalistas, el inconsciente no se maneja con el tiempo cotidiano. Un aroma, una vieja carta, una antigua melodía, nos enciende de pronto el recuerdo de un pastel, una novia, una musiquita, que se mantuvieron incólumes en la memoria.
 
En una reciente mesa redonda, la escritora Ángeles Mastreta, nos explicaba que ella caía dolorosamente en la cuenta del transcurso del tiempo, cuando al observar a un muchacho guapo, pensaba que sería un excelente novio… para su hija. Pero enseguida celebró que, en nuestra exposición anterior, nosotros hayamos argumentado que no hay ninguna evidencia de que haya un tiempo que transcurre.
articulos
       
Referencias Bibliográficas
 
Blanck Cereijido, F., (comp.), 1983, Del tiempo: Cronos, Freud, Einstein y los genes, Folios Ediciones, México.
Blanck Cereijido, F., 1988, La Vida, el Tiempo y la Muerte, Fondo de Cultura Económica, México.
Blum, H., 1962, Time’s Arrow and Evolution, Harper Torchbooks, New York.
Cereijido, M., 1978, Orden, equilibrio y desequilibrio, Nueva Imagen, México.
Cereijido, M, 1993, “La muerte y sus ventajas”, en El tiempo, el psicoanálisis y los tiempos, México, D.F.
Darwin, C., 1961, On the origin of species, Harvard University Press, Cambridge, Mass.
Fernández-Guardiola, A., 1983, “El sentido del tiempo o el tiempo subjetivo”, en Del Tiempo, F. Blanck de Cereijido (comp.), Folios Ediciones, México.
Florscano, E., 1982, “Del tiempo sagrado al tiempo de los hombres”, Ciencia, 33,7.
Hayflick, L., 1975, “Current theories of biological Ageing”, en Federation Proceeding, 34, 1.
Lajtha, L. G., 1983, “Stem cell concepts”, en The Stem Cells (C. S. Porten eds.), Churchill Livingstone.
Walford, R. L., 1983, Maximum life span, W. W. Norton and Co., New York.
     
____________________________________________________________      
Marcelino Cereijido
Centro de Investigación y de Estudios Avanzados (Cinvestav),
Instituto Politécnico Nacional.
 
Fanny Blanck-Cereijido
Asociación Psicoanalítica Mexicana.
     
____________________________________________________________      
 
cómo citar este artículo
Cereijido, Marcelino y Blanck-Cereijido, Fanny . 1994. La vida y el tiempo. Ciencias núm. 36, octubre-diciembre, pp. 59-66. [En línea].
     

 

 

R35Articulo04   menu2
índice 35 
siguiente
anterior 
PDF
   
   
Juan Manuel Lozano Mejía
     
               
               
Todo tiene su momento y cada cosa su tiempo bajo el cielo.
Su tiempo el lanzar piedras y su tiempo el recogerlas; su tiempo el abrazarse y su tiempo el separarse.
 
Nada es más evidente que el paso del tiempo y nada es más fácil que perder el tiempo. Todos sabemos lo que es el tiempo y nadie sabe definirlo. Cada segundo que pasa somos un segundo más viejos. Cuando me canso al jugar con mis nietos, entiendo mejor lo que es un proceso irreversible.
 
Afirmaciones como las anteriores y muchas otras más, nos hacen ver que, de una manera o de otra, el tiempo está presente en nuestro lenguaje, nuestras ideas y nuestras emociones.
 
El tiempo nos interesa a todos, pero algunas personas tienen interés profesional en estudiarlo. El tiempo interesa a los geólogos, a los astrónomos, a los biólogos, a los fisiólogos, a los meteorólogos, a los psicólogos, a los deportistas y a los físicos, entre otros. Cada quien ve al tiempo de diferente manera, con diferentes enfoques y con diversos propósitos.
 
Como yo no soy más que un físico, y bastante ignorante además, diré algo sobre el tiempo en la física. Se puede decir mucho sobre el tiempo en la física, desde la construcción de relojes, que tiene muchísimo de física y muchísimo de ingenio, hasta el principio de indeterminación de Heisenberg, pasando por el tema, tan sobado en los libros de divulgación, de la “flecha del tiempo” y el crecimiento de la entropía como medida de la irreversibilidad. Este último tema me parece peligroso porque yo no sé, y creo que nadie sabe, qué diablos es la entropía en sistemas fuera de equilibrio, que son los más interesantes. Bueno, digamos algo.
 
1. En su librote Principios matemáticos de la filosofía natural, Newton empieza por dar ocho definiciones y luego, antes de enunciar sus famosas leyes del movimiento, viene un extenso escolio. En éste, dice que tiempo, espacio, lugar y movimiento son palabras conocidísimas por todos y añade que el vulgo sólo concibe esas cantidades a partir de su relación con las cosas sensibles, que de ello surgen prejuicios y que para removerlos es conveniente distinguir entre lo absoluto y lo relativo, lo verdadero y lo aparente, lo matemático y lo vulgar. Y después viene una caracterización del tiempo y del espacio.
 
El tiempo absoluto, verdadero y matemático, en sí y por su propia naturaleza sin relación a nada externo, fluye uniformemente, y se denomina con otro nombre: duración. “El tiempo relativo, aparente y vulgar es alguna medida sensible y exterior de la duración, usada por el vulgo en lugar del tiempo verdadero; hora, día, mes y año, son medidas semejantes”.
 
El párrafo anterior es interesante y comentable en todas sus partes, pero me interesa aquí destacar dos partes. Uno es el que dice que el tiempo absoluto fluye uniformemente y el otro es el que afirma que no tiene relación a nada externo. Con referencia a que el tiempo fluye uniformemente, me parece que eso es lo que permite a Newton considerar al tiempo como una variable continua y emplear sus ideas del cálculo diferencial e integral para plantear y resolver problemas de mecánica. Respecto a que el tiempo fluye sin relación a nada externo, me da la impresión de que Newton piensa que ese tiempo no sólo es independiente de la materia y de sus propiedades, sino también es independiente del observador; esto es importante porque da sustento a la idea de que los intervalos de tiempo son iguales para todo observador.
 
Acerca del espacio, Newton dice cosas muy interesantes, pero sólo transcribo el comienzo de lo que dice.
 
El espacio absoluto, tomado en su naturaleza, sin relación a nada externo, permanece siempre similar e inmóvil. El espacio relativo es alguna dimensión o medida móvil del anterior, que nuestros sentidos determinan por su posición respecto a los cuerpos.
 
Más adelante, Newton añade que las partes del espacio no pueden verse o distinguirse unas de otras median te nuestro sentidos. Por las posiciones de las cosas respecto a cualquier cuerpo, definimos los lugares y calculamos los movimientos tomando como referencia esos lugares. Por lo cual usamos lugares y movimientos relativos en vez de absolutos, sin inconveniente alguno, en los asuntos comunes. Puede suceder que no haya cuerpo realmente en reposo, al cual referir los lugares y movimientos.
 
Ojo. Newton está dispuesto a emplear el espacio relativo porque no le queda de otra y no encuentra ningún inconveniente en ello, pero respecto al tiempo, se muestra inflexible, el tiempo es absoluto y ya. Además el espacio y el tiempo son entidades básicas pero fundamentalmente diferentes. 
 
En esto Newton no difería de Aristóteles. Para ambos, la medición de un intervalo de tiempo da el mismo resultado para todo observador. El espacio y el tiempo están separados y son independientes entre sí. Las cosas se mueven en el espacio en el curso del tiempo y se puede decir cómo cambia su posición con el paso del tiempo, esto es, se pueden definir cantidades cinemáticas como la velocidad.
 
La gran diferencia entre Aristóteles y Newton está en la dinámica, no en la cinemática.
 
Ahora bien, con el espacio relativo y el tiempo absoluto, se puede construir la mecánica. Y funciona muy bien. Sin embargo puede haber sorpresas.       
 
2. Supongamos que tenemos un sistema físico que está formado por un conjunto de cuerpos en interacción, pero de tal manera que si un objeto influye en el comportamiento de alguno de esos cuerpos, el objeto en cuestión también forma parte del sistema.
 
Por ejemplo, si pensamos en un péndulo, el sistema está formado por la lenteja del péndulo, el soporte del que cuelga, el mecate que une al soporte con la lenteja y la Tierra, puesto que el péndulo tiene peso por su interacción con ella. Con muy buena aproximación, podemos pensar que el Sol, la Luna, la Nebulosa de Orión y el resto del universo influyen muy poco en nuestro sistema. Diremos que estamos observando un sistema aislado.
 
Ahora bien, si tenemos un sistema físico aislado y nos limitamos a hacer observaciones exclusivamente sobre el comportamiento del sistema, o sea, que no se vale mirar para afuera, ¿qué hora es?, ¿qué día es hoy? ¿En dónde estamos?
 
Estas preguntas parecen una vacilada, pero no. Pensemos un poco. Los cuerpos que constituyen nuestro sistema aislado están en interacción, se influyen unos a otros, sufren cambios, pueden empujarse, jalarse, golpearse, romperse, pero sólo por sus acciones mutuas, no por culpa de objetos fuera del sistema, porque hemos dicho que nuestro sistema está aislado. Pero cualquier cosa que le pase, cómo sea su comportamiento o procesos que ocurran, siempre se hará de acuerdo con las leyes de la naturaleza que rigen los fenómenos que suceden en el sistema. Si suponemos que las leyes de la física son las mismas ahora que dentro de un rato, que también eran válidas ayer y serán válidas pasado mañana, que valen aquí y también allá y acullá, entonces la respuesta a las preguntas vaciladoras que hicimos antes, tendrá que ser: no podemos saber.
 
Sin embargo, del mero hecho de reconocer que no podemos contestar estas preguntas, se puede concluir que hay cosas muy importantes que sí sabemos: en nuestro sistema físico aislado, se conserva la energía y el ímpetu. Pero esto, ¿cómo lo podemos saber?
 
Veamos lo mismo pero de otro modo. Si mediante la observación exclusiva del comportamiento de un sistema aislado pudiéramos saber en dónde estamos, se debería a que dicho comportamiento sería diferente en un lugar o en otro, lo que implicaría que las leyes de la física serían unas en un sitio y otras en otro sitio. Análogamente, si pudiéramos saber la hora en que se realiza un experimento nada más mirándolo, tendríamos que concluir que las leyes de la física son distintas a cada rato.
 
No, lo que pensamos es que las leyes de la física son invariantes frente a translaciones en el espacio y en el tiempo. En otras palabras, aceptamos la homogeneidad del espacio y del tiempo. La existencia de la astronomía es nuestra garantía. Lo que hacen los astrónomos es aplicar las leyes de la física, que hemos encontrado en esta pequeña región del universo en que vivimos a lo largo de unos pocos siglos, a estrellas y galaxias lejanísimas y si las cosas salen bien, el trabajo de los astrónomos es coherente y sus resultados también.
 
¿Y qué diablos tiene que ver esto con el ímpetu y la energía? 
 
Un poco de calma. Supongamos que tenemos una fuente luminosa en el punto A enfrente de un espejo. Además hay un mirón en el punto M como se indica en la figura 1. Hace aproximadamente 19 siglos, un alejandrino llamado Herón se preguntó: ¿de todos los caminos que empiezan en A, tocan el espejo y luego llegan a M, cuál es el de mínima longitud? Herón encontró la respuesta. El camino de mínima longitud, AEM, es el que cumple con la ley de la reflexión especular. En otros términos, la luz sigue, en el proceso de reflexión, el camino más corto posible.
 
Quince siglos después de Herón, el abogado francés Pierre Fermat, generalizó el resultado anterior de modo que fuera válido para la reflexión y la refracción de la luz. En el caso de la refracción es obvio que el camino óptico no es el de menor longitud, entonces Fermat exploró las consecuencias de postular que en todos los casos, el camino de la luz sea el de mínimo tiempo de recorrido (Figura 2).
 
El problema es, ahora sí: de todos los caminos que empiezan en A y terminan en el ojo del mirón M, ¿cuál es el de menor tiempo de recorrido? La respuesta que encontró Fermat es que ese camino es el que de verdad recorre la luz, es el que cumple con la ley de la refracción.
 
El principio de Fermat del mínimo tiempo es un ejemplo de un principio de valor extremo que tiene como consecuencia una ley de la física.
 
Cien años más tarde, otro francés, Pierre de Maupertuis habló de otro principio de valor extremo que llamó “Principio de mínima acción”. Sus argumentos eran rarísimos, más teológicos que físicos, pero salían cosas interesantes, de modo que otros físicos y matemáticos como Leonhard Euler, Joseph Louis Lagrange y William Hamilton estudiaron lo que decía Maupertuis. El resultado es sumamente importante: a partir de un principio de valor extremo, que ahora conocemos como Principio de Hamilton, se pueden obtener las leyes del comportamiento de un sistema a partir del conocimiento de una función, llamada Lagrangiana, que lo caracteriza. 
 
Los principios de valor extremo unifican la física, permiten tratar problemas diversos en la misma forma. Ahora sí, ya podemos relacionar el tiempo y la energía, el espacio y el ímpetu.
 
Hace 75 o 76 años, una extraordinaria matemática alemana, Emmy Noether, encontró un bello teorema que relaciona principios de invariabilidad con principios de conservación en sistemas que pueden estudiarse con principios de valor extremo. La idea es que, en un sistema físico que es gobernado por leyes que permanecen invariantes frente a cierta transformación, existe una cantidad física que se mantiene constante. El teorema de la señora Noether no solo dice que existe la cantidad que se conserva, también dice lo que hay que hacer para encontrarla.
 
Un caso particular es el de un sistema físico cuyo comportamiento es invariante frente a translaciones en el espacio; el ímpetu total es una constante. Esto significa que el principio de conservación del ímpetu proviene de la invariabilidad de las leyes de la física frente a translaciones espaciales. El ímpetu se conserva porque el espacio es homogéneo.
 
Otro caso particular del teorema de Noether es que en un sistema cuyas leyes son invariantes frente a translaciones en el tiempo, la energía se mantiene constante. Esto manifiesta que el principio de conservación de la energía proviene de la invariabilidad de las leyes de la física en el curso del tiempo. La energía se conserva porque el tiempo es homogéneo.
 
Esto nos revela una relación básica entre el tiempo y la energía. El tiempo y la energía están profundamente vinculados.
 
3. Hay otro principio de invariabilidad de gran importancia: el principio de relatividad.         
 
La primera ley de Newton, también llamada principio de inercia, no solo dice que los cuerpos tienen la propiedad de la inercia, sino también dice que existen sistemas de referencia inerciales.
 
Como todo mundo sabe, o debería saber, si un sistema de referencia se mueve a velocidad constante respecto a un sistema inercial, él mismo es inercial.
 
Ahora viene el problema de cómo relacionar las coordenadas de un cuerpo en un sistema de referencia con las que tiene en otro sistema de referencia que se mueve a velocidad constante respecto al primero. En la Figura 3, el sistema de referencia S’ con ejes de coordenadas x’, y’, t’, se mueve a velocidad constante u a lo largo del eje x del sistema de referencia S cuyos ejes son x, y, z. Los respectivos ejes y, z los podemos escoger de modo que sean paralelos.
 
Las coordenadas de un punto P son (x, y, z) en el sistema S, y (x’, y’, z’) en el sistema S’. La separación entre los orígenes de los dos sistemas es:    
 
ΟΟ’ = ut
 
si empezamos a medir el tiempo a partir del instante en que los orígenes coincidieron.
 
Es claro que la relación entre las coordenadas del punto P en uno y otro sistema de referencia, es la siguiente:   
 
Entra fórmula 02      
 
Estas ecuaciones las complementamos con otra que sacamos de la idea de que el tiempo es absoluto: el tiempo transcurre igual para todos los observadores independientemente de dónde estén y de que se muevan uno respecto al otro. Esto significa que si t es el tiempo que mide un observador en el sistema S, y t’ el que mide el observador en el sistema S’, entonces     
 
t’ = t
 
El conjunto de las cuatro ecuaciones anteriores se conoce como transformaciones de Galileo. Las tres primeras nos dicen que el espacio es relativo, y la cuarta dice que el tiempo es absoluto. Las coordenadas que nos dan la posición de un objeto dependen de la velocidad del observador; la medición del tiempo no se altera con la velocidad del observador que lo mide.         
 
Pero ahora viene lo bueno. Si el cuerpo que ocupa el punto P se mueve, su velocidad tiene componentes Vx, Vy, Vz en el sistema S, y Vx’, Vy’, Vz’ en el sistema S’. Es muy fácil ver (basta tomar derivadas respecto al tiempo de la transformación de Galileo), que la relación entre los componentes de la velocidad es        
 
Entra Fórmula 04       
 
Esta es la ley de transformación de velocidades galileana o clásica. Si escribimos la primera ecuación así:    
 
Vx = Vx’ + u
 
lo que dice es que la velocidad de un cuerpo respecto al sistema S es la suma de la velocidad de cuerpo respecto al sistema S’ más la velocidad del sistema S’ respecto al sistema S.        
 
La ley de adición de velocidades de Galileo, consecuencia de que el espacio es relativo y el tiempo es absoluto, es que la velocidad de un cuerpo es relativa. ¡Mucho ojo! Todas las velocidades dependen de la velocidad del observador.
 
¿Y las aceleraciones? También es fácil ver (tomando nuevamente la derivada respecto al tiempo) que:
 
a’ = a.
 
La aceleración es invariante frente a transformaciones de Galileo.
 
Si ahora pensamos en dos cuerpos en vez de uno, con coordenadas (x1, y1, z1) y (x2, y2, z2), se sigue, de las transformaciones de Galileo y del teorema de Pitágoras que la distancia entre dos cuerpos, d21, es tal que      
 
Entra fórmula 07      
 
Además es obvio que     
 
t2 - t1 = t’2 - t’1
 
Lo que esto nos dice es que la distancia entre dos puntos y los intervalos de tiempo, son invariantes cada uno por su cuenta respecto a las transformaciones de Galileo. También las velocidades relativas son invariantes:
 
V2 - V1 = V’2 - V’1
 
Si ahora suponemos que la masa de un objeto es una propiedad del objeto independiente del estado de movimiento del que la observa y del movimiento del objeto, y además las fuerzas entre objetos dependen sólo de las posiciones y de las velocidades relativas entre ellos, entonces se obtiene un resultado importantísimo: la ley fundamental de la mecánica, que nos dice que en un sistema inercial  
 
F = ma,
 
es invariante frente a transformaciones de Galileo. Este es el principio de relatividad de Galileo. Todos los sistemas de referencia inerciales son equivalentes en la mecánica.
 
Bella simetría, pero, ¿por qué sólo de la mecánica?, ¿por qué no decir que todas las leyes de la física son invariantes frente a cambios de sistema de referencia inercial?
 
Aquí hay una dificultad porque las leyes del electromagnetismo, firmemente establecidas por los trabajos que culminan con Maxwell y que fueron confirmadas por Hertz, no son invariantes frente a transformaciones de Galileo. Esto lo hizo ver la luz, que es una radiación electromagnética.
 
El experimento fallido más famoso de la historia, lo realizaron un par de norteamericanos: A. Mitchelson y E. Morley, quienes encontraron que la luz no cumple con la ley de adición de velocidades de Galileo.
 
Como la velocidad de la luz es muy grandota, para poder detectar un cambio en su medida respecto a un sistema en movimiento, se requerían dos cosas: un sistema de referencia que se moviera con velocidad relativamente grande y un equipo de mucha precisión. El equipo lo construyó Mitchelson y el sistema de referencia es la propia Tierra, que en su viaje alrededor del Sol tiene una velocidad de aproximadamente 30 km/s. En la Figura 3 se indica lo que esperaban encontrar y lo que encontraron.
 
Si C es la velocidad de la luz y VT es la velocidad de la Tierra, la ley de adición de velocidades de Galileo dice que la velocidad de la luz de una estrella a la que nos dirigimos es C + VT, la velocidad de la luz de una estrella de la que nos alejamos es C - VT y la velocidad de la luz de una estrella que nos viene perpendicularmente a la dirección en que nos movernos, es C. Sólo que no es así. La velocidad de la luz es siempre C, independientemente de la velocidad del observador y de la velocidad de la fuente de luz.
 
La velocidad de la luz es una constante universal. La velocidad de la luz es absoluta, no relativa.
 
Pero habíamos quedado en que, debido a que el espacio es relativo y el tiempo es absoluto, todas las velocidades son relativas; y ahora la luz nos sale con que eso no se aplica para ella. Ni modo, esto no tiene vuelta de hoja, está confirmadísimo experimentalmente, la velocidad de la luz es una constante absoluta.
 
Sólo hay una manera de salir del atolladero. El tiempo es relativo. Ahora lo que hay que hacer es encontrar una transformación del espacio y del tiempo distinta a la de Galileo, que tenga como consecuencia que la velocidad de la luz es la misma para todos los sistemas de referencia independientemente de su velocidad relativa.
 
Hagamos las siguientes observaciones:
 
1. Si A y B son dos cuerpos en movimiento relativo, la velocidad de A respecto a B es la negativa de la velocidad de B respecto a A.
 
2. Si A y B están en reposo relativo, la velocidad de otro cuerpo, C, respecto a A, es la misma que respecto a B.
 
3. Cualquiera que sea la velocidad de B respecto a A, si C se mueve respecto a A con la velocidad de la luz, tiene la misma velocidad respecto a B.
 
A partir de esto, con un poquito de matemáticas, sale lo siguiente:
 
Si u es la velocidad de B respecto a A, V es la velocidad de C respecto a B y W es la velocidad de C respecto a A, entonces
 
Entra fórmula 11     
 
donde C es la velocidad de la luz.
 
Esta es la ley de adición de velocidades relativista, que sustituye a la de Galileo, pero que se reduce a ésta si u y V son chicas comparadas con la velocidad de la luz.
 
De aquí se puede obtener la transformación que liga coordenadas y tiempos de un sistema de referencia con los de otro sistema que se mueve con velocidad u respecto a él.
 
Entra fórmula 12       
 
Estas ecuaciones se llaman transformaciones de Lorentz porque el físico holandés H. A. Lorentz fue uno de los primeros en encontrarlas y estudiarlas.
 
Basta ver las ecuaciones anteriores para darse cuenta de que si la velocidad u es pequeña en comparación con la velocidad de la luz, las transformaciones de Lorentz se reducen a las de Galileo.
 
Las transformaciones de Lorentz son más simétricas y profundas que las de Galileo. Acaban con la separación tajante entre el espacio y el tiempo. Las transformaciones de Lorentz combinan espacio y tiempo tanto en la transformación del espacio como del tiempo. Ya no hay dos invariantes separados, la distancia entre puntos del espacio por una parte y los intervalos de tiempo por otra, sino que ahora hay un solo invariante que, es fácil verlo, es
 
Entra fórmula 13    
 
De aquí se sigue que en vez de hablar de espacio y tiempo, debemos hablar de un espacio-tiempo. El espacio y el tiempo están enlazados.
 
En 1905, un joven aficionado a tocar el violín dijo que el espacio-tiempo es homogéneo, que las leyes de la naturaleza son invariantes frente a cambios de sistema de referencia inerciales y que la velocidad de la luz es una constante universal absoluta.
 
A partir de estas afirmaciones, el joven violinista sacó conclusiones sorprendentes, como que las longitudes, los intervalos de tiempo y el concepto de simultaneidad son relativos, que la masa y la energía son equivalentes. Además tuvo que reconstruir la mecánica, porque esta era invariante frente a transformaciones de Galileo, pero no frente a las de Lorentz.
 
Casi se me olvidaba decir el nombre del joven violinista. Se llamaba Albert Einstein.
articulos
 ____________________________________________________________      
Juan Manuel Lozano Mejía
Instituto de Física,
Universidad Nacional Autónoma de México.
     
____________________________________________________________
     
 
cómo citar este artículo
Lozano Mejía, Juan Manuel. 1994. Reflexiones a destiempo. Ciencias núm. 35, julio-septiembre, pp. 40-45. [En línea].
     

 

 

Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 35