|
![]() |
PDF →
|
||||||||
Carlos Aguilar Gutiérrez y
Aline Aurora
Maya Paredes
|
||||||||||
![]() ![]() |
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
como citar este artículo → Aguilar Gutiérrez, Carlos y Maya Paredes, Aline Aurora. (2009). Astronomía. La persistencia de la memoria. Ciencias 95, julio-septiembre, 78-79. [En línea]
|
|
![]() |
PDF →
|
||||||||
![]() |
||||||||||
Luis Raúl González Pérez
|
||||||||||
Estrés postraumático (ept)
Benjamín Domínguez Trejo, James W. Pennebaker, Yolanda Olvera López Editorial Trillas, 2009. Este libro aborda un tema que ha sido poco tratado. Como sabemos los efectos que producen el estrés postraumático derivan de diversos eventos: ataques, abuso, violación, desastres naturales, accidentes, cautiverio o por haber presenciado un acto violento o trágico; es decir, es consecuencia principalmente de la vida moderna, que nos expone a las más variadas presiones, particularmente a quienes vivimos en las ciudades.
Es una obra que nos enseña cómo los efectos del estrés postraumático afectan gravemente a quienes lo padecen haciendo necesaria una atención inmediata, para lo cual se requiere un pronto diagnóstico, el tratamiento adecuado a seguir, así como personal capacitado para brindarlo. Con gran acierto señala que ante el padecimiento debe haber conocimiento y capacidad para saber tratar a la víctima, desde el primer contacto. De esta manera, existe la necesidad de otorgar un tratamiento a partir de un enfoque multidisciplinario que considere las contribuciones de las dinámicas biológica, psicológica y social. Asimismo, se reconocen y valoran las aportaciones que hace la farmacología, la educación, la nutrición, el trabajo social, la legislación y la historia. Es decir, en el tratamiento se debe tomar en cuenta la naturaleza multifacética de este trastorno.
El libro también destaca que del estudio del estrés postraumático deriva una herramienta útil para la investigación de violaciones a derechos humanos y la comisión de delitos. Particularmente previene y brinda información sobre el tema con base en casos prácticos y señala los aspectos a considerar, orientando así la capacitación que debe tener el defensor de derechos humanos respecto del manejo que hay que desplegar en la atención a las víctimas. Particularmente, se resalta la necesidad de la aplicación del tratamiento en sectores vulnerables como los familiares de desaparecidos u otras víctimas de violación de los derechos humanos, como los casos de tortura.
Recientemente se estableció a nivel constitucional el derecho de toda persona a guardar silencio, así como la correspondiente prohibición de la prueba confesional. Lo anterior tuvo el claro objetivo de evitar la práctica recurrente en nuestro país de maltratar física o psicológicamente a los detenidos a fin de que emitan una confesión, empleada como prueba o indicio para dictar una condena. Al respecto, se debe decir que aun cuando es posible que la tortura haya disminuido sensiblemente en los últimos años, no ha desaparecido del todo en México. Con relación a este asunto se elaboró el Manual para la investigación y documentación eficaces de la tortura y otros tratos o penas crueles, inhumanos o degradantes, mejor conocido como Protocolo de Estambul, el cual sirve para dar las directrices internacionales aplicables a la evaluación de aquellas personas que aleguen haber sufrido tortura y malos tratos. Este documento —que fue firmado por México—, establece los estándares básicos que se deben atender y evaluar para las víctimas de estrés postraumático y de tortura.
Respecto de su aplicación, debemos decir que se tiene la idea errónea de que el estrés postraumático tiene que ser la principal consecuencia de la tortura, lo cual no es necesariamente cierto. Recuerdo haber platicado el tema con Benjamín Domínguez Trejo, exponiéndole que el estrés postraumático no siempre obedece a circunstancias derivadas de tortura. Por ejemplo, el estrés postraumático que sufra una persona acusada de un delito y que se encuentre en prisión puede obedecer sólo a esa condición y no a que haya sido torturado. Por el contrario, también debe decirse que la ausencia de estrés no determina la no responsabilidad.
Por lo anterior tiene que existir gran cuidado en el diagnóstico que se emita. Precisamente, este libro resulta valioso por la información teórica y práctica que ofrece a cada uno de los diferentes especialistas que participan en el diagnóstico del estrés postraumático. Particularmente, considero que será una herramienta de utilidad para quienes están interesados en la defensa de los derechos humanos, por lo cual me congratulo y felicito a los autores.
|
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
Texto leído en la presentación por Luis Raúl González Pérez, abogado general de la UNAM.
como citar este artículo →
Domínguez Trejo, Benjamín. (2009). Estrés postraumático. Ciencias 95, julio-septiembre, 76. [En línea]
|
|
![]() |
|||||||||
![]() ![]() |
||||||||||
Los laberintos del NO en la creación, a propósito de Bartleby y compañía de Enrique Vila-Matas Ana María Cetto |
||||||||||
En 1825, el Servicio Postal de Estados Unidos creó una oficina especial (Dead Letter Office) adonde iban a parar las innumerables cartas que no podían entregarse a su destinatario. De una de sus filiales fue despedido Bartleby antes de que lo contratara un abogado mayor, dueño de una oficina en Wall Street. La obra de Herman Melville, Bartleby el escribano, publicada en 1853, cuenta la historia de este personaje singular, a quien cada vez que se le encargaba un trabajo respondía de entrada: preferiría no hacerlo. Melville escribió esta novela porque su obra maestra Moby Dick no se vendía tan bien como había esperado.
Ahora Enrique Vila-Matas ha escrito una obra motivado por la historia del personaje de Melville. El libro Bartleby y compañía habla de aquellos que dejan de escribir e indaga sus razones para preferir no hacerlo. Con este fin, rastrea el amplio espectro del síndrome de Bartleby en la literatura: la atracción negativa o la pulsión por la nada que hace que ciertos creadores, aun teniendo una conciencia literaria muy exigente —o quizás precisamente por eso— no lleguen a escribir nunca, o bien escriban uno o dos libros y luego renuncien a la escritura, o bien tras iniciar con éxito una obra, queden un día literalmente paralizados para siempre. El autor explora los vericuetos del laberinto del no, donde se encuentra, según él, “el único camino que queda abierto a la auténtica creación literaria, una tendencia que se pregunta qué es la escritura y dónde está, y que merodea alrededor de la imposibilidad de la misma”. Sólo de este laberinto puede surgir la escritura por venir, afirma, por esto, en vez de un libro escribió un compendio de notas de pie de página, las notas al texto invisible, al libro ausente —pero no necesariamente por ello inexistente.
En la negación del escritor, fraguada en la obra de una constelación de autores que incluye a Hoffmannsthal, Kafka, Musil, Beckett, Rimbaud y Salinger; en el mundo de Robert Walser el copista y Juan Rulfo el oficinista, hay que rastrear ese camino que queda abierto a la auténtica creación literaria. Y en el proceso se descubre que los motivos para no escribir o dejar de hacerlo pueden ser muy variados. A los 19 años Rimbaud consideró que ya había escrito toda su obra y cayó en un silencio literario que duraría hasta el final de sus días, mientras Guy de Maupassant dejó de escribir por creerse inmortal; Clara Whoryzek (La lámpara íntima, 1892) concluyó que era más sensato no escribir los libros que había pensado porque eran como pompas de jabón que no se dirigían a nadie, de modo que no serían leídos ni por sus amigos; a Juan Rulfo se le murió el tío Celerino, que era quien le contaba las historias; y el triestino Bobi Bazlen consideraba que casi todos los libros escritos no son más que notas de pie de página, infladas hasta convertirse en volúmenes. por lo que, después de haber leído todos los libros en todas las lenguas, y cuando sus amigos creían que acabaría por escribir un libro que sería una obra maestra, escribió sólo sus Note senza testo (1970).
A veces se abandona la escritura porque se cae en un estado de locura del que ya no se recupera jamás, como es el caso de Hölderlin, quien estuvo encerrado los últimos 38 años de su vida en la buhardilla de un carpintero escribiendo versos raros e incomprensibles. Kafka, por su parte, no cesó de aludir a la imposibilidad esencial de la materia literaria, sobre todo en sus Diarios; mientras Wittgenstein, quien sólo escribió dos libros —el célebre Tractatus y un vocabulario rural austriaco— externó en más de una ocasión la dificultad que para él entrañaba exponer sus ideas. Otros grandes escritores se han visto paralizados ante las dimensiones absolutas que conlleva toda creación. Algunos llegan al extremo de ser ágrafos, que sin embargo, paradójicamente, pueden constituir literatura. Manuel Pénabou, en Por qué no he escrito ninguno de mis libros, explica: “sobre todo no vaya usted a creer, lector, que los libros que no he escrito son pura nada. Por el contrario (que quede claro de una vez), están como en suspensión en la literatura universal”.
Hay quienes sí escriben, pero para crear personajes que se pierden en el laberinto del no. En el siglo xix, Hoffmann y Balzac crean pintores que no pueden pintar más que un fragmento de una figura soñada como perfecta. Gide construye un personaje que recorre toda una novela (Paludes, 1895) con la intención de escribir un libro que nunca escribe. La paradigmática Carta de Lord Chandos dirigida a Francis Bacon (Hoffmannstal, 1902) describe la crisis de lenguaje de su autor, que no le permite expresar adecuadamente la experiencia humana y lo hace prometer que no escribirá nunca más una sola línea. Más tarde, Musil convierte casi en un mito la idea de un “autor improductivo”’ en El hombre sin atributos (1930-1942). Monsieur Teste, el alter ego de Valéry, no sólo ha renunciado a escribir, sino que incluso ha arrojado su biblioteca por la ventana.
Claro está que hay quienes usan algún truco para negarse a escribir por temporadas o para siempre. Como Stendhal, quien estuvo aguardando años a que le llegara la inspiración, o el poeta Pedro Garfias, quien pasó una infinidad de tiempo sin escribir una sola línea porque buscaba un adjetivo. En realidad más de 99% de la humanidad se inclina, al más puro estilo Bartleby, por no escribir: porque no sabe, o cree que no sabe, o no tiene ganas, o prefiere hacer otra cosa. También hay los que se oponen activamente a la escuela de Bartleby, legándonos miles de páginas escritas. Algunos de ellos recorren con mucho éxito el laberinto del SÍ. Recordemos a Georges Simenon, el más prolijo de los autores en lengua francesa, quien en el curso de 60 años publicó 193 novelas con su nombre y 190 con diferentes seudónimos, 25 obras autobiográficas y más de un millar de cuentos, además de obras menores. Con orgullo hablaba de las técnicas que empleó para incrementar poco a poco su eficiencia hasta permitirle escribir ocho cuentos en un día.
Decía Wittgenstein que si algún día escribiera el libro de las verdades éticas —expresando con frases claras y comprobables qué es el bien y qué es el mal en un sentido absoluto— ese libro haría estallar todos los demás libros en mil pedazos. Enorme ambición, dado el antecedente de las Tablas de la Ley de Moisés, cuyas líneas se revelaron incapaces de comunicar la grandeza de su mensaje. Al respecto apunta Vila-Matas: “qué espanto si sólo existiera el libro de Wittgenstein, y nosotros tuviéramos que acatar ahora su ley. Mejor quedarse con uno de los dos que escribió Rulfo que con el que, gracias a Moisés, no escribió Wittgenstein”. El libro ausente de Wittgenstein es, afortunadamente, un libro imposible. Parafraseando a D. Attala, el simple hecho de que existan millones de libros es la prueba de que ninguno contiene la verdad total.
“Escribir no es más que renunciar a todo lo que no se puede escribir”, parecen decirnos todos estos escritores. Pero a veces es necesaria la renuncia. Escribir es una actividad de alto riesgo y, en este sentido, la obra escrita, si quiere tener validez, debe abrir nuevos caminos o perspectivas y tratar de decir lo que aún no se ha dicho. Porque pueden existir miradas nuevas sobre los nuevos y los viejos objetos, y por lo tanto es mejor correr el riesgo y escribir, que no hacerlo.
El autor que trata de ampliar las fronteras presentes de lo humano puede fracasar. En cambio, dice Vila-Matas, “el autor de productos literarios convencionales nunca fracasa, no corre riesgos, le basta aplicar la fórmula de siempre, su fórmula de académico acomodado, su fórmula de ocultamiento”. Qué familiar nos suena esto, si pensamos en la tarea de escribir y publicar en ciencia. Una actividad también de alto riesgo, cuyo producto, si quiere tener validez, debe abrir nuevos caminos o brindar perspectivas novedosas; decir algo que aún no se ha dicho. Y también en el campo de la ciencia hay ejemplos paradigmáticos de autores que han optado por perderse en los laberintos del no. Kurt Gödel, cuya obra ha tenido un impacto revolucionario en la lógica de las matemáticas, publicó en vida una escasa docena de trabajos. Prácticamente a partir de su ingreso al Instituto de Estudios Avanzados de Princeton, a los 40 años de edad, dejó de publicar del todo. Lo que no ha impedido que se produzca una colección de cinco volúmenes con sus obras completas, que incluyen manuscritos y notas no publicadas, ampliamente comentadas por terceros.
Peter Higgs publicó apenas un puñado de artículos de investigación durante su vida activa como físico teórico —tres de ellos acerca del mecanismo que confiere masa a las partículas elementales, que ahora lleva su nombre. A partir de entonces resistió la creciente presión institucional por publicar, con el argumento de que lo haría cuando tuviera otra vez algo nuevo que comunicar. Lo que no ha impedido que otros autores hayan publicado ya más de 8 400 artículos con el nombre de Higgs en el título.Pero a diferencia de los escritores del club de Bartleby, para la mayoría de los científicos es demasiado grande el riesgo que se corre al no publicar. Antes es preferible perderse en la espiral del sí —o mejor dicho, del y sí…— donde lo importante no es callar, sino por el contrario, tratar de decirlo todo, aun a riesgo de repetirse.
¿Podría alguien alguna vez pretender, a la manera de Wittgenstein, escribir el libro de las verdades científicas que haría estallar todos los demás libros en mil pedazos? ¿Acaso sería posible, mediante una gran obra semejante a las Tablas de Moisés, comunicar la grandeza del mensaje entero de la naturaleza? También en este caso el gran libro ausente es un libro imposible, pues el simple hecho de que existan millones de libros (y artículos) es la prueba de que cada uno de ellos contiene cuando mucho sólo fragmentos de la verdad. Siguiendo el símil, podría decirse que hacer ciencia implica renunciar a la posibilidad de conocer la verdad total. Ya que se han perdido las ilusiones de una totalidad representable, hay que reinventar continuamente nuestros modos de exploración y representación. Seguiremos haciendo ciencia porque la naturaleza, en su inmenso misterio, se dará a conocer sólo asintóticamente, nunca de manera plena. |
![]() |
|||||||||
Referencias bibliográficas
Vila-Matas, Enrique. 2000. A propósito de Bartleby y compañía. Anagrama, Barcelona.
|
||||||||||
Ana María Cetto
Instituto de Física, Universidad Nacional Autónomal de México. como citar este artículo → Cetto, Ana María. (2009). Los laberintos del NO en la creación a propósito de Bartleby y compañía de Enrique Vila-Matas. Ciencias 95, julio-septiembre, 72-74. [En línea]
|
|
![]() |
|||||||||
![]() ![]() |
||||||||||
Algo que debemos saber acerca de los virus... o la gripe que viene
Luisa Alba Beatriz Rodarte, Claudia Segal,
Víctor Valdez y Alfonso Vilchis
|
||||||||||
Los virus no están incluidos dentro de los cinco reinos de la vida, ¿por
qué?, porque son entidades biológicas constituidas sólo por ácidos nucleicos y proteínas y ocasionalmente algunos lípidos de la membrana que se llevan de las células que infectan, es decir, están formados únicamente por una o algunas proteínas (la cápside o cubierta) y material genético (adn o arn), que constituye sus genes. Los virus no tienen estructura celular, no pueden moverse, no pueden llevar a cabo —en forma independiente— su metabolismo, por tanto pueden ser denominados “parásitos genéticos”, lo cual significa que utilizan la maquinaria genética de su hospedero (célula que infectan) para su propia supervivencia.
Durante el proceso infeccioso, los virus pueden seguir dos estrategias principales de reproducción: virulenta y latente. La modalidad virulenta involucra, después de la liberación del material genético del virus en el interior de la célula, la síntesis de proteínas víricas necesarias para la replicación de su genoma y la conformación de sus estructuras proteicas de recubrimiento, utilizando la maquinaria celular. Esto da lugar a la formación de múltiples partículas virales que serán liberadas a partir de la célula hospedera, prosiguiendo el proceso infectivo (por ejemplo, el virus de la influenza). Por otra parte, la modalidad de latencia radica en el hecho de que el material genético del virus no se replica de manera inmediata, sino que puede permanecer en el citoplasma como episoma (por ejemplo, virus del herpes) o integrarse en el genoma de la célula hospedera (por ejemplo, retrovirus). Bajo ciertas condiciones, el genoma del virus comienza a replicarse y a dirigir la síntesis de proteínas virales, generando nuevas partículas y continuando el desarrollo infeccioso.
Como consecuencia de su mecanismo de multiplicación, algunos virus muestran una alta variabilidad que les permite generar múltiples variantes que eventualmente le llevarán a evadir tanto los sistemas de defensa del hospedero como los mecanismos farmacológicos de contención terapéutica.
A lo largo de la evolución, la naturaleza ha creado y preservado distintos tipos de virus: con respecto de los ácidos nucleicos los hay cuyo material genético es adn o bien arn, y pueden ser de cadena sencilla o doble. Los ácidos nucleicos pueden estar protegidos por varios monómeros de una misma proteina, como ocurre en los virus filamentosos (por ejemplo, el virus del mosaico del tabaco); pueden estar envueltos dentro de una figura icosahédrica compuesta por distintas subunidades proteicas, como los virus esferoidales (por ejemplo, el adenovirus) o pueden estar formados por estructuras proteicas mucho más complejas para proteger los ácidos nucleicos de organismos como los bacteriófagos, cuya estructura se conoce como esferoidal con cola, o virus “envueltos”, en los que la cápside está rodeada por una cubierta de doble capa lipídica con proteínas embebidas. Las proteínas están codificadas por el genoma viral, sin embargo los lípidos de la membrana se derivan de las membranas de las células anfitrionas. Los virus envueltos son comunes en el mundo animal, ejemplos son los coronavirus y los virus de la influenza.
Virus de la influenza
Los virus de influenza pertenecen a la familia Orthomyxoviridae; tienen un genoma de arn de una sola cadena fragmentado en 7 u 8 segmentos, con capacidad para codificar unas 10 proteínas, y la cápside es helicoidal y posee una envoltura lipídica en una estructura de aproximadamente 100 nanómetros de diámetro. En su envoltura se encuentran varias copias de tres proteínas: la proteína de membrana (m) y las glucoproteínas hemaglutinina (h) y neuroaminidasa (n). La proteína m, junto con el ácido nucleico, permiten clasificar estos virus como a, b o c; sólo los dos primeros tipos pueden producir epidemias. De las proteínas h y n se conocen distintos subtipos para la influenza a, 15 para h (de h1 a h15) y 9 para n (de n1 a n9), y es su combinación la que da lugar a las diferentes cepas virales; en cambio, para la influenza b sólo hay un subtipo de h y uno de n
(figura 1).
![]() En 1918 y 1919, una pandemia de influenza ah1n1 cobró la vida de 20 millones de personas en todo el orbe; a mediados de los cincuentas y a mediados de los setentas volvieron a ocurrir epidemias limitadas de otros subtipos de virus de la influenza.
Durante el año 2003 se describieron varios casos de muerte en humanos por una enfermedad respiratoria no identificada en China. Más tarde fue aislado en los pacientes una forma de virus aviar presente hasta entonces únicamente en aves, el h5n1. En ese momento se describió ante el mundo la nueva capacidad adquirida por este virus aviar de transmitir la infección viral de ave a hombre y de hombre a hombre. Esta infección viral se denomina Síndrome agudo respiratorio severo (SARS). Desde entonces ha habido brotes de influencia aviar alrededor del mundo: en Europa central se presentó como influenza aviar altamente patógena, el h7n7; más tarde se reportó en Asia en pollos y humanos, el h5n1, diseminándose hasta llegar a reconocerse casos del mismo virus que infectó también cerdos en Estados Unidos; de esta manera las agencias de salud mundial pusieron en alerta a los países prediciendo una probable pandemia de influenza, para lo cual se hizo una llamada al planeta a estar preparados para una contingencia mayor; los laboratorios farmacéuticos se dieron a la tarea de investigar la producción de una vacuna que pudiera contrarrestar la posible infección viral de influenza. Muchas vacunas se desarrollaron sobre virus aislados y reconocidos como patógenos, pero la capacidad de mutación, cambio o adaptación de los virus para mantener su viabilidad, ha hecho de estas vacunas únicamente drogas capaces de disminuir los síntomas pero que no contrarrestan en un 100% la infección viral. Hay tres modos posibles de que virus aviares infecten a los humanos: directamente, el virus de ave acuática puede infectar a seres humanos; una cepa de influenza aviar entra al hospedero intermediario y de ahí a un humano sin sufrir mayores cambios; y un virus aviar puede ser transmitido desde un ave acuática (reservorio de estos virus) a un cerdo, hospedero intermediario, que simultáneamente es infectado por un virus de influenza humana. Al ocurrir la liberación de los virus, estos pueden llevar genes de las distintas cepas que infectaron, permitiendo la infección de un humano a otro (figura 2). Vacunas
La Organización Mundial de la Salud ha establecido que “la vacunación es la principal medida para prevenir la influenza y reducir el impacto de la epidemia”. Las vacunas contra la influenza son de dos clases: inactivadas y vivas-atenuadas. Las vacunas inactivadas pueden, a su vez, consistir en tres clases: a) el virus inactivado por formaldehído; b) el virus parcialmente fragmentado por un detergente, o c) una preparación que contiene únicamente las dos proteínas de la superficie del virus, la hemaglutinina y la neuroaminidasa; esta vacuna también se conoce como vacuna de subunidades. Por su parte, las vacunas vivas-atenuadas consisten en preparaciones del virus atenuado o debilitado en su virulencia por cultivos seriados en medios específicos.
Las proteínas de la superficie del virus —hemaglutinina y neuroaminidasa—, que pueden ser reconocidas por el sistema inmune de los seres humanos, se denominan antígenos. La eficacia de una vacuna reside en la capacidad de los antígenos de inducir una respuesta inmunitaria mediante la formación de anticuerpos y células de defensa en el ser humano. Debido a la alta variabilidad genética que presenta el virus de la influenza tipo A, sus proteínas de superficie también presentan variaciones antigénicas, por lo que la aplicación de una vacuna o, en su caso, la inmunidad que una persona adquiere después de contraer la infección, frente a un tipo específico del virus de la influenza A no protege totalmente contra variantes antigénicas o genéticas del mismo virus. Esto explica el surgimiento de brotes epidémicos y, por otra parte, la necesidad de la revacunación cada determinado tiempo. |
![]() |
|||||||||
Referencias bibliográficas
National Institute of Allergy and Infectious Diseases (niaid) de nih, en: http://www3.niaid.nih.gov/topics/Flu/Research/basic/AntigenicShiftIllustration.htm
Stryer, L., Berg, J.M. y J. L. Tymoczko. 2006. Biochemistry. W. H. Freeman, sexta edición. Guan, Y., Shortridge, K. F., Krauss S., Li, P.H., Kawaoka, Y. y R. G. Webster. 1996. en Journal of virology, vol. 70 núm. 11, pp. 8041-8046. Webby, R. J. y Webster, R. G. 2003. En Science, vol 302, 28. Lewin, Benjamin. Genes ix. Jones & Bartlett Publishers, novena edición. |
||||||||||
Loisa Alba, Beatriz Rodarte, Claudia Segal, Víctor Valdez yAlfonso Vilchis
Facultad de Ciencias, Universidad Nacional Autónoma de México.
como citar este artículo → Alba Lois, Luisa y Rodarte Beatriz, Segal Claudia, Valdés Víctor, Vilchis Alfonso. (2009). Algo que debemos saber acerca de los virus.. o la gripa que viene. Ciencias 95, julio-septiembre, 62-65. [En línea]
|
|
![]() |
PDF →
|
||||||||
![]() ![]() |
||||||||||
Italo Calvino
|
||||||||||
La metáfora más famosa en la obra de Galileo —y que contiene en sí el núcleo de la nueva filosofía— es la del libro de la naturaleza escrito en lenguaje matemático.
“La filosofía está escrita en ese libro enorme que tenemos continuamente abierto delante de nuestros ojos (hablo del universo), pero que no puede entenderse si no aprendemos primero a comprender la lengua y a conocer los caracteres con que se ha escrito. Está escrito en lengua matemática, y los caracteres son triángulos, círculos y otras figuras geométricas sin los cuales es humanamente imposible entender una palabra; sin ellos se deambula en vano por un laberinto oscuro” (Saggiatore [Ensayista] 6). La imagen del libro del mundo tenía ya una larga historia antes de Galileo, desde los filósofos de la Edad Media hasta Nicolás de Cusa y Montaigne, y la utilizaban contemporáneos de Galileo como Francis Bacon y Tommaso Campanella. En los poemas de Campanella, publicados un año antes que el Saggiatore, hay un soneto que empieza con estas palabras: “El mundo es un libro donde la razón eterna escribe sus propios conceptos”.
En la Istoria e dimostrazioni intomo alie macchie solari [Historia y demostraciones acerca de las manchas solares] (1613), es decir diez años antes del Saggiatore, Galileo oponía ya la lectura directa (libro del mundo) a la indirecta (libros de Aristóteles). Este pasaje es muy interesante porque en él Galileo describe la pintura de Archimboldo emitiendo juicios críticos que valen para la pintura en general (y que prueban sus relaciones con artistas florentinos como Ludovico Cigoli), y sobre todo reflexiones sobre la combinatoria que puede añadirse a las que se leerán más adelante.
“Los que todavía me contradicen son algunos defensores severos de todas las minucias peripatéticas, quienes, por lo que puedo entender, han sido educados y alimentados desde la primera infancia de sus estudios en la opinión de que filosofar no es ni puede ser sino una gran práctica de los textos de Aristóteles, de modo que puedan juntarse muchos rápidamente aquí y allá y ensamblarlos para probar cualquier problema que se plantee, y no quieren alzar los ojos de esas páginas, como si el gran libro del mundo no hubiera sido escrito por la naturaleza para que lo lean otras personas además de Aristóteles, cuyos ojos habrían visto por toda la posteridad. Los que se inclinan ante esas leyes tan estrictas me recuerdan ciertas constricciones a que se someten a veces por juego los pintores caprichosos cuando quieren representar un rostro humano, u otras figuras, ensamblando ya únicamente herramientas agrícolas, ya frutos, ya flores de una u otra estación, extravagancias que, propuestas como juego, son bellas y agradables y demuestran el gran talento del artista pero que si alguien, tal vez por haber dedicado todos sus estudios a esta manera de pintar, quisiera sacar de ello una conclusión universal diciendo que cualquier otra manera de imitar es imperfecta y criticable, seguramente el señor Cigoli y los otros pintores ilustres se reirían de él”. La aportación más nueva de Galileo a la metáfora del libro del mundo es la atención a su alfabeto especial, a los “caracteres con que se ha escrito”. Se puede pues precisar que la verdadera relación metafórica se establece, más que entre mundo y libro, entre mundo y alfabeto. Según este pasaje del Dialogo sopra i due massimi sistemi del mondo [Diálogo sobre los dos máximos sistemas del mundo] (jornada II) el alfabeto es el mundo: “Tengo un librito, mucho más breve que los de Aristóteles y Ovidio, en el que están contenidas todas las ciencias y cualquiera puede, con poquísimo estudio, formarse de él una idea perfecta: es el alfabeto; y no hay duda de que quien sepa acoplar y ordenar esta y aquella vocal con esta o aquella consonante obtendrá las respuestas más verdaderas a todas sus dudas y extraerá enseñanzas de todas las ciencias y todas las artes, justamente de la misma manera en que el pintor, a partir de los diferentes colores primarios de su paleta y juntando un poco de éste con un poco de aquél y del otro, consigue representar hombres, plantas, edificios, pájaros, peces, en una palabra, imitar todos los objetos visibles sin que haya en su paleta ni ojos, ni plumas, ni escamas, ni hojas, ni guijarros: más aún, es necesario que ninguna de las cosas que han de imitarse, o parte de alguna de esas cosas, se encuentre efectivamente entre los colores, si se quiere representar con esos colores todas las cosas, que si las hubiera, plumas por ejemplo, no servirían sino para pintar pájaros o plumajes”.
Cuando habla de alfabeto, Galileo entiende pues un sistema combinatorio que puede dar cuenta de toda la multiplicidad del universo. Incluso aquí lo vemos introducir la comparación con la pintura: la combinatoria de las letras del alfabeto es el equivalente de aquella de los colores en la paleta. Obsérvese que se trata de una combinatoria a un plano diferente de la de Archimboldo en sus cuadros, citada antes: una combinatoria de objetos ya dotados de significado (cuadro de Archimboldo, collage o combinación de plumas, centón de citas aristotélicas) no puede representar la totalidad de lo real; para lograrlo hay que recurrir a una combinatoria de elementos minimales, como los colores primarios o las letras del alfabeto. En otro pasaje del Dialogo (al final de la jornada I), en que hace el elogio de las grandes invenciones del espíritu humano, el lugar más alto corresponde al alfabeto. Aquí se habla otra vez de combinatoria y también de velocidad de comunicación: otro tema, el de la velocidad, muy importante en Galileo. “Pero entre todas esas invenciones asombrosas, ¿cuan eminente no habrá sido el espíritu del que imaginó el modo de comunicar sus más recónditos pensamientos a cualquier otra persona, aunque estuviera separada por un gran lapso de tiempo o por una larguísima distancia, de hablar con los que están en las Indias, con los que todavía no han nacido y no nacerán antes de mil años, o diez mil? ¡Y con qué facilidad! ¡Mediante la combinación de veinte caracteres sobre una página! Que la invención del alfabeto sea pues el sello de todas las admirables invenciones humanas…”
Si a la luz de este último texto releemos el pasaje del Saggiatore que he citado al comienzo, se entenderá mejor cómo para Galileo la matemática y sobre todo la geometría desempeñan una función de alfabeto. En una carta a Portumo Liceti de enero de 1641 (un año antes de su muerte), se precisa con toda claridad este punto. “Pero yo creo realmente que el libro de la filosofía es el que tenemos perpetuamente abierto delante de nuestros ojos; pero como está escrito con caracteres diferentes de los de nuestro alfabeto, no puede ser leído por todo el mundo, y los caracteres de ese libro son triángulos, cuadrados, círculos, esferas, conos, pirámides y otras figuras matemáticas adecuadísimas para tal lectura”. Se observará que en su enumeración de figuras, Galileo a pesar de haber leído a Kepler, no habla de elipses. ¿Por qué en su combinatoria debe partir de las formas más simples? ¿o por qué su batalla contra el modelo tolemaico se libra todavía en el interior de una idea clásica de proporción y de perfección, en la que el círculo y la esfera siguen siendo las imágenes soberanas? El problema del alfabeto del libro de la naturaleza está vinculado con el de la “nobleza” de las formas, como se ve en este pasaje de la dedicatoria del Dialogo sopra i due massimi sistemi al duque de Toscana: “El que mira más alto, más altamente se diferencia del vulgo, y volverse hacia el gran libro de la naturaleza que es el verdadero objeto de la filosofía, es el modo de alzar los ojos, en cuyo libro aunque todo lo que se lee, como hecho por el Artífice omnipotente, es sumamente proporcionado no por ello es menos acabado y digno allí donde más aparecen, a nuestro entender, el trabajo y la industria. Entre las cosas naturales aprehensibles, la constitución del universo puede, a mi juicio, figurar en primer lugar, porque si ella, como continente universal, supera toda cosa en grandeza también, como regla y sostén de todo, debe superarla en nobleza. No obstante, si jamás llegó alguien a diferenciarse de los otros hombres por su intelecto, Tolomeo y Copémico fueron los que tan altamente supieron leer, escrutar y filosofar sobre la constitución del mundo”.
Una cuestión que Galileo se plantea varias veces para aplicar su ironía a la antigua manera de pensar es ésta: ¿acaso las formas geométricas regulares son más nobles, más perfectas que las formas naturales empíricas, accidentadas, etcétera? Esta cuestión se discute sobre todo a propósito de las irregularidades de la Luna: hay una carta de Galileo a Gallanzone Gallanzoni enteramente consagrada a este tema, pero bastará citar este pasaje del Saggiatore: “En lo que me concierne, como nunca he leído las crónicas particulares y los títulos de nobleza de las figuras, no sé cuáles son más o menos nobles, más o menos perfectas que las otras; creo que todas son antiguas y nobles, a su manera, o mejor dicho, que no son ni nobles y perfectas, ni innobles e imperfectas, porque cuando se trata de construir, las cuadradas son más perfectas que las esféricas, pero para rodar o para los carros son más perfectas las redondas que las triangulares. Pero volviendo a Sarsi, dice que yo le he dado argumentos en abundancia para probar la asperidad de la superficie cóncava del cielo, porque he sostenido que la Luna y los demás planetas (también cuerpos celestes, más nobles y más perfectos que el cielo mismo) son de superficie montuosa, rugosa y desigual; pero si es así, ¿por qué no ha de encontrarse esa desigualdad en la figura del cielo? A esto el propio Sarsi puede responder lo que respondería a quien quisiese probar que el mar debería estar lleno de espinas y escamas porque así lo están las ballenas, los atunes y los otros peces que lo pueblan”. Como partidario de la geometría, Galileo debería defender la causa de la excelencia de las formas geométricas, pero como observador de la naturaleza, rechaza la idea de una perfección abstracta y opone la imagen de la Luna “montuosa, rugosa (aspra, áspera), desigual” a la pureza de los cielos de la cosmología aristotélico-tolemaica.
¿Por qué una esfera (o una pirámide) habría de ser más perfecta que una forma natural, por ejemplo la de un caballo o la de un saltamontes? Esta pregunta recorre todo el Dialogo sopra i due massimi sistemi. En este pasaje de la jornada II encontramos la comparación con el trabajo del artista en este caso el escultor. “Pero quisiera saber si al representar un sólido se tropieza con la misma dificultad que al representar cualquier otra figura, es decir, para explicarme mejor, si es más difícil querer reducir un trozo de mármol a la figura de una esfera perfecta, que a una pirámide perfecta o a un caballo perfecto o a un saltamontes perfecto”. Una de las páginas más bellas y más importantes del Dialogo (jornada I) es el elogio de la Tierra como objeto de alteraciones, mutaciones, generaciones. Galileo evoca con espanto la imagen de una Tierra de jaspe, de una Tierra de cristal, de una Tierra incorruptible, incluso transformada por la Medusa.
“No puedo oír sin gran asombro y, diría, sin gran repugnancia de mi intelecto, que se atribuya a los cuerpos naturales que componen el universo, como título de gran nobleza y perfección, el ser impasibles, inmutables, inalterables, etc., y por el contrario que se estime una grave imperfección el hecho de ser alterables, engendrables, mudables, etc. Por mi parte, considero la Tierra muy noble y muy digna de ser admirada precisamente por las muchas y tan diversas alteraciones, mutaciones, generaciones, etc., que en ella constantemente se producen y si no estuviera sujeta a ningún cambio, si sólo fuera un vasto desierto o un bloque de jaspe, o si, después del diluvio, al retirarse las aguas que la cubrían sólo quedara de ella un inmenso globo de cristal donde no naciera ni se alterase o mudase cosa alguna, me parecería una masa pesada, inútil para el mundo, perezosa, en una palabra, superflua y como extraña a la naturaleza, y tan diferente de ella como lo sería un animal vivo de un animal muerto, y lo mismo digo de la Luna, de Júpiter y de todos los otros globos del mundo […]. Los que exaltan tanto la incorruptibilidad, la inalterabilidad, etc., creo que se limitan a decir esas cosas cediendo a su gran deseo de vivir el mayor tiempo posible y al terror que les inspira la muerte, y no comprenden que si los hombres fuesen inmortales, no hubieran tenido ocasión de venir al mundo. Estos merecerían encontrarse con una cabeza de Medusa que los transmutase en estatuas de jaspe o de diamante para hacerlos más perfectos de lo que son.”
Si se relaciona el discurso sobre el alfabeto del libro de la naturaleza con este elogio de las pequeñas alteraciones, mutaciones, etc., se ve que la verdadera oposición se sitúa entre inmovilidad y movilidad y que Galileo toma siempre partido contra una imagen de la inalterabilidad de la naturaleza, evocando el espanto de la Medusa. (Esta imagen y este argumento estaban ya presentes en el primer libro astronómico de Galileo, Istoria e dimostrazioni intorno alie macchie solarí). El alfabeto geométrico o matemático del libro de la naturaleza será el que, debido a su capacidad para descomponerse en elementos mínimos y de representar todas las formas de movimiento y cambio, anule la oposición entre cielos inmutables y elementos terrestres. El alcance filosófico de esta operación queda bien ilustrado por este cambio de réplicas del Diálogo entre el tolemaico Simplicio y Salviati, portavoz del autor, en que vuelve a aparecer el tema de la “nobleza”: “simplicio: Esta manera de filosofar tiende a la subversión de toda la filosofía natural, lo perturba todo, introduce el desorden en el cielo, la Tierra, el universo entero. Pero creo que los cimientos del peripatetismo son tales que no hay peligro de que sobre sus ruinas jamás se puedan edificar nuevas ciencias. salviati: No os preocupéis ni por el cielo ni por la Tierra; no temáis su subversión, ni tampoco la de la filosofía, porque en cuanto al cielo, vuestros temores son vanos si lo consideráis inalterable e impasible, y en cuanto a la Tierra, tratamos de ennoblecerla y de perfeccionarla cuando intentamos hacerla semejante a los cuerpos celestes y en cierto modo a ponerla casi en el cielo de donde vuestros filósofos la han desterrado”.
|
![]() |
|||||||||
Nota
Texto tomado de: Italo Calvino. Por qué leer a los clásicos. Tusquet, Barcelona, 2005. |
||||||||||
Italo Calvino
Escritor italiano que siempre mostró gran interés por la ciencia. Falleció en 1985. como citar este artículo → Calvino, Italo. (2009). El libro de la naturaleza en Galileo. Ciencias 95, julio-septiembre, 50-53. [En línea]
|
|
![]() |
|||||||||
![]() ![]() |
||||||||||
Héctor T. Arita
|
||||||||||
Nada importa morir, pero el no vivir es horrible
Víctor Hugo, Los Miserables
La noche del 9 de septiembre de 1890 fue muy productiva para Auguste
Honoré Charlois. El joven astrónomo francés observó en aquella ocasión dos asteroides nuevos para la ciencia, a los que bautizó, fiel a la costumbre de la época, con nombres femeninos: Caecilia y Baptistina. A sus 25 años, Charlois contaba ya en su palmarés con una extensa lista de asteroides con apelativos tales como Antonia, Elvira, Emma, Amalia y Regina. Nunca sabremos con certeza el origen de los nombres con los que Charlois designaba a los asteroides que descubrió, pero es posible que “Baptistina” haya sido inspirado por el personaje de Los Miserables de Víctor Hugo. Baptistina era la hermana del obispo Myriel, una mujer que “al envejecer adquirió lo que se podría llamar la belleza de la bondad.” Charlois murió 21 años después, asesinado por un cuñado celoso, y nunca conoció la extraordinaria historia que rodea al bólido que descubrió aquella noche de septiembre.
Por convención internacional, el asteroide de Charlois es hoy en día conocido como 298 Baptistina, un nombre técnico cuyo número le agrega un toque de precisión científica, pero que sin duda le roba también algo de su romanticismo original. 298 Baptistina es un cuerpo espacial de unos 40 kilómetros de diámetro que se encuentra en órbita en el cinturón de asteroides entre Marte y Júpiter, y no hay nada en su apariencia actual que pudiera hacernos sospechar algo de su increíble historia. Como la Baptistina de Víctor Hugo, el bólido ha adquirido con el tiempo una suerte de serena belleza que oculta su turbulento pasado. La historia del origen y correrías de Baptistina fue develada hace un par de años por un equipo de investigadores de Estados Unidos y la República Checa, encabezados por William Bottke. La saga de eventos extraordinarios comienza hace 160 millones de años con la colisión de dos cuerpos espaciales en el cinturón de asteroides. La desintegración de uno de ellos produjo una plétora de bólidos de todos tamaños, desde pequeñas partículas de unos cuantos metros hasta enormes rocas de decenas de kilómetros de diámetro. El mayor de esos trozos es el actual 298 Baptistina. Muchos otros pedazos se han acercado en diferentes momentos a la zona de los planetas interiores del sistema solar, dejando como evidencia de su paso una serie de cráteres de colisión en Marte, la Tierra y la Luna. Usando modelos en computadora, Bottke y sus colaboradores rastrearon hacia el pasado los movimientos de estos cuerpos espaciales, llamados en su conjunto la familia Baptistina, y demostraron un aumento en la frecuencia de impactos desde hace 160 millones de años, coincidiendo con la lluvia de fragmentos de la familia de Baptistina.
Bottke y sus colegas especulan que uno de los fragmentos más grandes se estrelló contra la Luna hace 109 millones de años, formando Tycho, uno de los cráteres más espectaculares de nuestro satélite. En 2001: Una Odisea del Espacio, Arthur C. Clarke imaginó este cráter de 85 kilómetros de diámetro como el sitio en donde se encontró el monolito de origen extraterrestre que propició el envío de la nave de exploración Discovery One a Jápeto, uno de los satélites más grandes de Saturno (en la versión cinematográfica de Stanley Kubrick la nave se enfila rumbo a Júpiter). En el mundo de la ficción, la fragmentación de Baptistina condujo a la exploración de los planetas exteriores, a la rebelión de hal 9000, la computadora a bordo del Discovery One, a la muerte de su tripulación y a las famosas últimas palabras del capitán David Bowman: “¡Oh Dios!, está lleno de estrellas”. En el mundo real, otro de los fragmentos de la familia Baptistina, una enorme pieza de más de diez kilómetros de diámetro, fue protagonista de una historia casi tan increíble como las imaginadas por Clarke. Se piensa que este fragmento fue el bólido que se estrelló contra la Tierra al final del periodo Cretácico, hace 65 millones de años, provocando la extinción de los dinosaurios. La huella directa de tal colisión es el gigantesco cráter de más de 170 kilómetros de diámetro centrado en la vecindad del pueblo costero de Chicxulub, en el norte de la península de Yucatán. Resulta fascinante pensar que este pedazo de Baptistina viajó por el espacio durante 95 millones de años antes de enfrentar su destino final. Hace 160 millones de años, cuando inició su viaje el bólido, la Tierra era muy diferente a lo que es ahora. A finales del Jurásico, el clima en la mayor parte de las tierras emergidas era tropical y los ecosistemas estaban dominados por gigantescas plantas emparentadas con las actuales coníferas y por saurópodos, los gigantescos dinosaurios de larguísimos cuellos. Comenzaba entonces la edad de oro de los dinosaurios, que alcanzarían el pico de su diversidad unos pocos millones de años después. Hubiera sido muy difícil imaginar que en menos de 100 millones de años la orgullosa dinastía de los dinosaurios encontraría un catastrófico final.
Un día a finales del periodo Cretácico, hace poco más de 65 millones de años, el fragmento de Baptistina finalmente concluyó su peregrinar por el sistema solar y se enfiló directamente hacia la Tierra. Al entrar en contacto con la atmósfera, el bólido generó un calor intensísimo y produjo una onda sonora de un volumen nunca antes escuchado en la Tierra. Segundos antes de colisionar con la superficie del planeta produjo una explosión equivalente a la de 100 millones de bombas de hidrógeno. De inmediato, el asteroide se desintegró y provocó la fusión de la roca madre de lo que ahora es el norte de la península de Yucatán. Se generó una onda expansiva de calor que calcinó al instante a todo ser vivo en cientos de kilómetros a la redonda. Al mismo tiempo se produjeron tsunamis de proporciones inimaginables que generaron olas de hasta trescientos metros de alto en zonas costeras a cientos de kilómetros. Los efectos a largo plazo resultaron aún más destructivos. La Tierra entera se cubrió de una densa capa formada por partículas provenientes de la explosión del asteroide, así como por humo derivado de los extensos fuegos producidos por la onda de calor. La temperatura promedio del planeta disminuyó considerablemente y la fotosíntesis prácticamente se detuvo. En un abrir y cerrar de ojos en tiempo geológico, cerca de 80% de las especies de plantas y animales del mundo se extinguieron. Junto con los dinosaurios no voladores, desaparecieron grupos enteros de animales que fueron increíblemente abundantes sólo unos pocos millones de años antes, como los amonites, los rudistas y los bivalvos inocerámidos. Algunos paleobiólogos ven todavía con escepticismo la teoría de la extinción masiva causada por una colisión espacial, y consideran la desaparición de especies durante el Cretácico como un proceso gradual. Se argumenta con frecuencia que el registro fósil muestra que los amonites ya se habían extinguido cuando sucedió el evento de Chicxulub. Sin embargo, hallazgos recientes muestran claramente que algunos géneros de estos moluscos existieron justo hasta el momento de la colisión, de manera que su extinción coincide (en la escala geológica) con el impacto del fragmento de Baptistina. Más recientemente, el grupo de investigación de Gerta Keller, que incluye científicos mexicanos, ha señalado que la edad estimada del evento que produjo el cráter de Chicxulub no corresponde exactamente con el tiempo de la extinción de finales del Cretácico. Este descubrimiento ha dado fuerza a la idea de que la extinción masiva podría haber sido provocada no por un solo cuerpo espacial sino por una serie de impactos casi simultáneos. En todo caso, si esta hipótesis resulta correcta, es muy probable que todos los bólidos involucrados hayan pertenecido a la familia de Baptistina.
Parece ser que finalmente conocemos el origen del evento que acabó con los dinosaurios y otros grupos del Cretácico. Las investigaciones de Bottke y sus colaboradores nos permiten contestar, como en el juego de Clue, las preguntas básicas sobre la muerte de los dinosaurios: ¿Quién los mató?, ¿dónde?, ¿cuándo?, ¿con qué arma? Ahora sabemos que fue la hermana del obispo, en Yucatán, hace 65 millones de años y con una explosión de 100 millones de megatones. |
![]() |
|||||||||
Referencias bibliográficas
Bottke, W. F., D. Vokrouhlichy y D. Nesvorny. 2007. “An asteroid breakup 160 Myr ago as the probable source of the K/T impactor”, en Nature núm. 449, pp. 48-53. Kring, D. A. 2007. “The Chicxulub impact event and its environmental consequences at the Cretaceous-Tertiary boundary”, en Palaeogeography, Palaeoclimatology, Palaeoecology, núm. 255, pp. 4-21. |
||||||||||
Héctor T. Arita
como citar este artículo →
Arita, Héctor T. (2009). Baptistina y los dinosaurios. Ciencias 95, julio-septiembre, 40-42. [En línea]
|
|
![]() |
|||||||||
![]() ![]() |
||||||||||
Beatriz Sánchez y Salvador Cuevas
|
||||||||||
El telescopio es un instrumento que amplifica imágenes de objetos lejanos, lo que permite observarlos con mucho más detalle. Aunque su invención es atribuida al fabricante de lentes holandés, Hans Lippershey, fue Galileo quien hace 400 años lo rediseñó y usó por primera vez con fines astronómicos, lo que dio lugar al nacimiento de la astronomía moderna. A partir de entonces el desarrollo de la ingeniería y la tecnología ha permitido obtener imágenes del universo y generar conocimientos inimaginables de sus orígenes y evolución.
En términos generales, los telescopios ópticos se clasifican en refractores si están formados por lentes; reflectores si sus elementos son espejos; y catadióptricos cuando tienen un espejo cóncavo y una lente. El telescopio que usó Galileo es un ejemplo de un refractor muy simple compuesto de un par de lentes montadas en un tubo: una llamada objetivo, por ser la más cercana al objeto, y otra llamada ocular por su cercanía al ojo. En 1840 se genera un nuevo parteaguas al lograr tomar la primera fotografía de la Luna, ya que posteriormente se descubre la placa fotográfica como un elemento capaz de registrar imágenes de objetos muy tenuemente, no tanto por la sensibilidad de las primeras emulsiones fotográficas —unas 10 000 veces menos sensibles que el ojo humano—, sino por su capacidad de hacer exposiciones por largos periodos de tiempo. Lo cual generó inmediatamente la necesidad de que los telescopios contaran con un mecanismo que permitiera seguir el movimiento aparente de los objetos en el cielo debido a la rotación de la Tierra en su eje. Esto se resolvió gracias a la utilización de mecanismos de relojería que logran con gran precisión apuntar y seguir los cuerpos celestes. En la constante búsqueda de alternativas para superar las limitaciones asociadas a la fabricación de lentes de gran tamaño, Foucault fabricó en 1864 los primeros espejos de vidrio recubiertos de plata, con lo que hizo posible aumentar el diámetro o apertura del elemento colector de luz, generalmente denominado espejo primario en un telescopio reflector, —una de sus características más relevantes pues cuanto más grande es éste mayor es su capacidad de captar la luz de los objetos observados.
De hecho la fabricación de lentes encontró su límite en 1897 al fabricar unas de 1.02 metros de diámetro, para el telescopio del observatorio de Yerkes —hasta la fecha, el refractor más grande que existe. Por otro lado, es importante hacer notar que entre las características fundamentales de un telescopio se encuentra el poder de resolución espacial, que es la relación entre distancias focales del objetivo y la lente ocular. Las lentes o espejos principales pueden tener distancias focales del orden de 30 metros o más, lo cual implica que para contenerlas se requieren tubos de dimensiones aún mayores, lo que genera problemas para la construcción de los edificios que deben albergarlos. Estos problemas fueron resueltos gracias a las propuestas para configurar espejos más eficientes como las de Cassegrain, Herschel y, en particular, la de Schmidt, quien logró combinar un objetivo reflector de gran tamaño con una lente correctora, para obtener una excelente nitidez en un gran campo —de varios grados—, permitiendo así que el tubo de los telescopios se redujera considerablemente sin perder el poder de resolución espacial.
Durante la primera mitad del siglo XX se desarrollaron técnicas para fabricar espejos primarios de diámetros cada vez mayores. El perfeccionamiento de los motores y el inicio de la era electrónica ocurren de manera paralela, logrando así poner en marcha, en 1948, el famoso telescopio Hale de Monte Palomar, que cuenta con un espejo primario de 5.1 metros de diámetro y una robusta estructura con mecanismos capaces de apuntar y guiar desde una consola de mando provista de un sistema de “bulbos electrónicos”. El Hale fue el primer gran instrumento puesto en una lejana y aislada montaña, desde donde pudo observarse a una profundidad nunca antes conseguida, —aunque fuera en un campo muy pequeño, de sólo una fracción de grado. Por más de 25 años, fue el telescopio de mayor tamaño, hasta que en 1976 entró en operación el telescopio soviético bta de 6.0 metros de diámetro —que tuvo muchos problemas y modificaciones antes de ser plenamente operativo. A partir de entonces surgió una cascada de telescopios medianos de 3 y 4 metros de diámetro en su espejo primario, optimizados en calidad de imagen, puestos en sitios privilegiados astronómicamente hablando, es decir, con un alto porcentaje de noches despejadas en el año y con muy baja turbulencia atmosférica –como los que están en el norte de Chile y en Hawaii. El máximo aprovechamiento de los desarrollos tecnológicos en electrónica, cómputo y detectores fotosensibles, permitió que para la década de los ochentas se contara con detectores bidimensionales de algunos cientos de elementos llamados ccd’s (Charge Couple Devices), que sustituyeron los tubos fotoelectrónicos y a las placas fotográficas, debido a su mayor sensibilidad. Se iniciaron además proyectos que incorporaban al telescopio la llamada óptica adaptativa, usualmente empleando un espejo terciario, cuya función es corregir las aberraciones que produce la atmósfera terrestre en el frente de onda.
Estos proyectos con grandes inversiones, tenían por meta construir tener los telescopios más potentes en los mejores sitios. Ejemplos de estos son los telescopios vlt (Very Large Telescopes), un conjunto de cuatro grandes telescopios de espejo primario tipo menisco, muy delgado de 8.2 metros de diámetro; el Gemini norte y el Gemini Sur, ambos de 8.0 metros; el Subaru, de 8.2 metros, y los Keck 1 y Keck 2, que incorporan una importante innovación en su diseño: la superficie del espejo primario de 9.8 metros, consta de 36 segmentos hexagonales totalmente individuales, cada uno de los cuales tiene un conjunto de “actuadores” que le permiten moverse de manera independiente y se alinean por medio de elaboradas técnicas de control. Todos ellos iniciaron su operación exitosa en los noventas y durante el primer lustro del siglo XXI han incorporado instrumentos de alta resolución que cuentan con los sistemas de corrección basados en la óptica adaptativa. Los cuatro telescopios vlt que pertenecen al Observatorio Europeo del Sur (eso), instalados en Atacama, en el norte de Chile, pueden trabajar separados o conjuntamente como uno sólo, combinando la luz recolectada por los cuatro de forma interferométrica, logrando así la máxima resolución espacial obtenida hasta este momento.
El telescopio espacial Hubble de 2.4 metros se encuentra en órbita desde 1990. Al estar fuera de la atmósfera terrestre sus imágenes no se distorsionan por los efectos de refracción y la turbulencia de ésta trabajando siempre en el límite de difracción, además de estar equipado con instrumentos que pueden observar en longitudes de onda ultravioleta, visible e infrarrojo cercano.
Pronto entrará en operación científica el Gran Telescopio Canarias, de 10.4 metros de diámetro de óptica primaria segmentada, en donde México participa como socio de la construcción. Este telescopio es el más avanzado a la fecha y ha permitido probar las tecnologías con que se construirán los telescopios gigantes de nueva generación, como el tmt de 30 metros de diámetro en Estados Unidos y el elt de 42 metros de diámetro de la eso. Cabe recordar que actualmente se encuentra también en construcción el nuevo telescopio espacial James Webb (jwst), cuyo espejo primario de 6.5 metros estará constituido por 18 segmentos hexagonales de berilio, que es un material extremadamente ligero. Será uno de los observatorios de la próxima generación y se espera ponerlo en órbita en un punto entre la Tierra y el Sol en 2011.
Existe así, una continua innovación involucrada en el diseño y la construcción de los telescopios ópticos; pero cabe también destacar que en la actualidad existe un sin número de telescopios de base terrestre o satelital que captan las emisiones de los objetos celestes en otras longitudes de onda, como los radiotelescopios que muchos trabajan en forma intererferométrica –destaca el Very Large Array (vla)— el Spicer telescopio satelital en el infrarrojo, el soho, que es un satélite dedicado a observar el Sol y su heliósfera; y el Chandra de rayos X, entre otros.
En sus 400 años de vida, el telescopio ha sufrido gran cantidad de cambios, es una historia fascinante e interminable. Sea esto tan sólo una pequeña muestra ella. |
![]() |
|||||||||
Referencias bibliográficas
Malacara, D. y Malacara, J. M. Telescopios y Estrellas; La Ciencia para Todos. Racine R. The Historical Growth of Telescope Aperture. PASP, 116, 77-83, 2004 January. Sky & Telescope, Giant Telescopes of the World. August 2000. |
||||||||||
Beatriz Sánchez
Instituto de Astronomía, Universidad Nacional Autónoma de México.
Salvador Cuevas Instituto de Astronomía, Universidad Nacional Autónoma de México. como citar este artículo → Sánchez, Beatriz y Cuevas, Salvador. (2009). El telescopio y su historia. Ciencias 95, julio-septiembre, 28-31. [En línea]
|
|
![]() |
PDF →
|
||||||||
![]() ![]() |
||||||||||
Shahen Hacyan
|
||||||||||
Hace justo cuatro siglos, según la historia que todo mundo conoce, Galileo Galilei comenzó a estudiar el cielo con un telescopio de su propia construcción. Fue el inicio de un nueva era para la astronomía. Galileo descubrió los satélites de Júpiter, las manchas solares y la rotación del Sol, las fases de Venus, las montañas y valles de la Luna y las estrellas de la Vía Láctea.
También se sabe que Galileo tuvo serios problemas con la Iglesia por afirmar, sobre la base de sus descubrimientos, que la Tierra gira alrededor del Sol y no al revés. Se cuenta que los jerarcas religiosos prefirieron, incluso, no mirar por el telescopio para no enfrentarse a las evidencias. Sin embargo, la verdadera historia es un poco más complicada. Paul Feyerabend, en su famoso libro Contra el método, nos recuerda que en tiempos antiguos no se solía estudiar la naturaleza con medios artificiales, pues se desconfiaba de aquello que no se pudiera percibir directamente con los sentidos. En la actualidad estamos acostumbrados a creer en la existencia de cosas que no se ven a simpe vista (átomos, microbios, galaxias…), pero en la época de Galileo no era nada obvio que un instrumento no creara ilusiones.
La Iglesia, de acuerdo con Feyerebend, usó (y ciertamente abusó) de su poder, pero a fin de cuentas estaba defendiendo una visión del mundo que los hombres comunes podían entender fácilmente sin recurrir a expertos. La física de Aristóteles, la aceptada por la Iglesia, era una física del sentido común: el agua y la tierra caen porque su lugar natural es el centro de la Tierra, el fuego y el aire suben porque el suyo es la esfera de las estrellas; y el Sol y las estrellas giran alrededor de la Tierra, como se ve a simple vista. Además, se pensaba que la naturaleza de los astros era del todo distinta a la de las cosas terrestres.
Evidentemente, el telescopio permitía aumentar el tamaño de los objetos en la Tierra, pero si se trataba de objetos celestes nunca vistos antes ¿cómo saber si las imágenes correspondían a algo real? Si Galileo creía ver nuevas estrellas allí donde no se veía nada a simple vista, no había forma de corroborar su existencia. Más aún, todavía no se tenía una buena teoría que permitiera entender cómo funciona un telescopio; Galileo había construido uno, pero lo había logrado por medio de pruebas y errores. No sería hasta 1610, el año siguiente de sus observaciones, cuando su colega Kepler publicó la Dióptrica, en la que describía, más o menos correctamente, los principios teóricos del telescopio. Por otra parte, hay que recordar que los telescopios de Galileo eran bastante primitivos, por lo que se necesitaba cierta dosis de imaginación para ver lo que él afirmaba ver. Sin duda tuvo el enorme mérito de imaginar correctamente mucho de lo que reportó, pero se sabe que colegas suyos, a pesar de su interés, no lograron ver con su telescopio todo lo que les prometía y se quedaron decepcionados.
Con Galileo empezó una nueva era en la que los cinco sentidos comunes ya no eran suficientes para percibir correctamente al mundo y había que recurrir a medios artificiales que sólo los expertos sabían manejar. Para Feyerabend, ésta es la posición que combatió la Iglesia. La nueva manera de estudiar el mundo resultó sumamente exitosa, pero muchos pensadores, aun sin negar su validez, la criticaron por olvidarse de la “dimensión humana” de la naturaleza. Así, por ejemplo, los románticos del siglo xix añoraban una visión más subjetiva del mundo; Goethe escribió que los científicos relacionan entre sí fenómenos naturales construidos artificialmente, pero concluyó que eso no es la naturaleza: “¡ningún arquitecto tendría la osadía de hacer pasar sus palacios por montañas y bosques!”
|
![]() |
|||||||||
_____________________________________________________________
|
||||||||||
Shanen Hacyan
Instituto de Física, Universidad Nacional Autónoma de México. como citar este artículo → Hacyan, Shahen. (2009). Galileo y el telescopio. Ciencias 95, julio-septiembre, 18-19. [En línea]
|
![]() ![]() La Astronomía prehispánica como expresión de las nociones de espacio y tiempo en Mesoamérica
|
![]() |
PDF →
|
|||||
Jesús Galindo Trejo
|
|||||||
Desde un lejano pasado, al levantar su vista al firmamento, el hombre se ha confrontado con profundas emociones y al mismo tiempo con numerosas incógnitas que lo han conducido a su vez a la elaboración de toda clase de explicaciones, las cuales van desde emotivas leyendas hasta planteamientos racionales, avanzando siempre en el conocimiento del Universo. La belleza del cielo y su comportamiento han inspirado la inteligencia humana desde esas épocas remotas y gracias a ello ha penetrado las profundidades del cosmos. Sin embargo, el proceso en detalle de cómo el hombre llegó al conocimiento de los fenómenos celestes tiene que ver sobre todo con las características de cada sociedad. Por ser el firmamento tan diverso y vasto, los observadores de la antigüedad elegían para su estudio ciertos objetos celestes que tenían particular significado en el marco de su propia cultura.
En el caso de Mesoamérica, con base en los vestigios culturales que hemos podido analizar se sabe que durante varios milenios se observó cuidadosamente el movimiento aparente del Sol, la Luna y varios planetas; también se identificaron algunas constelaciones y se observó la Vía Láctea y, además, se registraron eclipses, cometas e inclusive explosiones de supernova. Se debe tomar en cuenta que esta práctica observacional no se realizaba solamente como un mero ejercicio para asentar datos, sino que se trataba de una actividad que implicaba una estrecha relación con conceptos religiosos de la mayor jerarquía. De esta manera, en el cielo se reconocían diferentes deidades cuyos influjos podían afectar a todo habitante de la Tierra. El entender cómo se comporta el cielo se convirtió en una especie de culto religioso valorado como de excepcional trascendencia en Mesoamérica. Además, derivado de este culto astronómico, fue posible desarrollar un elemento cultural fundamental para cualquier civilización: el calendario. Este esquema de organización del tiempo es un producto netamente cultural, representa en sí un modelo preciso para describir los periodos de observación de algún objeto celeste. Por supuesto, esta actividad altamente especializada estaba reservada a la clase sacerdotal, como lo ilustra claramente el Códice Mendoza en el caso de los mexicas. Estos sacerdotes-astrónomos se encargaban de llevar el seguimiento del tiempo observando las estrellas y el Sol. Igualmente intentarían interpretar lo que veían en la bóveda celeste para prever y evitar algún posible daño o bien el advenimiento de alguna situación favorable.
Otro aspecto tangible que demuestra la importancia del conocimiento astronómico en Mesoamérica es la orientación de estructuras arquitectónicas de acuerdo con la posición de diversos astros en los momentos de aparecer o desaparecer en el horizonte local. Aquí nos encontramos obviamente frente a un uso político de dicho conocimiento. El soberano que ordenase y decidiera la orientación de un edificio estaba en la posición de demostrar a su pueblo cómo su obra terrenal, es decir, el edificio referido, se encontraba en armonía con los preceptos de las deidades celestes. Por lo tanto, el soberano podía legitimar su posición de poder ya que contaba con el beneplácito de los dioses, lo cual, en ocasiones, podía ser de manera espectacular, empleando efectos de luz y sombra, como la famosa hierofanía solar que se observa en los días del equinoccio en la pirámide de El Castillo en Chichén Itzá. Aquí el descenso y ascenso del dios Kukulcán, la Serpiente Emplumada, a lo largo de la balaustrada de la pirámide, muestra fastuosamente el favor de la deidad hacia este espléndido edificio maya.
Partiendo del hecho de que el movimiento aparente de la bóveda celeste proporciona la única manera de definir orientaciones de trascendencia universal en un paisaje terrestre, podemos notar que en Mesoamérica se erigieron suntuosos edificios y se trazaron magníficas ciudades considerando este aspecto. Además de alineaciones solares en momentos astronómicamente importantes, como solsticios, equinoccios y días del paso cenital del Sol, los mesoamericanos eligieron mayormente alineaciones que se daban en momentos de aparente nula importancia astronómica. No obstante, las fechas en las que suceden tales alineamientos poseen una peculiar característica: dividen el año solar en varias partes que se pueden expresar por medio de los números que definen el sistema calendárico mesoamericano. Es decir, las cuentas de días determinadas por tales fechas, utilizando un solsticio como pivote, nos conducen a los números 260, 52, 73 y 65. Como es bien conocido, el sistema calendárico mesoamericano, que estuvo vigente por más de tres milenios, consta de dos calendarios: uno solar de 365 días, conocido como Xiuhpohualli, organizado en 18 veintenas más 5 días complementarios, y otro ritual de sólo 260 días, llamado Tonalpohualli, estructurado en 20 trecenas. Ambos calendarios empezaban al mismo tiempo y corrían simultáneamente en paralelo, pero después de los primeros 260 días se desfasaban, para volver a coincidir al cabo de 52 periodos de 365 días y nuevamente empezar en forma simultánea. Por su parte, el calendario ritual debía recorrer 73 periodos de 260 días. Así, se establece la ecuación básica del calendario: 52 × 365 = 73 × 260.
En la región zapoteca se consideró como de especial importancia dividir el calendario ritual en cuatro partes de 65 días cada una. Notables ejemplos de esta alineación calendárico-astronómica son el Templo Mayor de Tenochtitlan, la Pirámide de la Luna de Teotihuacan, el Templo de los Jaguares en la cancha del juego de pelota de Chichén Itzá, la Pirámide de los Cinco Pisos de Edzná, la Casa E del Palacio de Palenque, la Pirámide de los Nichos en El Tajín, el Edificio Enjoyado o Embajada Teotihuacana en Monte Albán, el Conjunto del Arroyo en Mitla, el Templo Mayor de Tula y la Pirámide de la Venta, una de las principales ciudades olmecas. Pensamos que esta peculiar manera de orientar estructuras arquitectónicas constituye uno de los rasgos definitorios que conforman a la cultura mesoamericana.
La orientación de estructuras arquitectónicas también se efectuó considerando otros objetos celestes diferentes al Sol. En varias ocasiones fueron la Luna y la Vía Láctea las que determinaron la orientación de importantes edificios. Como un ejemplo del primer caso tenemos el Templo de Ixchel en San Gervasio en la Isla de Cozumel. Fuentes etnohistóricas hablan del importante culto que se rendía a la diosa de la Luna en un recinto similar a este vestigio arqueológico. Dicho templo está orientado en dirección a la puesta de la Luna cuando alcanza su parada mayor, es decir, cuando se pone más hacia el norte sobre el horizonte poniente de la isla.
Un ejemplo espectacular del segundo caso lo tenemos en el Edificio de Las Pinturas en Bonampak; se trata de tres cuartos que posee dicho edificio, completamente pintados con diferentes escenas de ceremonias, guerra, presentación del heredero, músicos e incluso el retrato de un pintor. Las bóvedas de los cuartos tienen representaciones del llamado Monstruo del cielo y aparecen diversos mascarones solares. Algunos estudiosos han considerado a ese ente mítico como una expresión de la Vía Láctea. En la bóveda del cuarto central se plasmaron cuatro cuadretes con representaciones de objetos celestes ya que cada uno contiene varios glifos de estrella. Una tortuga sobre cuyo caparazón se pintaron tres glifos de estrella, una manada de jabalíes con algunos glifos de estrella, un personaje acompañado con dos glifos de estrella señalando con una varita a la tortuga y otro personaje con un glifo de estrella y sosteniendo una especie de charola o espejo. En la fecha pintada por los propios mayas en el interior del cuarto central, 6 de agosto de 792, ocurrió una serie de eventos que sugieren la maestría alcanzada por los sacerdotes-astrónomos mayas. Al empezar la noche, la Vía Láctea apareció alineada a lo largo del eje de simetría del edifico; varias horas después, esta gran banda de estrellas de brillo tenue se colocó justamente a lo largo de la fachada del edificio. Entre tanto, del horizonte oriente surgió una región del cielo que pudo ser identificada con la pintura de la bóveda del cuarto central. La tortuga con las tres estrellas representaría así la constelación de Orión, la manada de jabalíes el cúmulo estelar de Las Pléyades, el personaje con la varita la estrella roja Aldebarán, la más brillante de la constelación del Toro, y finalmente el otro personaje podría representar el planeta Marte, que sólo por esa noche se encontraba en uno de los cuernos del Toro (figura 1).
Algunos fenómenos celestes esporádicos y llamativos, como cometas, lluvias de estrellas, tránsitos de Venus por el disco solar e incluso explosiones de supernova, parecen haber sido registrados por los observadores mesoamericanos. Existen expresiones idiomáticas que los describen, como en el caso de los cometas y las lluvias de estrellas, que en nahuatl se denominan citlalin popoca, estrella humeante, y citlalin tlamina, estrella flechadora; éstos eran considerados, curiosamente al igual que en Occidente, como augurios de desgracias para los reinos, soberanos y el pueblo.
Por otra parte, la observación del tránsito de Venus o las explosiones de supernova requieren técnicas sumamente elaboradas, algo que sugieren las más recientes investigaciones arqueoastronómicas en Mesoamérica. En la ciudad teotihuacana de Xihuingo, a unos 35 kilómetros al noreste de Teotihuacan, en el Estado de Hidalgo, se ha localizado un número excepcionalmente grande de ciertos petroglifos formados básicamente por dos círculos concéntricos cruzados por dos ejes perpendiculares entre sí, diseños labrados por medio de sucesiones de puntos. En general se les conoce como marcadores punteados.
A lo largo de toda Mesoamérica este tipo de petroglifos se considera como un elemento diagnóstico de la presencia teotihuacana. Existen variantes de estos marcadores con uno, tres y cuatro círculos concéntricos. En el punto más elevado de Xihuingo se encuentra el marcador con más puntos distribuidos en cuatro círculos.
El marcador más cercano a éste se localiza en un nivel inferior, a unos 40 metros de distancia; se trata de un marcador de diseño clásico, asociado al cual se encuentran, en una roca cercana, varios petroglifos: el numeral 13, formado por dos barras y tres puntos, arriba del cual aparecen dos círculos concéntricos de trazo continuo; una estrella de cinco puntos, también con dos círculos concéntricos en su interior; una cara elemental, es decir, un semicírculo con tres puntos dispuestos triangularmente, semejando los ojos y la boca, tal vez sugiriendo la acción de observar —además de otros petroglifos, por desgracia, ya muy destruidos (figura 2).
Desde el marcador inferior, el superior visualmente se encuentra justamente en el horizonte permitiendo la observación del cielo arriba de él. Al medir la posición del superior desde el inferior respecto al cielo y tomando en cuenta la época en que probablemente fueron labrados, entre los siglos iv y v, se encuentra que la constelación del Escorpión se erguía majestuosamente sobre el marcador superior; sin embargo, al no identificar en el inferior ninguna representación de ese arácnido parece que podría tratarse de otro evento celeste. En efecto, en el centro del marcador superior emerge precisamente el centro geométrico de la cola del Escorpión, donde, de acuerdo con varias crónicas chinas, fue registrada una gran explosión de supernova entre febrero y marzo del año 393, resplandeciendo más intensamente que la estrella más brillante del cielo, Sirio. Por lo tanto, el conjunto de petroglifos se podría interpretar que en el año 13 “algo brillante” o tonalo, —brillante como el Sol, en náhuatl—, un gran resplandor señalado por la estrella de cinco puntas se observó en la dirección del marcador superior. Esto se podría considerar como el primer registro documentado de una explosión de supernova en Mesoamérica.
En Mayapán, la última metrópoli maya antes de la llegada de los españoles, existen testimonios pictóricos que sugieren que los sacerdotes-astrónomos prehispánicos pudieron registrar uno de los fenómenos solares más espectaculares: el tránsito de Venus por el disco del Sol. En un edificio adosado a la pirámide de El Castillo de esta ciudad se plasmó una pintura mural de obvio significado astronómico: grandes discos solares dentro de los cuales aparecen diversos personajes descendentes, algunos de los cuales presentan manchas en la piel y están ricamente ataviados. Una pareja de guerreros, en ambos lados de cada disco, parecen custodiarlo.El muro que contiene la pintura está orientado de tal forma que dos veces al año la luz solar ilumina los discos al ras. Las fechas de tal iluminación dividen el año solar en múltiplos de 73 días, de acuerdo con una orientación calendárico-astronómica explicada anteriormente. Al interior del Sol sólo pueden aparecer dos objetos: una mancha solar o un planeta interior. Mercurio es demasiado pequeño para ser detectado por el ojo humano, y las manchas solares sólo excepcionalmente alcanzan un tamaño suficiente para ser observadas a simple vista; sin embargo, por encontrarse entre el Sol y la Tierra, Venus posee un tamaño angular aproximadamente del doble del tamaño necesario para ser percibido con la vista y, además, el entorno alrededor de Mayapán es plano, lo que permite que en una salida o puesta de Sol se pueda observar su disco sin ayuda de filtros especiales, ya que la atmósfera baja sirve de filtro al absorber un notable porcentaje de la radiación solar. Tomando en consideración la época en la que se plasmó el mural, entre 1200 y 1350, los personajes descendentes podrían representar el planeta Venus en su tránsito por el disco solar. Durante dicho intervalo de tiempo sucedieron cuatro tránsitos, dos se dieron estando el Sol muy arriba del horizonte y otros dos acontecieron durante el ocaso solar, lo que permitió que fueran registrados a simple vista. El próximo 5 de junio de 2012 sucederá el próximo tránsito de Venus durante el ocaso solar y podremos constatar la propuesta aquí descrita. El cielo significó un aliciente para el espíritu del hombre mesoamericano, gracias a este magnífico estímulo visual su mente analítica pudo ejercitarse y acercarse a entender mejor el funcionamiento de la bóveda celeste. Al mismo tiempo se congració con sus dioses inalcanzables y obtuvo la certeza de que este culto celeste propiciaría obtener de ellos los favores necesarios para su existencia. |
![]() |
||||||
Referencias bibliográficas
Galindo Trejo, Jesús. 1994. Arqueoastronomía en la América Antigua. Conacyt/Equipo Sirius, México-Madrid.
Galindo Trejo, Jesús. 2000. “Constelaciones en el firmamento maya”, en Ciencias, núm. 57, pp. 26-27.
Galindo Trejo, Jesús. 2003. “La Astronomía prehispánica en México”, en Lajas Celestes: Astronomía e Historia en Chapultepec. Conaculta-inah, México, pp. 15-77.
Galindo Trejo, Jesús. 2008. “Calendario y orientación astronómica: una práctica ancestral en Oaxaca prehispánica”, en La Pintura Mural prehispánica en México, Beatriz de la Fuente (ed.). Instituto de Investigaciones Estéticas, unam, México, pp. 295-345.
Morante López, Rubén B. 2001. “Las cámaras astronómicas subterráneas”, en Arqueología Mexicana, vol. VII, núm. 47, pp. 46-51. Sprajc, Ivan. 1993. Venus, lluvia y maíz. inah (Colección científica 318), México, pp. 75-79. |
|||||||
____________________________________________________________
|
|||||||
Jesús Galindo Trejo
Instituto de Astronomía, Universidad Nacional Autónoma de México.
Cursó la licenciatura en la Escuela Superior de Física y Matemáticas del ipn y obtuvo el doctorado en Astrofísica Teórica en la Ruhr Universitaet Bochum, en Alemania. Fue investigador titular en el Instituto de Astronomía de la unam durante más de 20 años. Actualmente labora en el Instituto de Investigaciones Estéticas de la misma. Su trabajo de investigación se centra principalmente en la Arqueoastronomía del México prehispánico. Es miembro del Sistema Nacional de Investigadores.
como citar este artículo →
Galindo Trejo, Jesús. (2009). La Astronomía prehispánica como expresión de las nociones de espacio y tiempo en Mesoamérica. Ciencias 95, julio-septiembre, 66-71. [En línea]
|
![]() ![]() Cuasares y núcleos activos de galaxias
|
![]() |
PDF →
|
|||||
Deborah Dultzin
|
|||||||
Los cuasares son objetos celestes que por más de treinta años han cautivado e intrigado a los astrónomos. El primero de estos objetos se descubrió en 1960 como una “radiofuente puntual”. Fue hasta 1963 en que los astrónomos empezaron a comprender lo que estaban viendo. Ese año, Cyril Hazard y Maarten Schmidt lograron hacer una identificación óptica precisa de la radiofuente gracias a una ocultación lunar y usando el telescopio de 5 metros de Monte Palomar (el más potente en esa época). El objeto tenía la apariencia de una débil estrellita azul, pero desde el principio se sospechó que no se trataba de ninguna estrella ordinaria, pues el objeto fue detectado por su potente emisión de radiofrecuencia y ninguna estrella tiene ese tipo de emisión en radiofrecuencias. Las estrellas son lo más parecido a lo que los físicos llaman un “cuerpo negro” o “emisor perfecto”: un cuerpo en equilibrio que emite con una energía máxima que depende sólo de su temperatura, tal es el caso de nuestro Sol, cuya temperatura superficial es de cerca de 6 000 oK y emite la mayor cantidad de energía en frecuencias que corresponden al color amarillo —mientras que, por ejemplo, el cuerpo humano emite radiación infrarroja, aunque no es un emisor perfecto, y para que una estrella emitiese el máximo de su energía en radiofrecuencia, tendría que estar todavía más fría que el cuerpo humano.
Unos años después quedó claro que aquella emisión era la radiación de electrones ultrarrelativistas —es decir, acelerados a velocidades cercanas a la de la luz—, en fuertes campos magnéticos. Este tipo de radiación, conocida como ciclotrónica o sincrotónica dependiendo de la velocidad de los electrones, se había observado en laboratorios que experimentan con aceleradores de electrones, y fue identificada por primera vez en radiación proveniente del cosmos en 1953 por el astrónomo ruso Yosiv Shklovsky, al analizar la luz emitida por el gas remanente de la explosión de una estrella, una supernova, la Nebulosa del Cangrejo. Una de las técnicas más usadas en astronomía para analizar la luz de los objetos es la espectroscopia; mediante ella podemos descomponer la luz (luz visible o cualquier radiación electromagnética). Desde que se analizó el espectro del primer cuasar descubierto, quedó claro que no sólo no se parecía a ninguna estrella por su emisión en radiofrecuencias, sino tampoco en su espectro óptico (luz visible). De hecho, no se parecía a ningún cuerpo celeste conocido hasta entonces. En 1963 Maarten Schmidt resolvió el enigma, cuando logró identificar en el espectro el patrón de emisión producido por el hidrógeno, el elemento más abundante en el Universo. Pero las longitudes de onda en las que aparecía este patrón se habían desplazado sistemáticamente hacia el lado rojo del espectro, aparecían con longitudes de onda mayores que las medidas en el laboratorio.
Fueron varias las hipótesis que se examinaron para encontrar la explicación a este efecto. Después de descartar otras posibles causas del corrimiento al rojo, vino la interpretación aceptada hasta hoy día por la enorme mayoría de los astrónomos. El corrimiento al rojo se debe a la expansión del Universo, debido a la cual todos los cúmulos de galaxias se alejan unos de otros. Esta es una de las predicciones más impactantes de la teoría de la relatividad general formulada por Albert Einstein alrededor de 1915, y comprobada observacionalmente por Edwin Hubble unos años más tarde. Además, Hubble logró establecer una relación entre la distancia a la que se encuentra una galaxia de nosotros y su velocidad de recesión, su alejamiento. Esta correlación se conoce como la ley de Hubble y nos dice que la velocidad de recesión es mayor cuanto más lejos se encuentra una galaxia, en proporción directa a la distancia de ésta última. El corrimiento al rojo de los patrones espectrales ya se había detectado en muchas galaxias, aunque nunca en la forma tan drástica como apareció en los cuasares, y por ser una medida de la velocidad de recesión derivada de la ley de Hubble, se usaba para determinar la distancia a galaxias lejanas. Así, al medir el corrimiento espectral del primer cuasar se obtuvo un valor inesperado de casi 16%, lo cual implica una velocidad de recesión de 47 000 kilómetros por segundo y una distancia de dos mil cuatrocientos millones de años luz. No cabía la menor duda: la “estrellita” azul era un objeto fuera de nuestra galaxia y el más lejano de los conocidos hasta entonces. Los valores de corrimientos espectrales medidos para cuasares más y más lejanos implican velocidades de recesión cercanas a las de la luz, por lo que en los cálculos de la distancia se deben emplear fórmulas relativistas. El cuasar más lejano detectado hasta 2007 está a una distancia de 28 billones (28 más 12 ceros) de años luz.
El nombre de cuasar es una castellanización del vocablo ingles quasar, formado por las siglas del inglés quasi-stellar radio source y acuñado por Hong-Yee Chiu en 1964. Hoy se sabe que la mayoría de estos objetos son emisores más potentes en el registro óptico y de longitudes de onda menores (ultravioleta, rayos X y rayos gama) en el de radio, pero el nombre genérico se conserva. Hasta los ochentas no había siquiera consenso entre la comunidad astronómica sobre la naturaleza de estos objetos, hace unos quince años se conocían alrededor de 8 000 y hoy son más de 100 000, la mayoría encontrados al efectuar un escrutamiento óptico del cielo norte, en realidad sólo una “rebanada” del cielo norte conocido como Sloan Digital Sky Survey, un proyecto en curso que continuará arrojando datos. A lo largo de todos estos años ha quedado claro que los cuasares no representan un fenómeno tan insólito en el Universo como se pensó en un principio; hoy se sabe que podemos encontrar objetos similares en los centros de muchas galaxias y que son diversos los fenómenos observables en que se manifiestan. Los cuasares se incluyen en la denominación genérica de núcleos activos de galaxias o nags.
Para regresar a la historia, el siguiente hallazgo sorprendente fue la variabilidad en el brillo de los cuasares. Se encontró que existían algunos que duplicaban su emisión de luz ¡en un día!, lo cual indica que la región que produce esta luz no puede ser mayor “un día luz” o 25 millones de kilómetros (dos veces el tamaño del sistema solar), es decir, que algunos cuasares producen mucha más energía que una galaxia como la nuestra, con sus cien mil millones de estrellas, ¡desde una región tan pequeña como el Sistema Solar! Agujeros negros supermasivos
En 1964, Yakov Zeldovich y Edwin Salpeter propusieron, de manera independiente, que la fuente de energía de los cuasares podría ser la radiación producida por gas y estrellas a punto de caer a un agujero negro, cuyo centro es de entre uno y varios millones de veces la masa del Sol.
Lo que pareció en un principio una idea descabellada ha resultado ser, a lo largo de estos últimos treinta años, la más aceptada por la comunidad astronómica, y en la última década la única confirmada por las observaciones. Sorprendentemente, a partir de 2002 la evidencia observacional más directa y contundente de la existencia de estos hoyos negros supermasivos en los centros de prácticamente todas las galaxias viene, ni más ni menos, de la observación del centro de nuestra propia galaxia. El centro de una galaxia se define como su centro rotacional y el de la nuestra se ubica cerca de 25 000 años luz del Sol, observado primero por su emisión en radio e identificado con la fuente llamada Sagitario A. Es imposible observar esta región en luz visible porque entre nuestro Sol, que está cerca de la orilla de la galaxia, y el centro se acumula casi todo el polvo del plano de la Vía Láctea, que absorbe la luz visible, la ultravioleta e incluso los rayos X “suaves” (de 0.1 a unos 5 KeV). En cambio, se han observado fenómenos “extraños” en el centro de la galaxia en rayos X “duros” (de 15 a 60 KeV) con el telescopio Chandra, en órbita desde 1999.
La teoría y la historia Veamos con algo más de detalle el modelo del agujero negro central. La teoría de la relatividad general describe la fuerza fundamental que a gran escala, en términos de la geometría del espacio-tiempo, opera en el Universo, esto es, la gravitación. La presencia de objetos masivos le da curvatura a este espacio-tiempo y esa curvatura se manifiesta como una “fuerza” de atracción hacia esos objetos masivos. Esta teoría amplía la concepción newtoniana de la gravedad y muchas de las predicciones adicionales que hace han sido ya corroboradas. En 1916, el astrónomo alemán Karl Schwarzschild, basándose en la teoría general de la relatividad formulada en 1915 por Einstein, calculó la deformación del espacio alrededor de un cuerpo esférico, lo que constituye la primera solución particular a las ecuaciones de Einstein, estipulando que si una esfera con una masa cualquiera tiene un radio menor a un cierto valor, llamado Radio de Schwarzschild en honor a su descubridor, nos encontramos ante el hecho extraño de que su gravedad atrapa todo, incluso la luz. Es lo que hoy llamamos un hoyo negro. Aun en el marco de la física clásica podemos entender esta idea: la masa y el radio de un cuerpo esférico están relacionados por la expresión R = 2GM/v2, en donde R y M designan el radio y la masa, respectivamente, G es la constante de gravitación universal y v es la velocidad de escape, es decir, la velocidad que debe imprimirse a un objeto para que se libere (escape) de la atracción gravitacional del cuerpo. Como ejemplo, pensemos en los cohetes que impulsan las naves espaciales, los cuales deben imprimir una velocidad mínima de 11 kilómetros por segundo a dichas naves para que puedan escapar de la atracción gravitacional terrestre y salir al espacio, que es la cantidad obtenida si ponemos la masa y el radio de la Tierra en la expresión de arriba. Pero supongamos que su masa fuese la misma y su radio de aproximadamente medio centímetro en lugar de poco mas de 6 000 kilómetros, entonces la velocidad de escape que nos daría la expresión de arriba sería mayor a 300 000 kilómetros por segundo, es decir, mayor que la velocidad de la luz, y entonces nada podría escapar a la acción de su gravedad, ni siquiera la luz; esto es, precisamente, lo que caracteriza a un agujero negro. Como se ve, el término agujero, probablemente debido al físico norteamericano J. A. Wheeler, resulta un tanto impreciso pues no se trata de un agujero en el espacio, sino más bien de una enorme condensación de materia, pero es un nombre que se relaciona más bien con la geometría del espacio-tiempo generada por estos objetos en el marco de la relatividad general.
Es notable que, en 1793, más de un siglo antes de que Einstein formulara su teoría, y con base, no en la relatividad, sino precisamente en la mecánica clásica, Pierre-Simon Laplace calculó un radio gravitacional que correspondía exactamente al valor del radio de Schwarzschild. Laplace fue la primera persona en la historia que formuló un concepto parecido al de un hoyo negro —aunque claro que no utilizó este nombre—, el cual aparece en su Tratado de mecánica celeste, y lo notable es que usa la idea de velocidad de escape y que la gravedad actúa sobre la luz, además de preguntarse, igual que lo haría más de un siglo después Schwarszchild, si existirían en la naturaleza cuerpos con estas características. La respuesta de la astrofísica a esta interrogante llegó hasta la década de los sesentas.
Desde los treintas se sabía que una estrella como nuestro sol puede brillar alrededor de diez mil millones de años (el Sol está a la mitad de su vida), ya que después de pasar por diversas fases inestables y relativamente cortas, se apaga y se “encoge” bajo su propio peso, pues ya no hay presión de radiación que se contraponga a su gravedad. La misma física de la evolución estelar predecía que las estrellas más masivas desarrollan inestabilidades que hacen estallar su parte externa dejando remanentes fríos que colapsan bajo su propio peso y se convierten en estrellas de neutrones o en hoyos negros. Fue Zeldovich quien señaló dónde buscarlos y cómo encontrarlos, y el primero se detectó en 1970 gracias al primer telescopio de rayos x. Como vimos antes, Zeldovich y Salpeter propusieron la existencia de otro tipo de hoyos negros, que son los que hacen brillar a los cuasares y los núcleos activos de galaxias, y que se les llama “supermasivos”, pero cuyo origen es aún desconocido.
Los distintos tipos de nags En los últimos veinticinco años se ha realizado un intenso trabajo para, por un lado, observar los nags en todas las frecuencias posibles, desde las radiofrecuencias hasta los rayos gama, lo cual ha sido posible gracias al increíble avance en la tecnología astronómica en detectores, la construcción de telescopios y espejos enormes y de observatorios espaciales; pero también para comprender los procesos físicos y afinar modelos teóricos que puedan explicar los fenómenos que se observan en los diversos tipos de nags. Al ir juntando pacientemente las piezas del gran rompecabezas ha emergido el hecho de que, como ya lo mencionamos, ocurren fenómenos muy similares en los núcleos de muchos tipos de galaxias, sólo que no se comprendían ni se habían podido asociar bajo una misma causa: 1) las llamadas galaxias Seyfert, descubiertas por Carl Seyfert en los cuarentas, poseen un núcleo prominente que se veía como una estrellita azul; este tipo de núcleos se encuentra en galaxias con morfología espiral; 2) las radiogalaxias, descubiertas en los cincuentas, sólo hasta los setentas fueron relacionadas con fenómenos del núcleo de su contraparte —una galaxia observable en luz visible. Son de morfología elíptica y suelen ser gigantes en los centros de grandes cúmulos de galaxias; 3) el extremo más energético de este fenómeno lo constituyen unos objetos conocidos como objetos tipo bl Lac, descubiertos en los setentas pero “descifrados” varios años más tarde. Además de su potencia, una distinción importante de estos objetos es que es muy difícil detectar las líneas en sus espectros. Cuando finalmente se lograron detectar líneas débiles en el objeto prototipo, conocido hasta entonces como la estrella variable bl Lacertae o estrella bl en la constelación del Lagarto, se descubrió que no era una estrella, sino también un objeto fuera de nuestra galaxia y muy lejano. El conjunto de los objetos tipo bl Lac o lagartos y los cuasares cuya luminosidad varía más violentamente en el óptico —ovvs, por las siglas de Opticaly Violently Variable—, constituyen la clase de objetos conocidos como blazares. Es muy vasto este “zoológico”. Baste resumir que los nags suelen dividirse entre objetos radiofuertes y radiocallados —aunque la definición es algo arbitraria y lo de fuerte o callado es relativo. Para tener una idea, las radiogalaxias y sus parientes los blazares y cuasares radiofuertes emiten con potencias típicas de 1038 w en frecuencias entre 10 mhz y 100 ghz). Entre los radiocallados se incluyen los llamados liners —núcleos activos de baja luminosidad—, que se encuentran en probablemente en todas las galaxias. Ya en 1956 Geoffrey Burbidge señaló que la densidad de energía observada en las radiogalaxias estaba en contradicción con los procesos de emisión energética conocidos hasta entonces. Toda la física en los nags
Para comprender los procesos que se dan en los nags necesitamos de toda la física conocida y más. El modelo de generación de energía puede resumirse de la siguiente manera: la enorme fuerza gravitacional del agujero negro atrae material de las regiones centrales de la galaxia circundante, gas y estrellas, que por su momento angular (o cantidad de rotación) forman una especie de remolino alrededor del agujero negro. Las estrellas se destruyen previamente por la acción de intensísimas fuerzas de marea al orbitar en las cercanías del agujero negro. La mitad de la energía se genera en este remolino (el término técnico es disco de acreción). A distintas distancias, el gas del disco gira con diferente velocidad (esto se llama rotación diferencial), el momento angular disminuye drásticamente y el disco se calienta debido a la fricción entre capas contiguas. Así, se radia energía, desde el disco, y esta energía térmica, de calentamiento, corresponde, aproximadamente, a un cuerpo negro de 20 000 oK, y se emite básicamente en la región ultravioleta del espectro. La otra mitad de la energía, cuyo origen es finalmente gravitacional, se emite desde el borde interno del disco de acreción. De acuerdo con las ecuaciones de Einstein, la materia, antes de caer al hoyo negro, convierte parte de su masa en energía radiante —la conocida formula E=mc2. La eficiencia de este proceso de conversión de masa en energía puede llegar a 40%, es decir, que 40% de la masa del gas se convierte en energía radiante antes de caer a un hoyo negro. La verdad es que no se sabe cuál es la distribución en frecuencias de esta energía. El único proceso capaz de producir energía con mayor eficiencia es la aniquilación de materia y antimateria —pues el 100% de la masa de las partículas que se aniquilan se convierte en energía—, pero este proceso se da sólo en el laboratorio y no —al menos que se sepa— en la naturaleza. El Universo —¿o este universo?— está hecho sólo de materia.
Es muy ilustrativo comparar la eficiencia de la generación de energía cerca de un hoyo negro con la del proceso más eficiente conocido en la naturaleza: la fusión termonuclear, fuente de energía en el interior de las estrellas. En esa reacción, que fusiona cuatro núcleos de hidrógeno para producir un núcleo de helio, se convierte parte de la masa de los cuatro protones originales en energía radiante, por lo que la eficiencia de conversión de 0.7%, contra 40% en el caso antes mencionado. En suma, cerca de un hoyo negro supermasivo se puede emitir tanta energía como un billón de soles, y este fenómeno ocurre en una región, en el borde interno del disco de acreción, cuyas dimensiones son apenas mayores a las del sistema solar.
Esta es sólo la fuente de energía “primaria”. Hay muchos otros procesos que intervienen en el estudio de los nags, como los jets o chorros de plasma extremadamente colimados, producidos en los nags radio fuertes por un proceso hasta ahora no muy bien comprendido, los cuales están constituidos por partículas ultrarrelativistas lanzadas al espacio desde el borde interno del disco de acreción. La física de estas eyecciones está en pañales, aunque se sabe que la energía emitida es de origen sincrotrónico y producida por estas partículas que se mueven en campos magnéticos a velocidades cercanas a la de la luz. Un proceso ligado a la radiación sincrotrónica es la radiación debida al proceso de Compton inverso, mediante el cual un electrón relativista interactúa con un fotón del medio y le transfiere energía para convertirlo en un fotón de más alta frecuencia; es un proceso importante para explicar la emisión de rayos X, duros. La misma radiación sincrotrónica puede ser fuente de emisión primaria desde el infrarrojo hasta los rayos x e incluso de rayos gama. Algunas otras propiedades de la radiación, como la polarización, son útiles para distinguir entre ambos procesos, pero no siempre es posible, ya que a lo largo de los chorros también se propagan ondas de choque. Todo esto es sólo para explicar la emisión de continuo, mejor no hablar de líneas de emisión y absorción.
La orientación de los chorros con respecto de la línea de visión del observador también influye mucho en lo que vemos. Las radiogalaxias representan un extremo, ya que el observador ve el disco de canto. El otro extremo corresponde a ver el chorro dirigido hacia el observador, o casi, como sucede con los blazares.
Otros efectos, como el enfoque relativista, beaming, se vuelven muy importantes en este caso. Si observamos un chorro relativista con un ángulo de visión de tan sólo cinco grados, la luminosidad observada desde la Tierra puede ser de hasta setenta veces la emitida en el sistema de referencia local. También hay un corrimiento considerable al azul, un aumento en la frecuencia, de la radiación observada. Entre estos dos ángulos de visión extrema —que están estadísticamente de acuerdo con la proporción de este tipo de objetos— están todos los cuasares radio emisores, la mayoría de los cuales son radio débiles. No se sabe a qué se debe esta diferencia, se especula que tiene que ver con el spin, el momento angular, del hoyo negro. La interacción gravitacional de galaxias Para producir la luminosidad de los cuasares, el hoyo negro central debe “engullir”, en promedio, el equivalente de una masa solar por año. Parece poco, pero llegará un momento en que se acabe el material del centro de la galaxia —no olvidemos que, por muy grande que sea la atracción gravitacional, disminuye con el cuadrado de la distancia—, y cuando esto suceda, ¿se “apagará” para siempre la actividad nuclear? Tal es el caso del centro de nuestra galaxia, donde sabemos que hay un hoyo negro supermasivo, pero “muerto de inanición”, ¿se puede reactivar?
En cualquiera de los casos, la colisión causa que una gran cantidad de gas fluya hacia el núcleo de la nueva galaxia, “encendiendo” un cuasar. La idea de las colisiones de galaxias no es nueva; ya en los años setentas se podían explicar varias morfologías peculiares como “colas”, “puentes” y “plumas” en galaxias, por los fenómenos de interacción, ya sea de manera directa —por la fusión de galaxias— o indirecta —por las fuerzas de marea debidas a encuentros cercanos. Un ejemplo típico es el sistema conocido como “la antena” en la constelación del Cuervo. Las simulaciones numéricas de la interacción de galaxias que se podían hacer en las computadoras de aquella época sólo tomaban en cuenta las estrellas, no el gas, lo cual es una gran limitante, porque cuando dos galaxias chocan o simplemente se acercan mucho no sucede gran cosa con las estrellas, pues las distancias interestelares son tan enormes, que la mayoría de las estrellas no se tocan entre sí, más bien se “atraviesan” como fantasmas. El gas que llena los enormes volúmenes del espacio interestelar es el más afectado por las fuerzas de marea. En el caso de una colisión total el gas se aglutina en el centro de la galaxia remanente de la fusión. Si cada galaxia tiene además un hoyo negro en el centro, éstos se pueden fusionar para generar un hoyo negro con una masa que es la suma de las originales o se pueden formar sistemas de hoyos negros dobles, binarios, de los cuales se conoce con certeza al menos uno: OJ287. También puede suceder que una proximidad muy grande pueda inducir un gran flujo de gas al centro de una de las galaxias o de ambas por la acción de fuerzas de marea, fenómeno puede reencender la actividad en un núcleo apagado, proporcionando “alimento” a un hoyo negro inactivo, como el de nuestra galaxia. Faros que alumbran el pasado
Por último, hay que decir que los cuasares son una especie de faros que iluminan el pasado. Nos referimos al pasado del Universo, ya que la luz que observamos de ellos, fue emitida en una época muy remota, antes de que existieran astrónomos para estudiarla, antes incluso, de que existiera nuestro sistema solar. Tal vez algunos de esos objetos ahora sean galaxias con soles y planetas en los que haya astrónomos que vean a la Vía Láctea como fue hace miles de millones de años, quizá como un cuasar. En todo caso, el estudio de los cuasares es también esencial para la cosmología, el estudio del origen y evolución del Universo como un todo.
|
![]() |
||||||
____________________________________________________________
|
|||||||
Deborah Dultzin Kessler
Instituto de Astronomía, Universidad Nacional Autónoma de México.
Es investigadora del Instituto de Astronomía de la unam, ganadora del premio Sor Juana Inés de la Cruz que otorga la unam a destacadas científicas; es investigadora nacional, árbitro de revistas internacionales y pionera, en México, en el estudio de los agujeros negros. Es autora, entre otros textos, de Cuasares, en los confines del Universo. como citar este artículo →
Dultzin, Deborah. (2009). Cuasares y núcleos activos de galaxias. Ciencias 95, julio-septiembre, 54-61. [En línea]
|