revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 

       
 
  menu2
PDF 
               
 

 
La persistencia de la memoria
 
Carlos Aguilar Gutiérrez y
Aline Aurora
Maya Paredes
   
   
     
                     
                     
1
12
 
  articulos  
_____________________________________________________________
     
 
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 

como citar este artículo

Aguilar Gutiérrez, Carlos y Maya Paredes, Aline Aurora. (2009). Astronomía. La persistencia de la memoria. Ciencias 95, julio-septiembre, 78-79. [En línea]
     


 
 
 

 

       
 
  menu2
PDF 
               
  1

 
Estrés postraumático
 
Luis Raúl González Pérez
   
   
     
                     
                     
Estrés postraumático (ept)
Benjamín Domínguez Trejo, James W. Pennebaker,
Yolanda Olvera López
Editorial Trillas, 2009.
 
Este libro aborda un tema que ha sido poco tratado. Como sabemos los efectos que producen el estrés postraumático derivan de diversos eventos: ataques, abu­so, violación, desastres natu­ra­les, accidentes, cautiverio o por haber presenciado un acto violento o trágico; es decir, es consecuencia prin­ci­pal­men­te de la vida mo­der­na, que nos expone a las más variadas presiones, par­ticu­larmente a quienes vivimos en las ciudades.
 
Es una obra que nos en­se­ña cómo los efectos del estrés postraumático afectan gra­ve­men­te a quienes lo padecen ha­cien­do necesaria una atención inmediata, para lo cual se requiere un pronto diag­nós­ti­co, el tratamiento adecuado a seguir, así como personal capa­ci­ta­do para brindarlo. Con gran acierto señala que ante el pa­de­ci­miento debe haber cono­ci­mien­to y capacidad para ­saber tratar a la víctima, desde el primer con­tac­to. De esta manera, existe la necesidad de otor­gar un tratamiento a partir de un en­foque multidisciplinario que con­sidere las contribuciones de las dinámicas bio­lógi­ca, psi­cológica y social. Asi­mis­mo, se reconocen y valoran las apor­taciones que hace la far­ma­cología, la educación, la nu­tri­ción, el trabajo social, la legislación y la historia. Es decir, en el tratamiento se debe tomar en cuenta la naturaleza multifacética de este trastorno.

El libro también destaca que del estudio del estrés pos­traumático deriva una herra­mien­ta útil para la investigación de violaciones a derechos hu­ma­nos y la comisión de delitos. Particularmente previene y brin­da información sobre el tema con base en casos prácticos y señala los as­pec­tos a con­si­de­rar, orientando así la ca­pa­ci­ta­ción que debe tener el de­fen­sor de derechos humanos res­pec­to del manejo que hay que des­ple­gar en la atención a las víctimas. Particular­men­te, se resalta la necesidad de la apli­cación del tratamiento en sec­tores vulnerables como los familiares de desapare­cidos u otras víctimas de vio­lación de los derechos hu­manos, como los casos de tortura.

Recientemente se es­ta­ble­ció a nivel constitucional el de­re­cho de toda persona a guar­dar silencio, así como la correspondiente prohibición de la prueba confesional. Lo ante­rior tuvo el claro objetivo de evitar la práctica recurrente en nuestro país de maltratar física o psicológicamente a los detenidos a fin de que emitan una confesión, empleada como prueba o indicio para dictar una condena.

Al respecto, se debe decir que aun cuando es posible que la tortura haya disminuido sen­si­ble­men­te en los últimos años, no ha desaparecido del todo en México.

Con relación a este asunto se elaboró el Manual para la in­ves­ti­ga­ción y documentación eficaces de la tortura y otros tratos o penas crueles, inhu­ma­nos o degradantes, mejor conocido como Protocolo de Estambul, el cual sirve para dar las directrices internacionales aplicables a la eva­luación de aque­llas personas que aleguen haber sufrido tor­tura y ma­los tra­tos. Este do­cu­mento —que fue firmado por México—, establece los es­tán­da­res básicos que se deben atender y evaluar para las víctimas de estrés postraumático y de tortura.

Respecto de su aplicación, debemos decir que se tiene la idea errónea de que el estrés pos­trau­má­ti­co tiene que ser la principal consecuencia de la tortura, lo cual no es necesa­ria­men­te cierto. Recuerdo haber platicado el tema con Benjamín Domínguez Trejo, ex­po­nién­do­le que el estrés postraumático no siem­pre obe­dece a cir­cuns­tan­cias derivadas de tortura.
Por ejemplo, el estrés postrau­má­ti­co que su­fra una persona acusada de un delito y que se encuentre en prisión puede obedecer sólo a esa condición y no a que haya sido torturado. Por el contrario, tam­bién debe decirse que la ausen­cia de estrés no determina la no responsabilidad.

Por lo anterior tiene que existir gran cuidado en el diagnóstico que se emita. Pre­cisamente, este libro resul­ta va­lio­so por la información teó­rica y práctica que ofrece a cada uno de los diferentes es­pe­cia­lis­tas que participan en el diag­nós­ti­co del estrés postraumático. Particularmente, considero que será una herramienta de utilidad para quienes es­tán interesados en la de­fen­sa de los derechos humanos, por lo cual me congratulo y felicito a los autores.
 
  articulos  
_____________________________________________________________
     
 

Texto leído en la presentación por Luis Raúl González Pérez, abogado general de la UNAM.

 

 

como citar este artículo
Domínguez Trejo, Benjamín. (2009). Estrés postraumático. Ciencias 95, julio-septiembre, 76. [En línea]
     

 

       
 
  menu2
               
  112

 

Los laberintos del NO en la creación, a propósito de Bartleby y compañía de Enrique Vila-Matas

Ana María Cetto

   
   
     
                     
                     
En 1825, el Servicio Postal de Estados Unidos creó una ofi­ci­na especial (Dead Letter Office) adonde iban a parar las in­nu­me­rables cartas que no podían entregarse a su destinatario. De una de sus filiales fue des­pe­dido Bartleby antes de que lo contratara un abogado mayor, dueño de una oficina en Wall Street. La obra de Herman Melville, Bartleby el escribano, publicada en 1853, cuenta la historia de este personaje singular, a quien cada vez que se le encargaba un trabajo res­pon­día de entrada: preferiría no hacerlo. Melville escribió es­ta novela porque su obra maestra Moby Dick no se vendía tan bien como había esperado.
Ahora Enrique Vila-Matas ha escrito una obra motivado por la historia del personaje de Melville. El libro Bartleby y compañía habla de aquellos que dejan de escribir e indaga sus razones para preferir no ha­cerlo. Con este fin, rastrea el amplio espectro del síndrome de Bartleby en la literatura: la atracción negativa o la pulsión por la nada que hace que ciertos creadores, aun teniendo una conciencia literaria muy exigente —o quizás precisa­men­te por eso— no lleguen a es­cribir nunca, o bien escriban uno o dos libros y luego re­nun­cien a la escritura, o bien tras iniciar con éxito una obra, que­den un día literalmente pa­ra­li­zados para siempre.

El autor explora los vericue­tos del laberinto del no, donde se encuentra, según él, “el úni­co camino que queda abier­to a la auténtica creación literaria, una tendencia que se pregunta qué es la escritura y dón­de está, y que merodea alrededor de la imposibilidad de la misma”. Sólo de este la­be­rin­to puede surgir la escritura por venir, afirma, por esto, en vez de un libro escribió un compendio de notas de pie de página, las notas al texto invisible, al libro ausente —pero no necesariamente por ello inexistente.

En la negación del escritor, fraguada en la obra de una cons­telación de autores que in­clu­ye a Hoffmannsthal, Kaf­ka, Musil, Beckett, Rimbaud y Salinger; en el mundo de Ro­bert Walser el copista y Juan Rulfo el oficinista, hay que ras­trear ese camino que queda abierto a la auténtica creación literaria. Y en el proceso se des­cu­bre que los motivos para no escribir o dejar de hacerlo pue­den ser muy variados.

A los 19 años Rimbaud con­sideró que ya había escrito toda su obra y cayó en un si­len­cio literario que duraría has­ta el final de sus días, mien­tras Guy de Maupassant dejó de es­cribir por creerse inmortal; Clara Whoryzek (La lám­pa­ra íntima, 1892) concluyó que era más sensato no escribir los libros que había pensado por­que eran como pompas de jabón que no se dirigían a nadie, de modo que no serían leídos ni por sus amigos; a Juan Rul­fo se le murió el tío Celerino, que era quien le contaba las historias; y el triestino Bobi Baz­len consideraba que casi todos los libros escritos no son más que notas de pie de pá­gina, infladas hasta convertirse en volúmenes. por lo que, después de haber leído todos los libros en todas las lenguas, y cuando sus amigos creían que acabaría por escribir un li­bro que sería una obra maestra, escribió sólo sus Note sen­za testo (1970).

A veces se abandona la es­critura porque se cae en un es­tado de locura del que ya no se recupera jamás, como es el caso de Hölderlin, quien estuvo encerrado los últimos 38 años de su vida en la buhardilla de un carpintero escribiendo versos raros e incomprensibles. Kafka, por su parte, no cesó de aludir a la imposibilidad esen­cial de la materia literaria, sobre todo en sus Diarios; mien­tras Wittgenstein, quien sólo escribió dos libros —el célebre Trac­tatus y un vocabulario rural aus­tria­co— externó en más de una ocasión la dificultad que para él entrañaba exponer sus ideas.

Otros grandes escritores se han visto paralizados ante las dimensiones absolutas que con­lleva toda creación. Algunos llegan al extremo de ser ágrafos, que sin embargo, paradójicamente, pueden constituir literatura. Manuel Pénabou, en Por qué no he escrito nin­gu­no de mis libros, explica: “so­bre to­do no vaya usted a creer, lec­tor, que los libros que no he es­crito son pura nada. Por el con­trario (que quede claro de una vez), están como en suspensión en la literatura universal”.

Hay quienes sí escriben, pe­ro para crear personajes que se pierden en el laberinto del no. En el siglo xix, Hoffmann y Balzac crean pintores que no pueden pintar más que un frag­men­to de una figura soñada como perfecta. Gide construye un personaje que recorre to­da una novela (Paludes, 1895) con la intención de escribir un libro que nunca escribe. La pa­radigmática Carta de Lord Chan­dos dirigida a Francis Ba­con (Hoffmannstal, 1902) des­cri­be la crisis de lenguaje de su autor, que no le permite expre­sar adecuadamente la experiencia humana y lo hace prometer que no escribirá nunca más una sola línea. Más tarde, Musil convierte casi en un mito la idea de un “autor improductivo”’ en El hombre sin atributos (1930-1942). Monsieur Tes­te, el alter ego de Valéry, no sólo ha renunciado a escribir, sino que incluso ha arrojado su biblio­te­ca por la ventana.

Claro está que hay quienes usan algún truco para negarse a escribir por temporadas o para siempre. Como Stendhal, quien estuvo aguardando años a que le llegara la inspi­ra­ción, o el poeta Pedro Garfias, quien pasó una infinidad de tiempo sin escribir una sola línea porque buscaba un adjetivo. En realidad más de 99% de la humanidad se inclina, al más puro estilo Bartleby, por no escribir: porque no sabe, o cree que no sabe, o no tiene ganas, o prefiere hacer otra cosa.
 
También hay los que se opo­nen activamente a la es­cue­la de Bartleby, legándonos miles de páginas escritas. Al­gu­nos de ellos recorren con mu­cho éxito el laberinto del SÍ. Recordemos a Georges Sime­non, el más prolijo de los auto­res en lengua francesa, quien en el curso de 60 años publicó 193 novelas con su nombre y 190 con diferentes seudó­ni­mos, 25 obras autobiográficas y más de un millar de cuen­tos, además de obras menores. Con orgullo hablaba de las téc­nicas que empleó para incrementar poco a poco su eficien­cia hasta permitirle escribir ocho cuentos en un día.
Decía Wittgenstein que si al­gún día escribiera el libro de las verdades éticas —expre­san­do con frases claras y compro­bables qué es el bien y qué es el mal en un sentido absoluto— ese libro haría estallar to­dos los demás libros en mil pedazos. Enorme ambición, da­do el antecedente de las Ta­blas de la Ley de Moisés, cuyas líneas se revelaron incapa­ces de comunicar la grandeza de su mensaje. Al respecto apun­ta Vila-Matas: “qué es­pan­to si sólo existiera el libro de Wit­tgenstein, y nosotros tuviéramos que acatar ahora su ley. Mejor quedarse con uno de los dos que escribió Rulfo que con el que, gracias a Moisés, no es­cri­bió Wittgenstein”. El libro ausente de Wittgenstein es, afortunadamente, un libro imposible. Parafraseando a D.

At­tala, el simple hecho de que existan millones de libros es la prueba de que ninguno con­tie­ne la verdad total.
 
“Escribir no es más que re­nun­ciar a todo lo que no se pue­de escribir”, parecen decirnos todos estos escritores. Pe­ro a veces es necesaria la renuncia. Escribir es una actividad de alto riesgo y, en este sentido, la obra escrita, si quiere tener validez, debe abrir nuevos caminos o perspectivas y tratar de decir lo que aún no se ha dicho. Porque pueden existir miradas nuevas sobre los nue­vos y los viejos objetos, y por lo tanto es mejor correr el ries­go y escribir, que no hacerlo.
El autor que trata de ampliar las fronteras presentes de lo humano puede fracasar. En cambio, dice Vila-Matas, “el autor de productos literarios con­ven­cionales nunca fra­ca­sa, no corre riesgos, le basta apli­car la fórmula de siempre, su fórmula de académico aco­mo­dado, su fórmula de ocul­ta­miento”.

Qué familiar nos suena es­to, si pensamos en la tarea de escribir y publicar en ciencia. Una actividad también de alto riesgo, cuyo producto, si quie­re tener validez, debe abrir nue­vos caminos o brindar pers­pec­ti­vas novedosas; decir algo que aún no se ha dicho. Y también en el campo de la ciencia hay ejemplos paradigmáticos de autores que han optado por perderse en los laberintos del no. Kurt Gödel, cuya obra ha tenido un im­pac­to revolucionario en la lógica de las matemáticas, publicó en vida una escasa docena de tra­ba­jos. Prácticamente a partir de su ingreso al Insti­tu­to de Estudios Avanzados de Princeton, a los 40 años de edad, dejó de publicar del todo. Lo que no ha impedido que se produzca una colección de cinco volúmenes con sus obras completas, que incluyen manuscritos y notas no publicadas, ampliamente comenta­das por terceros.

Peter Higgs publicó apenas un puñado de artículos de investigación durante su vi­da activa como físico teórico —tres de ellos acerca del mecanismo que confiere masa a las par­tí­culas elementales, que aho­ra lleva su nombre. A partir de entonces resistió la cre­cien­te presión institucional por publicar, con el argumento de que lo haría cuando tuviera otra vez algo nuevo que co­municar. Lo que no ha im­pe­di­do que otros autores hayan publicado ya más de 8 400 ar­tículos con el nombre de Higgs en el título.Pero a diferencia de los es­­cri­tores del club de Bar­tle­by, para la mayoría de los cien­tí­fi­cos es demasiado grande el ries­go que se corre al no pu­bli­car. Antes es pre­fe­ri­ble per­der­se en la espiral del sí —o me­jor di­cho, del y ­sí…— donde lo importante no es callar, sino por el contrario, tra­tar de decir­lo todo, aun a ries­go de repe­tirse.

¿Podría alguien alguna vez pretender, a la manera de Witt­genstein, escribir el libro de las verdades científicas que ha­ría estallar todos los demás ­libros en mil pedazos? ¿Acaso sería posible, mediante una gran obra semejante a las Tablas de Moi­sés, comunicar la grandeza del mensaje entero de la natu­raleza?
También en este caso el gran libro ausente es un libro imposible, pues el simple hecho de que existan millones de libros (y artículos) es la prueba de que cada uno de ellos contiene cuando mucho sólo frag­men­tos de la verdad. Siguiendo el símil, podría decirse que hacer ciencia implica renunciar a la posibilidad de conocer la verdad total. Ya que se han perdido las ilusiones de una totalidad representable, hay que reinventar continuamente nuestros modos de exploración y representación. Seguiremos haciendo ciencia porque la na­turaleza, en su inmenso mis­te­rio, se dará a conocer sólo asin­tóticamente, nunca de ma­nera plena.
 
 
  articulos  
Referencias bibliográficas
 
Vila-Matas, Enrique. 2000. A propósito de Bartleby y com­pañía. Anagrama, Barcelona.
 
_____________________________________________________________
     
 
Ana María Cetto
Instituto de Física, Universidad Nacional Autónomal de México.
 

como citar este artículo

Cetto, Ana María. (2009). Los laberintos del NO en la creación a propósito de Bartleby y compañía de Enrique Vila-Matas. Ciencias 95, julio-septiembre, 72-74. [En línea]
     

 

       
 
  menu2
               
 
112
 

Algo que debemos saber acerca de los virus... o la gripe que viene

 

Luisa Alba Beatriz Rodarte, Claudia Segal,
Víctor Valdez y Alfonso Vilchis
   
   
     
                     
                     
Los virus no están incluidos den­tro de los cinco reinos de la vida, ¿por
qué?, porque son en­tidades biológicas constitui­das sólo por ácidos nucleicos y pro­teínas y ocasionalmente al­gu­nos lípidos de la membrana que se llevan de las células que infectan, es decir, están for­ma­dos únicamente por una o algunas proteínas (la cápside o cubierta) y material ge­né­tico (adn o arn), que cons­ti­tuye sus genes. Los virus no tie­nen estructura celular, no pue­den mo­verse, no pueden llevar a ca­bo —en forma indepen­dien­te— su metabolismo, por tan­to pue­den ser denominados “parásitos genéticos”, lo cual sig­ni­fi­ca que utilizan la maquinaria genética de su hospede­ro (célula que infectan) para su propia supervivencia.
 
 
Durante el proceso infec­cio­so, los virus pueden seguir dos estrategias principales de reproducción: virulenta y la­ten­te. La modalidad virulenta involucra, después de la liberación del material genético del virus en el interior de la célula, la síntesis de proteínas víricas necesarias para la replicación de su genoma y la conformación de sus estructuras protei­cas de recubrimiento, utilizando la maquinaria celular. Esto da lu­gar a la formación de múltiples partículas virales que serán liberadas a partir de la célula hospedera, prosiguiendo el pro­ceso infectivo (por ejem­plo, el virus de la influenza). Por otra parte, la modalidad de latencia radica en el hecho de que el material genético del virus no se replica de manera inme­diata, sino que puede permanecer en el citoplasma como episoma (por ejemplo, virus del herpes) o integrarse en el genoma de la célula hospedera (por ejemplo, retrovirus). Ba­jo ciertas condiciones, el geno­ma del virus comienza a replicarse y a dirigir la síntesis de pro­teínas virales, generando nuevas partículas y continuando el desarrollo infeccioso.
 
Como consecuencia de su mecanismo de multiplicación, al­gunos virus muestran una al­ta variabilidad que les permite generar múltiples variantes que eventualmente le llevarán a eva­dir tanto los sistemas de defensa del hospedero como los mecanismos farmacológicos de contención terapéutica.
A lo largo de la evolución, la naturaleza ha creado y preservado distintos tipos de virus: con respecto de los ácidos nu­cleicos los hay cuyo material genético es adn o bien arn, y pueden ser de cadena senci­lla o doble. Los ácidos nucleicos pueden estar protegidos por varios monómeros de una misma proteina, como ocurre en los virus filamentosos (por ejemplo, el virus del mosaico del tabaco); pueden estar en­vuel­tos dentro de una figura ico­sahédrica compuesta por dis­tin­tas subunidades proteicas, como los virus esferoidales (por ejemplo, el adenovirus) o pueden estar formados por estructuras proteicas mucho más complejas para proteger los ácidos nucleicos de orga­nis­mos como los bacteriófagos, cuya estructura se conoce co­mo esferoidal con cola, o virus “envueltos”, en los que la cápside está rodeada por una cubierta de doble capa lipídica con proteínas embebidas. Las pro­teínas están codificadas por el genoma viral, sin embar­go los lípidos de la membrana se de­rivan de las membranas de las células anfitrionas. Los virus en­vueltos son comunes en el mundo animal, ejemplos son los coronavirus y los virus de la influenza.
 
Virus de la influenza

Los virus de influenza pertene­cen a la familia Orthomyxoviridae; tienen un genoma de arn de una sola cadena fragmentado en 7 u 8 segmentos, con capacidad para codificar unas 10 proteínas, y la cápside es he­li­coi­dal y posee una envol­tu­ra lipídica en una estructura de aproximadamente 100 nanómetros de diámetro. En su envoltura se encuentran varias copias de tres proteínas: la pro­teína de membrana (m) y las glucoproteínas hemaglutinina (h) y neuroaminidasa (n). La proteína m, junto con el ácido nucleico, permiten clasificar es­tos virus como a, b o c; sólo los dos primeros tipos pueden producir epidemias. De las pro­teínas h y n se conocen distintos subtipos para la influenza a, 15 para h (de h1 a h15) y 9 para n (de n1 a n9), y es su combinación la que da lugar a las diferentes cepas vi­ra­les; en cambio, para la in­fluen­za b sólo hay un subtipo de h y uno de n
(figura 1).
 
 
FIG1
 
 
En 1918 y 1919, una pan­demia de influenza ah1n1 co­bró la vida de 20 millones de per­sonas en todo el orbe; a me­dia­dos de los cincuentas y a mediados de los setentas volvieron a ocurrir epidemias li­mitadas de otros subtipos de vi­rus de la influenza.

Durante el año 2003 se des­cri­bieron varios casos de muer­te en humanos por una en­fermedad respiratoria no iden­ti­fi­cada en China. Más tar­de fue aislado en los pacientes una forma de virus aviar pre­sen­te hasta entonces única­men­te en aves, el h5n1. En ese momento se describió an­te el mundo la nueva capacidad adquirida por este virus aviar de transmitir la infección viral de ave a hombre y de hom­bre a hom­bre. Esta infección viral se denomina Síndrome agudo respiratorio severo (SARS).

Desde entonces ha habido brotes de influencia aviar alrededor del mundo: en Europa cen­tral se presentó como in­fluen­za aviar altamente pa­tó­ge­na, el h7n7; más tarde se reportó en Asia en pollos y hu­manos, el h5n1, diseminán­do­se hasta llegar a reconocerse casos del mismo virus que infectó también cerdos en Estados Unidos; de esta manera las agencias de salud mundial pusieron en alerta a los países prediciendo una probable pan­demia de influenza, para lo cual se hizo una llamada al planeta a estar preparados para una con­tingencia mayor; los labora­torios farmacéuticos se dieron a la tarea de investigar la producción de una vacuna que pu­diera contrarrestar la posible infección viral de influenza.

Muchas vacunas se desa­rro­llaron sobre virus aislados y reconocidos como patógenos, pero la capacidad de mutación, cambio o adaptación de los virus para mantener su via­bilidad, ha hecho de estas va­cunas únicamente drogas ca­paces de disminuir los sín­to­mas pero que no contrarrestan en un 100% la infección viral.

Hay tres modos posibles de que virus aviares infecten a los humanos: directamente, el virus de ave acuática puede infectar a seres humanos; una cepa de influenza aviar entra al hospedero intermediario y de ahí a un humano sin sufrir ma­yores cambios; y un virus aviar puede ser transmitido desde un ave acuática (reservorio de es­tos virus) a un cerdo, hos­pe­dero intermediario, que simul­tá­nea­men­te es infectado por un virus de influenza huma­na. Al ocurrir la liberación de los virus, estos pueden llevar genes de las distintas cepas que infectaron, permitiendo la in­fec­ción de un humano a otro (figura 2).
 

FIG2

 
Vacunas

La Organización Mundial de la Salud ha establecido que “la va­cunación es la principal medida para prevenir la influenza y reducir el impacto de la epi­de­mia”. Las vacunas contra la influenza son de dos clases: inac­tivadas y vivas-atenuadas. Las vacunas inactivadas pueden, a su vez, consistir en tres cla­ses: a) el virus inactivado por formaldehído; b) el virus par­cial­mente fragmentado por un de­tergente, o c) una preparación que contiene únicamente las dos proteínas de la superficie del virus, la hemaglutinina y la neuroaminidasa; esta vacuna también se conoce como vacuna de subunidades. Por su parte, las vacunas vivas-ate­nua­das consisten en prepa­ra­cio­nes del virus atenuado o de­bi­lita­do en su virulencia por cul­tivos seriados en medios específicos.

Las proteínas de la su­per­fi­cie del virus —hemaglutinina y neuroaminidasa—, que pueden ser reconocidas por el ­sis­te­ma inmune de los seres ­humanos, se denominan antígenos.

La eficacia de una vacuna re­si­de en la capacidad de los antígenos de inducir una respuesta inmunitaria mediante la formación de anticuerpos y cé­lu­las de defensa en el ser humano.

Debido a la alta variabilidad genética que presenta el virus de la influenza tipo A, sus proteínas de superficie también presentan variaciones antigénicas, por lo que la aplicación de una vacuna o, en su caso, la inmunidad que una persona adquiere después de contraer la infección, frente a un tipo es­pe­cí­fi­co del virus de la in­fluen­za A no protege total­men­te contra variantes antigénicas o genéticas del mismo virus. Es­to explica el surgimiento de brotes epidémicos y, por otra parte, la necesidad de la revacunación cada determinado tiempo.
 
  articulos
Referencias bibliográficas

National Institute of Allergy and Infectious Diseases (niaid) de nih, en:
http://www3.niaid.nih.gov/topics/Flu/Research/basic/AntigenicShiftIllustration.htm
Stryer, L., Berg, J.M. y J. L. Tymoczko. 2006. Bioche­mis­try. W. H. Freeman, sexta edición.
Guan, Y., Shortridge, K. F., Krauss S., Li, P.H., Ka­wao­ka, Y. y R. G. Webster. 1996. en Journal of virology, vol. 70 núm. 11, pp. 8041-8046.
Webby, R. J. y Webster, R. G. 2003. En Science, vol 302, 28.
Lewin, Benjamin. Genes ix. Jones & Bartlett Pu­blish­ers, novena edición.
 
_____________________________________________________________
     

Loisa Alba, Beatriz Rodarte, Claudia Segal, Víctor Valdez yAlfonso Vilchis
Facultad de Ciencias, Universidad Nacional Autónoma de México.
 

como citar este artículo

Alba Lois, Luisa y Rodarte Beatriz, Segal Claudia, Valdés Víctor, Vilchis Alfonso. (2009). Algo que debemos saber acerca de los virus.. o la gripa que viene. Ciencias 95, julio-septiembre, 62-65. [En línea]
   

 

       
 
  menu2
PDF 
               
  112

 
El libro de la naturaleza en Galileo
 
Italo Calvino
   
   
     
                     
                     
La metáfora más famosa en la obra de Galileo —y que con­tie­ne en sí el núcleo de la nue­va filosofía— es la del libro de la naturaleza escrito en len­guaje matemático.
“La filosofía está escrita en ese libro enorme que tenemos continuamente abierto de­lante de nuestros ojos (hablo del universo), pero que no puede entenderse si no apren­demos primero a comprender la lengua y a conocer los caracteres con que se ha escrito. Está es­cri­to en lengua matemática, y los caracteres son triángulos, círculos y otras figuras geo­mé­tricas sin los cua­les es humanamente imposible entender una palabra; sin ellos se deam­bula en vano por un laberinto oscuro” (Saggiatore [Ensayista] 6).
 
La imagen del libro del mun­do tenía ya una larga his­to­ria antes de Galileo, desde los ­filósofos de la Edad Media has­ta Nicolás de Cusa y Mon­­taigne, y la utilizaban contemporáneos de Galileo como Fran­cis Bacon y Tommaso Cam­pa­ne­lla. En los poemas de Campanella, publicados un año antes que el Saggiatore, hay un so­ne­to que empieza con estas pa­labras: “El mundo es un libro don­de la razón eter­na escribe sus propios conceptos”.

En la Istoria e dimostrazioni intomo alie macchie solari [His­toria y demostraciones acer­ca de las manchas solares] (1613), es decir diez años antes del Saggiatore, Galileo oponía ya la lectura directa (libro del mundo) a la indirecta (libros de Aristóteles). Este pa­sa­je es muy interesante porque en él Galileo describe la pin­tu­ra de Archimboldo emi­tien­do juicios críticos que valen para la pintura en general (y que prue­ban sus relaciones con ar­tis­tas florentinos como Ludo­vi­co Cigoli), y sobre todo refle­xiones sobre la combinatoria que puede añadirse a las que se leerán más adelante.

“Los que todavía me con­tra­di­cen son algunos defen­so­res severos de todas las mi­nu­cias peripatéticas, quienes, por lo que puedo entender, han sido educados y alimentados desde la primera infancia de sus estudios en la opinión de que filosofar no es ni puede ser ­si­no una gran práctica de los tex­tos de Aristóteles, de modo que puedan juntarse muchos rá­pi­damente aquí y allá y en­sam­blar­los para probar cualquier problema que se plantee, y no quieren alzar los ojos de esas páginas, como si el gran libro del mundo no hubiera sido escrito por la naturaleza pa­ra que lo lean otras personas además de Aristóteles, cuyos ojos habrían visto por toda la posteridad. Los que se inclinan ante esas leyes tan es­tric­tas me recuerdan ciertas cons­tric­cio­nes a que se someten a ve­ces por juego los pintores capri­cho­sos cuando quieren re­­presentar un rostro humano, u otras figuras, ensamblando ya únicamente herramientas agrícolas, ya frutos, ya flores de una u otra estación, extravagancias que, propuestas co­mo juego, son bellas y agra­da­bles y demuestran el gran ta­len­to del artista pero que si alguien, tal vez por haber dedi­cado todos sus estudios a esta manera de pintar, quisiera sa­car de ello una conclusión uni­versal diciendo que cualquier otra manera de imitar es imperfecta y criticable, se­gu­ra­mente el señor Cigoli y los otros pintores ilustres se reirían de él”.

La aportación más nueva de Galileo a la metáfora del libro del mundo es la atención a su alfabeto especial, a los “ca­racteres con que se ha escrito”. Se puede pues precisar que la verdadera relación metafórica se establece, más que entre mundo y libro, entre mun­do y alfabeto. Según este pasaje del Dialogo sopra i due mas­simi sistemi del mondo [Diá­logo sobre los dos máximos sistemas del mundo] (jornada II) el alfabeto es el mun­do: “Tengo un librito, mucho más breve que los de Aristó­te­les y Ovi­dio, en el que están con­te­ni­das todas las ciencias y cualquiera puede, con poquísimo estudio, formarse de él una idea per­fec­ta: es el alfabeto; y no hay duda de que quien sepa acoplar y ordenar esta y aquella vo­cal con esta o aquella consonante obtendrá las respues­tas más verdaderas a todas sus dudas y extraerá ense­ñan­zas de todas las ciencias y todas las artes, justamente de la misma manera en que el pin­tor, a partir de los diferentes colores primarios de su pa­leta y juntando un poco de ­éste con un poco de aquél y del otro, consigue representar hom­bres, plantas, edificios, pá­jaros, peces, en una palabra, imi­tar todos los objetos visibles sin que haya en su paleta ni ojos, ni plu­mas, ni escamas, ni hojas, ni guijarros: más aún, es necesario que ninguna de las cosas que han de imitarse, o parte de alguna de esas cosas, se encuentre efectiva­men­te entre los colores, si se quie­re representar con esos colores todas las cosas, que si las hubiera, plumas por ejem­plo, no servirían sino para pintar pájaros o plumajes”.

Cuando habla de alfabeto, Galileo entiende pues un sis­te­ma combinatorio que puede dar cuenta de toda la multiplicidad del universo. Incluso aquí lo vemos introducir la com­pa­ra­ción con la pintura: la com­bi­natoria de las letras del al­fabe­to es el equivalente de aque­lla de los colores en la paleta. Ob­sérvese que se trata de una com­binatoria a un plano diferente de la de Archimboldo en sus cuadros, citada antes: una combinatoria de objetos ya dotados de significado (cua­dro de Archimboldo, collage o combinación de plumas, centón de citas aristotélicas) no pue­de representar la totalidad de lo real; para lograrlo hay que recurrir a una combinatoria de elementos minimales, co­mo los colores primarios o las letras del alfabeto.
En otro pasaje del Dialogo (al final de la jornada I), en que hace el elogio de las grandes invenciones del espíritu hu­ma­no, el lugar más alto corres­pon­de al alfabeto. Aquí se habla otra vez de combinatoria y también de velocidad de co­mu­nicación: otro tema, el de la velocidad, muy importante en Galileo.

“Pero entre todas esas invenciones asombrosas, ¿cuan eminente no habrá sido el espí­ritu del que imaginó el modo de comunicar sus más recón­di­tos pensamientos a cualquier otra persona, aunque es­tu­vie­ra separada por un gran lapso de tiempo o por una larguísima distancia, de hablar con los que están en las Indias, con los que todavía no han nacido y no nacerán antes de mil años, o diez mil? ¡Y con qué facilidad! ¡Mediante la combinación de vein­te caracteres sobre una pá­gina! Que la invención del al­fa­be­to sea pues el sello de to­das las admirables inven­cio­nes humanas…”

Si a la luz de este último tex­to releemos el pasaje del Sag­giatore que he citado al co­mien­zo, se entenderá mejor cómo para Galileo la matemática y sobre todo la geometría desempeñan una función de alfabeto. En una carta a Portu­mo Liceti de enero de 1641 (un año antes de su muerte), se precisa con toda claridad este punto.
“Pero yo creo realmente que el libro de la filosofía es el que tenemos perpetuamente abierto delante de nuestros ojos; pero como está escrito con caracteres diferentes de los de nuestro alfabeto, no pue­de ser leído por todo el mundo, y los caracteres de ese libro son triángulos, cuadrados, círcu­los, esferas, conos, pirámi­des y otras figuras matemáticas ade­cuadísimas para tal lectura”.

Se observará que en su enu­meración de figuras, Galileo a pesar de haber leído a Ke­pler, no habla de elipses. ¿Por qué en su combinatoria debe partir de las formas más simples? ¿o por qué su batalla con­tra el modelo tolemaico se libra todavía en el interior de una idea clásica de proporción y de perfección, en la que el círculo y la esfera siguen sien­do las imágenes soberanas? El problema del alfabeto del li­bro de la naturaleza está vincu­lado con el de la “nobleza” de las formas, como se ve en este pasaje de la dedicatoria del Dialogo sopra i due massimi sistemi al duque de Toscana: “El que mira más alto, más ­altamente se diferencia del vul­go, y volverse hacia el gran libro de la naturaleza que es el verdadero objeto de la filoso­fía, es el modo de alzar los ojos, en cuyo libro aunque todo lo que se lee, como hecho por el Artífice omnipotente, es su­mamente proporcionado no por ello es menos acabado y digno allí donde más aparecen, a nuestro entender, el trabajo y la industria. Entre las cosas na­turales aprehensibles, la cons­titución del universo puede, a mi juicio, figurar en primer lugar, porque si ella, como con­tinente universal, supera toda cosa en grandeza también, co­mo regla y sostén de todo, de­be superarla en nobleza. No obstante, si jamás llegó alguien a diferenciarse de los otros hom­bres por su intelecto, Tolo­meo y Copémico fueron los que tan altamente supieron leer, escrutar y filosofar sobre la constitución del mundo”.

Una cuestión que Galileo se plantea varias veces para apli­car su ironía a la antigua ma­ne­ra de pensar es ésta: ¿aca­so las formas geométricas regulares son más nobles, más perfectas que las formas natu­rales empíricas, accidentadas, etcétera? Esta cuestión se dis­cu­te sobre todo a propósito de las irregularidades de la Lu­na: hay una carta de Galileo a Ga­llanzone Gallanzoni en­te­ra­men­te consagrada a este tema, pe­ro bastará citar este pa­saje del Saggiatore: “En lo que me concierne, como nunca he leído las crónicas particulares y los títulos de nobleza de las fi­gu­ras, no sé cuáles son más o me­nos nobles, más o me­nos perfectas que las otras; creo que todas son antiguas y nobles, a su manera, o mejor dicho, que no son ni nobles y per­fectas, ni innobles e im­per­fectas, porque cuando se tra­ta de construir, las cuadradas son más perfectas que las esféricas, pero para rodar o pa­ra los carros son más perfectas las redondas que las triangulares. Pero volviendo a Sarsi, dice que yo le he dado argu­men­tos en abundancia para probar la asperidad de la superficie cóncava del cielo, por­que he sostenido que la Luna y los demás planetas (también cuerpos celestes, más nobles y más perfectos que el cielo mismo) son de superficie mon­tuosa, rugosa y desigual; pero si es así, ¿por qué no ha de en­contrarse esa desigualdad en la figura del cielo? A esto el propio Sarsi puede responder lo que respondería a quien quisie­se probar que el mar debería estar lleno de espinas y escamas porque así lo están las ba­lle­nas, los atunes y los otros peces que lo pueblan”.

Como partidario de la geo­me­tría, Galileo debería defender la causa de la excelencia de las formas geométricas, pero como observador de la natura­leza, rechaza la idea de una per­fección abstracta y opone la ima­gen de la Luna “montuo­sa, rugosa (aspra, áspera), de­si­gual” a la pureza de los cielos de la cosmología aristotélico-tolemaica.

¿Por qué una esfera (o una pirámide) habría de ser más per­fecta que una forma natural, por ejemplo la de un caballo o la de un saltamontes? Esta pre­gunta recorre todo el Dia­lo­go sopra i due massimi sistemi. En este pasaje de la jornada II encontramos la comparación con el trabajo del artista en es­te caso el escultor.
“Pero quisiera saber si al re­pre­sentar un sólido se tro­pie­za con la misma dificultad que al representar cualquier otra figura, es decir, para explicarme mejor, si es más difícil que­rer reducir un trozo de mármol a la figura de una esfera perfecta, que a una pirámide perfecta o a un caballo perfecto o a un saltamontes perfecto”.
 
Una de las páginas más be­llas y más importantes del Dia­logo (jornada I) es el elogio de la Tierra como objeto de al­te­ra­cio­nes, mutaciones, generaciones. Galileo evoca con es­panto la imagen de una Tie­rra de jaspe, de una Tierra de cris­tal, de una Tierra incorrupti­ble, incluso transformada por la Medusa.

“No puedo oír sin gran asom­bro y, diría, sin gran re­pug­nan­cia de mi intelecto, que se atribuya a los cuerpos na­tu­ra­les que componen el universo, como título de gran nobleza y perfección, el ser impasibles, inmutables, inalterables, etc., y por el contrario que se estime una grave imperfección el hecho de ser alterables, engendrables, mudables, etc. Por mi parte, considero la Tierra muy noble y muy digna de ser admirada precisamente por las muchas y tan diversas altera­cio­nes, mutaciones, genera­cio­nes, etc., que en ella cons­tan­temente se producen y si no estuviera sujeta a ningún cam­bio, si sólo fuera un vasto desierto o un bloque de jaspe, o si, después del diluvio, al retirarse las aguas que la cubrían sólo quedara de ella un in­men­so globo de cristal donde no naciera ni se alterase o mu­dase cosa alguna, me parecería una masa pesada, inútil pa­ra el mun­do, perezosa, en una pala­bra, superflua y como extraña a la naturaleza, y tan diferente de ella como lo sería un animal vivo de un animal muerto, y lo mismo digo de la Luna, de Júpiter y de todos los otros globos del mundo […]. Los que exaltan tanto la incorruptibilidad, la inalterabilidad, etc., creo que se limitan a decir esas co­sas cediendo a su gran deseo de vivir el mayor tiempo posible y al terror que les inspira la muer­te, y no comprenden que si los hombres fuesen inmortales, no hubieran tenido oca­sión de venir al mundo. Es­tos merecerían encontrarse con una cabeza de Medusa que los transmutase en estatuas de jaspe o de diamante para ha­cerlos más perfectos de lo que son.”
 
Si se relaciona el discurso sobre el alfabeto del libro de la naturaleza con este elogio de las pequeñas alteraciones, mu­taciones, etc., se ve que la ver­da­de­ra oposición se sitúa entre inmovilidad y movilidad y que Galileo toma siempre par­tido contra una imagen de la inalterabilidad de la naturaleza, evo­cando el espanto de la Me­dusa. (Esta imagen y este argu­mento estaban ya presentes en el primer libro astronómico de Galileo, Istoria e dimostrazioni intorno alie macchie solarí). El alfabeto geométrico o matemático del libro de la na­turaleza será el que, debido a su capacidad para descom­po­ner­se en elementos mínimos y de representar todas las formas de movimiento y cambio, anule la oposición entre cielos inmutables y elementos te­rres­tres. El alcance filosófico de esta operación queda bien ilustrado por este cambio de ré­plicas del Diálogo entre el to­le­maico Simplicio y Salviati, por­tavoz del autor, en que vuel­ve a aparecer el tema de la “nobleza”: “simplicio: Esta manera de filosofar tiende a la sub­ver­sión de toda la filosofía na­tu­ral, lo perturba todo, introduce el de­sorden en el cielo, la Tierra, el universo entero. Pero creo que los cimientos del peripatetismo son tales que no hay peligro de que sobre sus ruinas ja­más se puedan edificar nuevas ciencias. salviati: No os preo­cupéis ni por el cie­lo ni por la Tierra; no temáis su subversión, ni tampoco la de la filosofía, porque en cuan­to al cielo, vues­tros temores son vanos si lo consideráis ­inalterable e impa­sible, y en cuanto a la Tierra, tra­tamos de ennoblecerla y de perfeccionarla cuando in­tentamos hacerla semejante a los cuerpos celestes y en cier­to modo a ponerla casi en el cielo de donde vuestros filóso­fos la han desterrado”.
  articulos  
Nota

Texto tomado de: Italo Calvino. Por qué leer a los clásicos. Tusquet, Barcelona, 2005.
 
_____________________________________________________________
     
 
Italo Calvino
Escritor italiano que siempre mostró gran interés por la ciencia. Falleció en 1985.
 

como citar este artículo

Calvino, Italo. (2009). El libro de la naturaleza en Galileo. Ciencias 95, julio-septiembre, 50-53. [En línea]
     

 

       
 
  menu2
               
 
112
 
Baptistina y los dinosaurios
 
Héctor T. Arita
   
   
     
                     
                     
Nada importa morir, pero el no vivir es horrible

Víctor Hugo, Los Miserables
 
La noche del 9 de septiembre de 1890 fue muy productiva pa­ra Auguste
Honoré Charlois. El joven astrónomo francés ob­ser­vó en aquella ocasión dos asteroides nuevos para la cien­cia, a los que bautizó, fiel a la costumbre de la época, con nom­bres femeninos: Caecilia y Baptistina. A sus 25 años, Char­lois contaba ya en su pal­marés con una extensa lista de asteroides con apelativos ta­les como Antonia, Elvira, Em­ma, Amalia y Regina. Nunca sa­bre­mos con certeza el origen de los nombres con los que Char­lois designaba a los asteroides que descubrió, pero es po­sible que “Baptistina” haya sido inspirado por el personaje de Los Miserables de Víctor Hugo. Baptistina era la herma­na del obispo Myriel, una mujer que “al envejecer adquirió lo que se podría llamar la belleza de la bondad.” Charlois murió 21 años después, asesinado por un cuñado celoso, y nunca conoció la extraordinaria his­to­ria que rodea al bólido que des­cubrió aquella noche de septiembre.

Por convención internacio­nal, el asteroide de Charlois es hoy en día conocido como 298 Baptistina, un nombre técnico cuyo número le agrega un toque de precisión científica, pe­ro que sin duda le roba también algo de su romanticismo original. 298 Baptistina es un cuerpo espacial de unos 40 ki­lómetros de diámetro que se encuentra en órbita en el cinturón de asteroides entre Mar­te y Júpiter, y no hay nada en su apariencia actual que pudiera hacernos sospechar algo de su increíble historia. Como la Baptistina de Víctor Hugo, el bólido ha adquirido con el tiempo una suerte de serena belleza que oculta su turbu­len­to pasado. La historia del origen y correrías de Baptistina fue develada hace un par de años por un equipo de investigadores de Estados Unidos y la República Checa, encabeza­dos por William Bottke.
La saga de eventos extra­ordinarios comienza hace 160 millones de años con la colisión de dos cuerpos espaciales en el cinturón de asteroides. La desintegración de uno de ellos produjo una plétora de bó­lidos de todos tamaños, desde pequeñas partículas de unos cuantos metros hasta enormes rocas de decenas de kilómetros de diámetro. El mayor de esos trozos es el actual 298 Baptistina. Muchos otros pe­da­zos se han acercado en diferentes momentos a la zona de los planetas interiores del sistema solar, dejando como evidencia de su paso una serie de cráteres de colisión en Mar­te, la Tierra y la Luna. Usando modelos en computadora, Bott­ke y sus colaboradores ras­trearon hacia el pasado los movimientos de estos cuer­pos espaciales, llamados en su conjunto la familia Baptis­tina, y demostraron un aumen­to en la frecuencia de impactos desde hace 160 millones de años, coincidiendo con la lluvia de fragmentos de la familia de Baptistina.

Bottke y sus colegas es­pe­culan que uno de los fragmentos más grandes se es­tre­lló contra la Luna hace 109 mi­llones de años, formando ­Ty­cho, uno de los cráteres más espectaculares de nuestro sa­télite. En 2001: Una Odisea del Espacio, Arthur C. Clarke ima­gi­nó este cráter de 85 ki­ló­me­tros de diámetro como el ­si­tio en donde se encontró el mo­­nolito de origen extraterrestre que propició el envío de la nave de exploración Discovery One a Jápeto, uno de los satélites más grandes de Sa­tur­no (en la versión cinemato­gráfica de Stanley Kubrick la nave se enfila rumbo a Júpiter). En el mundo de la ficción, la frag­mentación de Baptistina con­du­jo a la exploración de los planetas exteriores, a la rebelión de hal 9000, la compu­tadora a bordo del Discovery One, a la muerte de su tripula­ción y a las famosas últimas palabras del capitán David Bow­man: “¡Oh Dios!, está lleno de estrellas”.

En el mundo real, otro de los fragmentos de la familia Bap­tistina, una enorme pieza de más de diez kilómetros de diámetro, fue protagonista de una historia casi tan increíble como las imaginadas por Clarke. Se piensa que este frag­mento fue el bólido que se estrelló contra la Tierra al final del periodo Cretácico, hace 65 millones de años, provocando la extinción de los dinosaurios. La huella directa de tal colisión es el gigantesco cráter de más de 170 kilómetros de diá­me­tro centrado en la vecin­dad del pueblo costero de Chicxulub, en el norte de la península de Yucatán. Resulta fascinante pensar que este pedazo de Baptistina viajó por el es­pa­cio durante 95 millones de años antes de enfrentar su des­­tino final. Hace 160 millones de años, cuando inició su via­je el bólido, la Tierra era muy diferente a lo que es aho­ra. A finales del Jurásico, el cli­ma en la mayor parte de las tierras emergidas era tropical y los ecosistemas estaban do­mi­na­dos por gigantescas plan­tas emparentadas con las ­actuales coníferas y por sauró­podos, los gigantescos dinosaurios de larguísimos cuellos. Comenzaba entonces la edad de oro de los dinosaurios, que alcanzarían el pico de su diver­sidad unos pocos millones de años después. Hubiera sido muy difícil imaginar que en me­nos de 100 millones de años la orgullosa dinastía de los dinosaurios encontraría un catastrófico final.

Un día a finales del periodo Cretácico, hace poco más de 65 millones de años, el frag­mento de Baptistina finalmente concluyó su peregrinar por el sistema solar y se enfiló di­rectamente hacia la Tierra. Al entrar en contacto con la at­mós­fera, el bólido generó un ca­lor intensísimo y produjo una onda sonora de un volumen nunca antes escuchado en la Tierra. Segundos antes de colisionar con la superficie del pla­neta produjo una explosión equivalente a la de 100 millones de bombas de hidrógeno. De inmediato, el asteroide se de­sin­te­gró y provocó la fu­sión de la roca madre de lo que ahora es el norte de la penín­su­la de Yucatán. Se generó una onda expansiva de calor que calcinó al instante a todo ser vivo en cientos de kilómetros a la redonda. Al mismo tiem­po se produjeron tsunamis de proporciones inimaginables que generaron olas de hasta trescientos metros de alto en zonas costeras a cientos de kilómetros. Los efectos a largo plazo resultaron aún más destructivos. La Tierra en­te­ra se cubrió de una densa capa formada por partículas pro­venientes de la explosión del asteroide, así como por hu­mo derivado de los extensos fuegos producidos por la onda de calor. La temperatura pro­me­­dio del planeta disminuyó considerablemente y la foto­sín­te­sis prácticamente se de­tu­vo. En un abrir y cerrar de ojos en tiempo geológico, cerca de 80% de las especies de plan­tas y animales del mundo se ex­tinguieron. Junto con los dinosaurios no voladores, de­sa­parecieron grupos enteros de animales que fueron increí­ble­mente abundantes sólo unos pocos millones de años antes, como los amonites, los rudistas y los bivalvos inocerámidos.

Algunos paleobiólogos ven todavía con escepticismo la teo­ría de la extinción masiva cau­sada por una colisión espa­cial, y consideran la desaparición de especies durante el Cre­tácico como un proceso gra­dual. Se argumenta con fre­cuen­cia que el registro fósil mues­tra que los amonites ya se habían extinguido cuando sucedió el evento de Chic­xu­lub. Sin embargo, hallazgos re­cientes muestran claramente que algunos géneros de es­tos moluscos existieron justo hasta el momento de la colisión, de manera que su extinción coin­cide (en la escala geoló­gi­ca) con el impacto del frag­men­to de Baptistina. Más reciente­men­te, el grupo de investigación de Gerta Keller, que inclu­ye científicos mexicanos, ha se­ña­la­do que la edad estimada del evento que produjo el cráter de Chicxulub no co­rres­pon­de exactamente con el tiem­po de la extinción de finales del Cretácico. Este descubrimiento ha dado fuerza a la idea de que la extinción masiva podría haber sido provocada no por un solo cuerpo espacial sino por una serie de impactos casi simultáneos. En todo caso, si esta hipótesis resulta co­rrecta, es muy probable que todos los bólidos involucrados hayan pertenecido a la familia de Baptistina.

Parece ser que finalmente conocemos el origen del even­to que acabó con los dino­saurios y otros grupos del Cre­táci­co. Las investigaciones de Bottke y sus colaboradores nos permiten contestar, como en el juego de Clue, las pre­gun­tas básicas sobre la muerte de los dinosaurios: ¿Quién los mató?, ¿dónde?, ¿cuándo?, ¿con qué arma? Ahora sabemos que fue la hermana del obispo, en Yucatán, hace 65 millones de años y con una ex­plosión de 100 millones de megatones.
  articulos  
Referencias bibliográficas

Bottke, W. F., D. Vokrouhlichy y D. Nesvorny. 2007. “An as­teroid breakup 160 Myr ago as the probable source of the K/T impactor”, en Nature núm. 449, pp. 48-53.
Kring, D. A. 2007. “The Chicxulub impact event and its environmental consequences at the Cretaceous-Tertiary boundary”, en Palaeogeography, Palaeoclimatology, Palaeoecology, núm. 255, pp. 4-21.
 
_____________________________________________________________
     
 

Héctor T. Arita
Centro de Investigaciones en Ecosistemas, Universidad Nacional Autónoma de México.

 

 

como citar este artículo
Arita, Héctor T. (2009). Baptistina y los dinosaurios. Ciencias 95, julio-septiembre, 40-42. [En línea]
     

 

       
 
  menu2
               
 
112
 
El telescopio y su historia
 
Beatriz Sánchez y Salvador Cuevas
   
   
     
                     
                     
El telescopio es un instru­men­to que amplifica imágenes de objetos lejanos, lo que permite observarlos con mucho más detalle. Aunque su invención es atribuida al fabricante de len­tes holandés, Hans Lippershey, fue Galileo quien hace 400 años lo rediseñó y usó por primera vez con fines astronómicos, lo que dio lugar al nacimiento de la astronomía moderna. A partir de entonces el desarrollo de la ingeniería y la tecnología ha permitido obtener imágenes del universo y generar conocimientos in­ima­ginables de sus orígenes y evolución.
En términos generales, los telescopios ópticos se clasifican en refractores si están for­mados por lentes; reflectores si sus elementos son espejos; y catadióptricos cuando tienen un espejo cóncavo y una lente. El telescopio que usó Ga­lileo es un ejemplo de un re­frac­tor muy simple compuesto de un par de lentes montadas en un tubo: una llamada objetivo, por ser la más cercana al ob­je­to, y otra llamada ocular por su cercanía al ojo.
 
En 1699 Isaac Newton in­ven­tó un telescopio reflector con espejos metálicos, lo que representó un importante avan­ce sobre los telescopios re­frac­to­res de su época ya que desde entonces era clara la di­ficultad de fabricar vidrios para lentes de gran tamaño con las características de homo­ge­neidad y nitidez requeridas en astronomía.
En 1840 se genera un nue­vo parteaguas al lograr to­mar la primera fotografía de la Luna, ya que posteriormente se descubre la placa foto­grá­fica como un elemento capaz de registrar imágenes de ob­je­tos muy tenuemente, no tan­to por la sensibilidad de las pri­me­ras emulsiones fotográficas —unas 10 000 veces me­nos sen­si­bles que el ojo hu­ma­no—, sino por su capacidad de hacer exposiciones por lar­gos pe­rio­dos de tiempo. Lo cual ge­ne­ró inmediatamente la necesidad de que los telescopios contaran con un mecanismo que permitiera seguir el mo­vi­mien­to aparente de los objetos en el cielo de­bi­do a la ro­ta­ción de la Tierra en su eje. Esto se resolvió gra­cias a la utilización de me­ca­nis­mos de re­lo­je­ría que logran con gran precisión apuntar y seguir los cuerpos celestes.

En la constante búsque­da de alternativas para superar las limitaciones asociadas a la fabricación de lentes de gran ta­ma­ño, Foucault ­fabricó en 1864 los primeros espejos de vidrio recubiertos de plata, con lo que hizo posible aumen­tar el diámetro o aper­tu­ra del elemento colector de luz, ge­ne­ral­men­te denominado es­pe­jo primario en un teles­co­pio re­flector, —una de sus carac­te­rís­ticas más ­re­le­van­tes pues cuan­to más gran­de es éste ma­yor es su capacidad de cap­tar la luz de los objetos ob­servados.

De hecho la fabricación de lentes encontró su límite en 1897 al fabricar unas de 1.02 metros de diámetro, para el te­les­co­pio del observatorio de Yerkes —hasta la fecha, el re­frac­tor más grande que ­existe.
Por otro lado, es importan­te hacer notar que entre las ca­rac­terísticas fundamentales de un telescopio se encuentra el poder de resolución espacial, que es la relación entre dis­tan­cias focales del objetivo y la len­te ocular. Las lentes o es­pe­jos principales pueden tener distancias focales del or­den de 30 metros o más, lo cual im­pli­ca que para con­te­ner­las se requieren tubos de dimensiones aún mayores, lo que ge­ne­ra problemas para la cons­truc­ción de los edi­fi­cios que deben albergarlos.

Estos problemas fueron re­suel­tos gracias a las pro­pues­tas para configurar espejos más eficientes como las de Cas­se­grain, Herschel y, en par­ticular, la de Schmidt, quien lo­gró combinar un objetivo re­flec­tor de gran ta­maño con una lente correc­to­ra, para obtener una excelente ni­ti­dez en un gran campo —de varios grados—, permitiendo así que el tubo de los telescopios se redujera considerablemente sin perder el poder de reso­lución espacial.

Durante la primera mitad del siglo XX se desarrollaron téc­ni­cas para fabricar espejos primarios de diámetros cada vez mayores. El per­fec­cio­na­mien­to de los mo­tores y el inicio de la era electrónica ocurren de manera paralela, logrando así poner en marcha, en 1948, el famoso telescopio Hale de Monte Palomar, que cuenta con un espejo primario de 5.1 metros de diámetro y una ro­bus­ta estructura con me­ca­nis­mos capaces de apuntar y guiar desde una consola de man­do provista de un sistema de “bul­bos elec­tró­nicos”. El Hale fue el primer gran instrumento pues­to en una lejana y aislada mon­ta­ña, desde donde pudo observarse a una profundidad nunca antes conseguida, —aun­que fuera en un cam­po muy pe­queño, de sólo una frac­ción de grado. Por más de 25 años, fue el teles­co­pio de mayor ta­ma­ño, hasta que en 1976 entró en operación el telescopio soviético bta de 6.0 metros de diámetro —que tuvo mu­chos problemas y modificacio­nes an­tes de ser plenamente operativo. A partir de entonces sur­gió una cascada de teles­co­pios medianos de 3 y 4 metros de diámetro en su espejo primario, optimizados en calidad de imagen, puestos en sitios privilegiados astronó­mi­ca­men­te hablando, es decir, con un al­to porcentaje de noches des­pe­ja­das en el año y con muy baja turbulencia atmos­férica –como los que están en el nor­te de Chile y en Hawaii.

El máximo apro­ve­cha­mien­to de los desarrollos tec­noló­gi­cos en electrónica, cómputo y detectores fotosensibles, per­mitió que para la década de los ochentas se contara con de­tec­to­res bidimensio­na­les de al­gu­nos cientos de elementos llamados ccd’s (Charge Cou­ple Devices), que sustituyeron los tu­bos fotoelectrónicos y a las placas fotográficas, de­­bi­do a su mayor sensibilidad. Se ini­cia­ron además pro­yec­tos que incorporaban al te­les­co­pio la llamada óptica adaptativa, usualmente empleando un es­pejo terciario, cuya función es corregir las abe­rra­cio­nes que produce la at­mósfera terrestre en el frente de onda.
 
Estos pro­yec­tos con grandes inver­sio­nes, tenían por me­ta construir tener los te­les­copios más po­ten­tes en los me­jo­res sitios. Ejemplos de es­tos son los telescopios vlt (Very Large Telescopes), un con­jun­to de cuatro grandes te­les­co­pios de espejo primario tipo me­nisco, muy delgado de 8.2 metros de diámetro; el Ge­mini norte y el Gemini Sur, ambos de 8.0 metros; el Su­ba­ru, de 8.2 metros, y los Keck 1 y Keck 2, que incorporan una impor­tante innovación en su diseño: la superficie del espejo primario de 9.8 metros, cons­ta de 36 seg­mentos hexagonales totalmen­te individuales, cada uno de los cuales tiene un conjunto de “actuadores” que le permiten moverse de ma­ne­ra independiente y se ali­nean por medio de elabo­radas técnicas de control. Todos ellos ini­cia­ron su operación exitosa en los noventas y durante el primer lustro del si­glo XXI han in­cor­porado ins­tru­men­tos de alta resolución que cuentan con los sistemas de co­rrec­ción basados en la óp­tica adap­ta­tiva. Los cuatro te­les­co­pios vlt que pertenecen al Ob­serva­torio Europeo del Sur (eso), ins­talados en Ata­cama, en el nor­te de Chile, pue­den trabajar separados o con­jun­ta­men­te como uno sólo, com­bi­nando la luz recolec­tada por los cuatro de forma inter­fe­ro­mé­trica, logrando así la má­xi­ma resolución espacial ob­tenida hasta este momento.

El telescopio espacial Hub­ble de 2.4 metros se encuentra en órbita desde 1990. Al es­tar fue­ra de la atmósfera te­rres­tre sus imágenes no se dis­tor­sio­nan por los efectos de re­frac­ción y la turbulencia de ésta trabajando siempre en el límite de difrac­ción, además de estar equipado con ins­tru­men­tos que pueden observar en lon­gi­tu­des de onda ul­tra­vio­­leta, visi­ble e infrarrojo cercano.

Pronto entrará en operación científica el Gran Teles­co­pio Canarias, de 10.4 metros de diá­me­tro de óptica primaria segmentada, en donde Mé­xi­co participa como socio de la cons­truc­ción. Este telescopio es el más avanzado a la fe­cha y ha permitido probar las tec­no­lo­gías con que se cons­trui­rán los telescopios gigantes de nueva generación, como el tmt de 30 metros de diá­me­tro en Estados Unidos y el elt de 42 me­tros de diámetro de la eso.
 
Cabe recordar que actual­men­te se encuentra también en construcción el nuevo te­les­copio espacial James Webb (jwst), cuyo espejo primario de 6.5 metros estará consti­tui­do por 18 segmentos hexa­go­na­les de berilio, que es un material extremadamente li­ge­ro. Será uno de los observatorios de la próxima generación y se espe­ra ponerlo en órbita en un pun­to entre la Tierra y el Sol en 2011.

Existe así, una continua in­no­va­ción involucrada en el di­se­ño y la construcción de los telescopios ópticos; pero cabe también des­ta­car que en la ac­tualidad existe un sin núme­ro de teles­copios de base terrestre o sa­te­li­tal que captan las emisiones de los objetos ce­les­tes en otras longitudes de onda, como los radiote­les­co­pios que muchos trabajan en forma intererferométrica –des­ta­ca el Very Large Array (vla)— el Spicer telescopio satelital en el infrarrojo, el soho, que es un satélite dedicado a observar el Sol y su heliósfera; y el Chan­dra de rayos X, entre otros.

En sus 400 años de vida, el telescopio ha sufrido gran can­ti­dad de cambios, es una histo­ria fascinante e in­ter­mi­na­ble. Sea esto tan sólo una pequeña muestra ella.
  articulos  
Referencias bibliográficas

Malacara, D. y Malacara, J. M. Telescopios y Estrellas; La Ciencia para Todos.
Racine R. The Historical Growth of Telescope Aperture. PASP, 116, 77-83, 2004 January.
Sky & Telescope, Giant Telescopes of the World. August 2000.
 
_____________________________________________________________
     
 
Beatriz Sánchez
Instituto de Astronomía, Universidad Nacional Autónoma de México.

Salvador Cuevas
Instituto de Astronomía, Universidad Nacional Autónoma de México.
 

como citar este artículo

Sánchez, Beatriz y Cuevas, Salvador. (2009). El telescopio y su historia. Ciencias 95, julio-septiembre, 28-31. [En línea]
     

 

       
 
  menu2
PDF 
               
  112

 
Galileo y el telescopio
 
Shahen Hacyan
   
   
     
                     
                     
Hace justo cuatro siglos, según la historia que todo mundo conoce, Galileo Galilei co­men­zó a estudiar el cielo con un telescopio de su propia cons­trucción. Fue el inicio de un nue­va era para la astronomía. Galileo descubrió los satélites de Júpiter, las manchas solares y la rotación del Sol, las fa­ses de Venus, las montañas y valles de la Luna y las estre­llas de la Vía Láctea.
También se sabe que Ga­li­leo tuvo serios problemas con la Iglesia por afirmar, sobre la base de sus descubrimientos, que la Tierra gira alrededor del Sol y no al revés. Se cuenta que los jerarcas religiosos pre­firieron, incluso, no mirar por el teles­copio para no enfrentarse a las evidencias.

Sin embargo, la verdadera historia es un poco más complicada. Paul Feyerabend, en su famoso libro Contra el mé­todo, nos recuerda que en tiempos antiguos no se solía estudiar la naturaleza con medios artificiales, pues se desconfiaba de aquello que no se pudiera percibir di­rec­tamente con los sentidos. En la actualidad estamos acos­tum­bra­dos a creer en la existencia de cosas que no se ven a simpe vista (átomos, microbios, galaxias…), pero en la épo­ca de Galileo no era nada obvio que un instrumento no creara ilusiones.

La Iglesia, de acuerdo con Feyerebend, usó (y cierta­men­te abusó) de su poder, pero a fin de cuentas estaba defen­diendo una visión del mundo que los hombres comunes po­dían entender fácilmente sin recurrir a expertos. La física de Aristóteles, la aceptada por la Iglesia, era una física del sen­tido común: el agua y la tie­rra caen porque su lugar natural es el centro de la Tierra, el fuego y el aire suben porque el suyo es la esfera de las estrellas; y el Sol y las estrellas giran alrededor de la Tierra, como se ve a simple vista. Ade­más, se pensaba que la natu­ra­leza de los astros era del ­todo distinta a la de las cosas terrestres.

Evidentemente, el teles­co­pio permitía aumentar el ta­ma­ño de los objetos en la Tie­rra, pero si se trataba de ob­jetos ce­lestes nunca vistos an­tes ¿có­mo saber si las imágenes co­rrespondían a algo real? Si Galileo creía ver nuevas es­tre­llas allí donde no se veía na­da a simple vista, no había for­ma de corroborar su existencia. Más aún, todavía no se tenía una buena teoría que permi­tie­ra entender cómo funciona un te­lescopio; Galileo había cons­truido uno, pero lo había lo­gra­do por medio de pruebas y errores. No sería hasta 1610, el año siguiente de sus observaciones, cuando su colega Ke­pler publicó la Dióptrica, en la que describía, más o me­nos correctamente, los principios teó­ri­cos del telescopio.

Por otra parte, hay que recordar que los telescopios de Galileo eran bastante primitivos, por lo que se necesitaba cierta dosis de imaginación pa­ra ver lo que él afirmaba ver. Sin duda tuvo el enorme mérito de imaginar correctamente mucho de lo que reportó, pero se sabe que colegas suyos, a pesar de su interés, no logra­ron ver con su telescopio todo lo que les prometía y se quedaron decepcionados.

Con Galileo empezó una nue­va era en la que los cinco sentidos comunes ya no eran suficientes para percibir co­rrec­tamente al mundo y había que recurrir a medios artificiales que sólo los expertos sabían manejar. Para Feyerabend, ésta es la posición que comba­tió la Iglesia. La nueva manera de estudiar el mundo resultó sumamente exitosa, pero muchos pensadores, aun sin negar su validez, la criticaron por olvidarse de la “dimensión humana” de la naturaleza. Así, por ejemplo, los románticos del siglo xix añoraban una visión más subjetiva del mundo; Goethe escribió que los cien­tí­ficos relacionan entre sí fenó­menos naturales construidos artificialmente, pero concluyó que eso no es la naturaleza: “¡ningún arquitecto tendría la osadía de hacer pasar sus palacios por montañas y ­bosques!”
 
  articulos  
_____________________________________________________________
     
 
Shanen Hacyan
Instituto de Física, Universidad Nacional Autónoma de México.
 

como citar este artículo

Hacyan, Shahen. (2009). Galileo y el telescopio. Ciencias 95, julio-septiembre, 18-19. [En línea]
     

 

112
 
La Astronomía prehispánica como expresión de las nociones de espacio y tiempo en Mesoamérica
 
  menu2
PDF
   
     
Jesús Galindo Trejo
   
               
               

Desde un lejano pasado, al levantar su vista al firmamento, el hombre se ha confrontado con profundas emociones y al mismo tiempo con numerosas incógnitas que lo han conducido a su vez a la elaboración de toda clase de explicaciones, las cuales van desde emotivas leyendas hasta plantea­mien­tos racionales, avanzando siempre en el conocimiento del Universo. La be­lle­za del cielo y su comportamiento han inspirado la inteligencia humana desde esas épocas remotas y gracias a ello ha penetrado las profundidades del cosmos. Sin embargo, el proceso en detalle de cómo el hombre llegó al conocimiento de los fenómenos ce­les­tes tiene que ver sobre todo con las ca­racterísticas de cada sociedad. Por ser el firmamento tan diverso y vasto, los observadores de la antigüedad elegían para su estudio ciertos objetos celestes que tenían particular significado en el marco de su propia cultura.

 

En el caso de Mesoamérica, con ba­se en los vestigios culturales que he­mos podido analizar se sabe que du­­ran­te varios milenios se observó cui­da­dosamente el movimiento apa­ren­te del Sol, la Luna y varios planetas; tam­bién se identificaron algunas constelaciones y se observó la Vía Láctea y, además, se re­gistraron eclipses, cometas e inclu­si­ve explosiones de supernova. Se de­be tomar en cuenta que esta prác­ti­ca observacional no se realizaba so­la­men­te como un mero ejercicio pa­ra asentar datos, sino que se trataba de una actividad que implicaba una es­tre­cha relación con conceptos re­li­gio­sos de la mayor jerarquía. De esta ma­ne­ra, en el cielo se reconocían di­fe­ren­tes deidades cuyos influjos podían afectar a todo habitante de la Tie­rra. El entender cómo se comporta el cie­lo se convirtió en una especie de cul­to re­ligioso valorado como de ex­cep­cio­nal trascendencia en Meso­a­mé­ri­ca. Ade­más, derivado de este cul­to as­tro­nó­mi­co, fue posible desarrollar un ele­men­to cultural fundamental pa­ra cualquier civilización: el calendario.

Este esquema de organización del tiempo es un producto netamente cul­tu­ral, representa en sí un modelo pre­ci­so para describir los periodos de ob­ser­va­ción de algún objeto celeste. Por supuesto, esta actividad alta­men­te es­pe­cializada estaba reservada a la cla­se sacerdotal, como lo ilustra cla­ra­men­te el Códice Mendoza en el ca­so de los mexicas. Estos sacerdotes-as­tró­nomos se encargaban de llevar el se­gui­mien­to del tiempo observando las estrellas y el Sol. Igualmen­te intentarían in­ter­pre­tar lo que veían en la bóveda ce­les­te para pre­ver y evi­tar algún po­si­ble daño o bien el adveni­miento de al­guna situación favorable.
 
Otro aspecto tangible que de­mues­tra la importancia del conocimiento as­tro­nómico en Mesoamérica es la orien­ta­ción de estructuras arquitec­tó­ni­cas de acuerdo con la posición de di­ver­sos astros en los momentos de apa­re­cer o desaparecer en el horizonte lo­cal. Aquí nos encontramos obvia­men­te frente a un uso político de dicho co­no­ci­mien­to. El soberano que ordenase y decidiera la orientación de un edifi­cio estaba en la posición de demostrar a su pueblo cómo su obra terrenal, es de­cir, el edificio referido, se encontra­ba en armonía con los preceptos de las deidades celestes. Por lo tanto, el so­be­rano podía legitimar su posición de po­der ya que contaba con el beneplá­ci­to de los dioses, lo cual, en ocasiones, podía ser de manera espectacular, em­pleando efectos de luz y sombra, como la famosa hierofanía solar que se ob­ser­va en los días del equinoccio en la pi­rá­mi­de de El Castillo en Chichén It­zá. Aquí el descenso y ascenso del dios Kukulcán, la Serpiente Emplumada, a lo largo de la balaustrada de la pirá­mi­de, muestra fastuosamente el favor de la deidad hacia este espléndido edificio maya.

Partiendo del hecho de que el mo­vi­mien­to aparente de la bóveda ce­les­te proporciona la única manera de de­fi­nir orientaciones de trascendencia universal en un paisaje terrestre, pode­mos notar que en Mesoamérica se eri­gie­ron suntuosos edificios y se trazaron magníficas ciudades considerando este aspecto. Además de alineaciones so­la­res en momentos astronómica­men­te importantes, como solsticios, equi­noccios y días del paso cenital del Sol, los mesoamericanos eligieron ma­yor­men­te alineaciones que se daban en momentos de aparente nula im­por­tancia astronómica. No obstante, las fe­chas en las que suceden tales ali­nea­mien­tos poseen una peculiar ca­rac­terística: dividen el año solar en varias partes que se pueden expresar por me­dio de los números que definen el sis­te­ma calendárico mesoamericano. Es decir, las cuentas de días determinadas por tales fechas, utilizando un sols­ticio como pivote, nos conducen a los números 260, 52, 73 y 65. Como es bien conocido, el sistema calendárico me­so­americano, que estuvo vigente por más de tres milenios, consta de dos ca­len­darios: uno solar de 365 días, cono­cido como Xiuhpohualli, organizado en 18 veintenas más 5 días complemen­ta­rios, y otro ritual de sólo 260 días, lla­ma­do Tonalpohualli, estructurado en 20 trecenas. Ambos calendarios em­pe­­za­ban al mismo tiempo y corrían simul­tá­nea­men­te en paralelo, pero des­pués de los primeros 260 días se desfa­sa­ban, para volver a coincidir al cabo de 52 periodos de 365 días y nuevamente empezar en forma simultánea. Por su parte, el calendario ritual debía re­correr 73 periodos de 260 días. Así, se establece la ecuación básica del ca­len­da­rio: 52 × 365 = 73 × 260.
 
En la región zapoteca se consideró como de especial importancia dividir el calendario ritual en cuatro partes de 65 días cada una. Notables ejemplos de esta alineación calendárico-astro­nó­mica son el Templo Mayor de Te­noch­titlan, la Pirámide de la Luna de Teoti­huacan, el Templo de los Jaguares en la cancha del juego de pelota de Chichén Itzá, la Pirámide de los Cinco Pi­sos de Edzná, la Casa E del Palacio de Palenque, la Pirámide de los Nichos en El Tajín, el Edificio Enjoyado o Em­ba­jada Teotihuacana en Monte Albán, el Conjunto del Arroyo en Mitla, el Tem­­plo Mayor de Tula y la Pirámide de la Ven­ta, una de las principales ciu­da­des olmecas. Pensamos que esta pecu­liar manera de orientar estructuras arqui­tec­tónicas constituye uno de los rasgos definitorios que conforman a la cultu­ra mesoamericana.

La orientación de estructuras arquitectónicas también se efectuó consi­de­ran­do otros objetos celestes dife­ren­tes al Sol. En varias ocasiones fueron la Luna y la Vía Láctea las que deter­mi­na­ron la orientación de importantes edificios. Como un ejemplo del pri­mer caso tenemos el Templo de Ixchel en San Gervasio en la Isla de Cozumel. Fuentes etnohistóricas hablan del im­por­tan­te culto que se rendía a la diosa de la Luna en un recinto similar a este vestigio arqueológico. Dicho templo es­tá orientado en dirección a la puesta de la Luna cuando alcanza su parada ma­yor, es decir, cuando se pone más ha­cia el norte sobre el horizonte po­nien­te de la isla.
 
Un ejemplo espectacular del se­gun­do caso lo tenemos en el Edificio de Las Pinturas en Bonampak; se tra­ta de tres cuartos que posee dicho edifi­cio, completamente pintados con dife­ren­tes escenas de ceremonias, guerra, presentación del heredero, músicos e incluso el retrato de un pintor. Las bó­vedas de los cuartos tienen representa­ciones del llamado Monstruo del cielo y aparecen diversos mascarones sola­res. Algunos estudiosos han conside­ra­do a ese ente mítico como una expresión de la Vía Láctea. En la bóveda del cuarto central se plasmaron cuatro cua­dretes con representaciones de objetos celestes ya que cada uno contiene va­rios glifos de estrella. Una tortuga so­bre cuyo caparazón se pintaron tres gli­fos de estrella, una manada de ja­ba­líes con algunos glifos de estrella, un per­so­na­je acompañado con dos gli­fos de estrella señalando con una varita a la tortuga y otro personaje con un ­gli­­fo de estrella y sosteniendo una es­pe­cie de charola o espejo. En la fecha pin­ta­da por los propios mayas en el in­te­rior del cuarto central, 6 de agos­to de 792, ocurrió una serie de even­tos que sugieren la maestría alcan­za­da por los sacerdotes-astrónomos ma­yas. Al empezar la noche, la Vía Láctea apareció alineada a lo largo del eje de simetría del edifico; varias horas des­pués, esta gran banda de estrellas de brillo tenue se colocó justamente a lo largo de la fachada del edificio. En­tre tanto, del horizonte oriente surgió una región del cielo que pudo ser identi­fi­ca­da con la pintura de la bóveda del cuarto central. La tortuga con las tres estrellas representaría así la conste­la­ción de Orión, la manada de jabalíes el cúmulo estelar de Las Pléyades, el personaje con la varita la estrella roja Aldebarán, la más brillante de la cons­telación del Toro, y finalmente el otro personaje podría representar el pla­ne­ta Marte, que sólo por esa noche se encontraba en uno de los cuernos del Toro (figura 1).
 
 

FIG1

 

FIG2La observación de la bóveda ce­les­te por los sacerdotes-astrónomos me­so­americanos pudo alcanzar ex­cep­­cio­nal nivel de exactitud, como lo muestran los pocos códices que so­bre­vi­ven. Así, en el códice maya que se encuentra en la ciudad alemana de Dresden se puede identificar varias ta­blas que registran el periodo sinódico de Venus y la sucesión de las etapas de observación del planeta en su ór­bi­ta alrededor del Sol. También se han identificado otras ta­blas que posiblemente se re­fieran a los periodos sinódicos de otros pla­netas. Otras tablas señalan la periodicidad de eclipses de Sol y de Luna. Toda ­es­ta in­for­mación astronómica se en­cuen­tra rodeada de escenas donde las dei­dades celestes actúan y determinan el comportamiento del Universo.

Algunos fenómenos celestes esporádicos y llamativos, como cometas, lluvias de estrellas, tránsitos de Venus por el disco solar e incluso explosiones de supernova, parecen haber sido registrados por los observadores me­so­americanos. Existen expresiones idio­máticas que los describen, como en el caso de los cometas y las lluvias de estrellas, que en nahuatl se deno­mi­nan citlalin popoca, estrella hu­mean­te, y citlalin tlamina, estrella flecha­do­ra; éstos eran considerados, curiosamen­te al igual que en Occidente, como augu­rios de desgracias para los reinos, so­be­ranos y el pueblo.
 
Por otra parte, la observación del trán­sito de Venus o las explosiones de supernova requieren téc­ni­cas sumamente elaboradas, al­go que sugieren las más re­cien­tes investigaciones ar­queo­as­tro­nó­mi­cas en Mesoamérica. En la ciudad teotihuacana de Xihuin­go, a unos 35 kilómetros al no­reste de Teotihuacan, en el Es­tado de Hi­dal­go, se ha localizado un número ex­cep­cio­nal­men­te gran­de de ciertos pe­tro­gli­fos formados básicamente por dos círcu­los concéntricos cru­zados por dos ejes perpen­di­culares en­tre sí, di­seños la­bra­dos por medio de suce­sio­nes de puntos. En general se les co­no­ce como marca­dores punteados.

A lo largo de toda Mesoamérica es­te tipo de petroglifos se considera como un elemento diagnóstico de la pre­sen­cia teotihuacana. Existen variantes de estos marcadores con uno, tres y cua­tro círculos concéntricos. En el pun­to más elevado de Xihuingo se en­cuen­tra el marcador con más puntos dis­tri­bui­dos en cuatro círculos.
 
 
 
 
 
 
El marcador más cercano a éste se localiza en un ni­vel inferior, a unos 40 metros de dis­tan­cia; se trata de un marcador de di­se­ño clásico, asociado al cual se en­cuen­tran, en una roca cercana, varios petroglifos: el numeral 13, formado por dos barras y tres puntos, arriba del cual aparecen dos círculos concéntricos de trazo continuo; una estrella de cinco puntos, también con dos círculos con­céntricos en su interior; una cara ele­men­tal, es decir, un semicírculo con tres puntos dispuestos triangularmen­te, semejando los ojos y la boca, tal vez sugiriendo la acción de observar —ade­más de otros petroglifos, por desgracia, ya muy destruidos (figura 2).

Desde el marcador inferior, el su­pe­rior visualmente se encuentra justamente en el horizonte permitiendo la observación del cielo arriba de él. Al medir la posición del superior desde el inferior respecto al cielo y tomando en cuenta la época en que probable­mente fueron labrados, entre los siglos iv y v, se encuentra que la cons­te­la­ción del Es­cor­pión se erguía ma­jes­­tuo­­sa­men­te sobre el marcador su­pe­rior; sin em­bar­go, al no identificar en el inferior nin­gu­na representación de ese arác­ni­do pa­rece que podría tra­tar­se de otro even­to celeste. En efecto, en el cen­tro del mar­ca­dor superior emer­ge pre­­­ci­sa­men­te el centro geo­mé­tri­co de la cola del Es­corpión, don­de, de acuer­do con va­rias crónicas chi­nas, fue registrada una gran explosión de supernova entre fe­brero y marzo del año 393, resplande­ciendo más in­ten­sa­men­te que la estre­lla más bri­llan­te del cielo, Sirio.

Por lo tanto, el con­jun­to de petroglifos se po­dría in­ter­pre­tar que en el año 13 “algo bri­llan­te” o tonalo, —brillante como el Sol, en náhuatl—, un gran resplandor se­ñalado por la estrella de cinco puntas se ob­ser­vó en la dirección del marca­dor su­pe­rior. Esto se podría con­si­de­rar como el primer registro documentado de una explosión de supernova en Me­­soa­mé­rica.

En Mayapán, la última metrópoli ma­ya antes de la llegada de los espa­ño­les, existen testimonios pictóricos que sugieren que los sacerdotes-astrónomos prehispánicos pudieron registrar uno de los fenómenos solares más es­pec­taculares: el tránsito de Venus por el disco del Sol. En un edificio adosado a la pirámide de El Castillo de esta ciu­dad se plasmó una pintura mural de ob­vio significado astronómico: gran­des discos solares dentro de los cuales apa­recen diversos personajes descen­den­tes, algunos de los cuales presentan man­chas en la piel y están ricamente ataviados. Una pareja de guerreros, en ambos lados de cada disco, parecen cus­­to­diar­lo.El muro que contiene la pin­tu­ra está orientado de tal forma que dos veces al año la luz solar ilumina los dis­cos al ras. Las fechas de tal iluminación dividen el año solar en múltiplos de 73 días, de acuerdo con una orientación ca­lendárico-astronómica explicada an­te­rior­mente.
 

Al interior del Sol sólo pueden apa­recer dos objetos: una mancha solar o un planeta interior. Mercurio es de­ma­siado pequeño para ser detectado por el ojo humano, y las manchas solares só­lo excepcionalmente alcanzan un ta­ma­ño suficiente para ser observadas a simple vista; sin embargo, por encon­trar­se entre el Sol y la Tierra, Venus po­see un tamaño angular aproximada­men­te del doble del tamaño necesario para ser percibido con la vista y, además, el entorno alrededor de Mayapán es plano, lo que permite que en una sa­li­da o puesta de Sol se pueda observar su disco sin ayuda de filtros espe­cia­les, ya que la atmósfera baja sirve de filtro al absorber un notable porcen­­taje de la radiación solar. Tomando en con­si­de­ra­ción la época en la que se plas­mó el mural, entre 1200 y 1350, los personajes descendentes podrían re­presentar el planeta Venus en su trán­si­to por el disco solar. Durante di­cho intervalo de tiempo sucedieron cua­tro tránsitos, dos se dieron estando el Sol muy arriba del horizonte y otros dos acontecieron durante el ocaso so­lar, lo que permitió que fueran regis­tra­dos a simple vista. El próximo 5 de junio de 2012 sucederá el próximo trán­si­to de Venus durante el ocaso solar y podremos constatar la propuesta aquí descrita.

El cielo significó un aliciente para el espíritu del hombre mesoamericano, gracias a este magnífico estímulo vi­sual su mente analítica pudo ejerci­tar­se y acercarse a entender mejor el fun­cio­na­mien­to de la bóveda celeste. Al mismo tiempo se congració con sus dioses inalcanzables y obtuvo la cer­te­za de que este culto celeste propiciaría obtener de ellos los favores necesarios para su existencia.

  articulos  
Referencias bibliográficas
 
Galindo Trejo, Jesús. 1994. Arqueoastronomía en la Amé­ri­ca Antigua. Conacyt/Equipo Sirius, México-Madrid.
Galindo Trejo, Jesús. 2000. “Constelaciones en el firmamento ma­ya”, en Ciencias, núm. 57, pp. 26-27.
Galindo Trejo, Jesús. 2003. “La Astronomía prehispánica en Mé­xi­co”, en Lajas Celestes: Astronomía e Historia en Cha­pul­te­pec. Conaculta-inah, México, pp. 15-77.
 
Galindo Trejo, Jesús. 2008. “Calendario y orientación astronó­mi­ca: una práctica ancestral en Oaxaca prehispánica”, en La Pintura Mural prehispánica en México, Beatriz de la Fuente (ed.). Instituto de Investigaciones Estéticas, unam, México, pp. 295-345.
Morante López, Rubén B. 2001. “Las cámaras as­tro­nó­mi­cas subterráneas”, en Arqueología Mexicana, vol. VII, núm. 47, pp. 46-51.
Sprajc, Ivan. 1993. Venus, lluvia y maíz. inah (Colec­ción científica 318), México, pp. 75-79.

     
____________________________________________________________
     
Jesús Galindo Trejo
Instituto de Astronomía, Universidad Nacional Autónoma de México.
 
Cursó la licenciatura en la Escuela Superior de Física y Matemáticas del ipn y obtuvo el doctorado en Astrofísica Teórica en la Ruhr Universitaet Bochum, en Alemania. Fue investigador titular en el Instituto de Astronomía de la unam durante más de 20 años. Actualmente labora en el Instituto de Investigaciones Estéticas de la misma. Su trabajo de investigación se centra principalmente en la Arqueoastronomía del México prehispánico. Es miembro del Sistema Nacional de Investigadores.
 
como citar este artículo
Galindo Trejo, Jesús. (2009). La Astronomía prehispánica como expresión de las nociones de espacio y tiempo en Mesoamérica. Ciencias 95, julio-septiembre, 66-71. [En línea]
     

 

112
 
Cuasares y núcleos activos de galaxias
 
  menu2
PDF
   
     
Deborah Dultzin
   
               
               
Los cuasares son objetos celestes que por más de treinta años han cautivado e intrigado a los astrónomos. El pri­me­ro de estos objetos se descubrió en 1960 como una “radio­fuen­te puntual”. Fue hasta 1963 en que los astrónomos em­pezaron a comprender lo que estaban viendo. Ese año, Cyril Hazard y Maarten Schmidt lograron hacer una iden­ti­fi­cación óptica precisa de la radiofuente gracias a una ocul­tación lunar y usando el telescopio de 5 metros de Mon­te Palomar (el más potente en esa época). El objeto te­nía la apariencia de una débil estrellita azul, pero desde el principio se sospechó que no se trataba de ninguna es­tre­lla ordinaria, pues el objeto fue detectado por su po­ten­te emi­sión de radiofrecuencia y ninguna estrella tiene ese tipo de emisión en radiofrecuencias. Las estrellas son lo más pa­re­ci­do a lo que los físicos llaman un “cuerpo negro” o “emi­sor perfecto”: un cuerpo en equilibrio que emite con una energía máxima que depende sólo de su temperatura, tal es el caso de nuestro Sol, cuya temperatura superficial es de cerca de 6 000 oK y emite la mayor cantidad de ener­gía en frecuencias que corresponden al color amarillo —mien­tras que, por ejemplo, el cuerpo humano emite radiación in­fra­rroja, aunque no es un emisor perfecto, y para que una estrella emitiese el máximo de su energía en radiofre­cuen­cia, tendría que estar todavía más fría que el cuerpo humano.

 

Unos años después quedó claro que aquella emisión era la radiación de electrones ultrarrelativistas —es decir, ace­lerados a velocidades cercanas a la de la luz—, en fuer­tes campos magnéticos. Este tipo de radiación, conocida como ciclotrónica o sincrotónica dependiendo de la velo­ci­dad de los electrones, se había observado en laboratorios que experimentan con aceleradores de electrones, y fue iden­ti­fi­ca­da por primera vez en radiación proveniente del cosmos en 1953 por el astrónomo ruso Yosiv Shklovsky, al analizar la luz emitida por el gas remanente de la explosión de una estrella, una supernova, la Nebulosa del Cangrejo.

Una de las técnicas más usadas en astronomía para ana­lizar la luz de los objetos es la espectroscopia; me­dian­te ella podemos descomponer la luz (luz visible o cualquier radiación electromagnética). Desde que se analizó el es­pec­tro del primer cuasar descubierto, quedó claro que no sólo no se parecía a ninguna estrella por su emisión en ra­dio­frecuencias, sino tampoco en su espectro óptico (luz vi­si­ble). De hecho, no se parecía a ningún cuerpo celeste co­no­ci­do hasta entonces. En 1963 Maarten Schmidt resolvió el enigma, cuando logró identificar en el espectro el patrón de emisión producido por el hidrógeno, el elemento más abun­dan­te en el Universo. Pero las longitudes de onda en las que aparecía este patrón se habían desplazado sistemática­men­te hacia el lado rojo del espectro, aparecían con longi­tudes de onda mayores que las medidas en el laboratorio.

Fueron varias las hipótesis que se examinaron para en­con­trar la explicación a este efecto. Después de descartar otras posibles causas del corrimiento al rojo, vino la inter­pre­tación aceptada hasta hoy día por la enorme mayoría de los astrónomos. El corrimiento al rojo se debe a la ex­pan­sión del Universo, debido a la cual todos los cúmulos de ga­la­xias se alejan unos de otros. Esta es una de las predic­cio­nes más impactantes de la teoría de la relatividad ge­ne­ral formulada por Albert Einstein alrededor de 1915, y com­pro­bada observacionalmente por Edwin Hubble unos años más tarde. Además, Hubble logró establecer una relación en­tre la distancia a la que se encuentra una galaxia de no­so­tros y su velocidad de recesión, su alejamiento. Esta co­rrelación se conoce como la ley de Hubble y nos dice que la velocidad de recesión es mayor cuanto más lejos se en­cuen­tra una galaxia, en proporción directa a la distancia de ésta última. El corrimiento al rojo de los patrones es­pec­trales ya se había detectado en muchas galaxias, aunque nunca en la forma tan drástica como apareció en los cua­sa­res, y por ser una medida de la velocidad de recesión derivada de la ley de Hubble, se usaba para determinar la dis­tancia a galaxias lejanas. Así, al medir el corrimiento es­pec­tral del primer cuasar se obtuvo un valor inesperado de casi 16%, lo cual implica una velocidad de recesión de 47 000 kilómetros por segundo y una distancia de dos mil cuatrocientos millones de años luz. No cabía la menor duda: la “estrellita” azul era un objeto fuera de nuestra galaxia y el más lejano de los conocidos hasta entonces. Los valores de corrimientos espectrales medidos para cuasares más y más lejanos implican velocidades de recesión cercanas a las de la luz, por lo que en los cálculos de la distancia se de­ben emplear fórmulas relativistas. El cuasar más lejano detectado hasta 2007 está a una distancia de 28 billones (28 más 12 ceros) de años luz.

El nombre de cuasar es una castellanización del vocablo ingles quasar, formado por las siglas del inglés quasi-stel­lar radio source y acuñado por Hong-Yee Chiu en 1964. Hoy se sabe que la mayoría de estos objetos son emisores más potentes en el registro óptico y de longitudes de onda menores (ultravioleta, rayos X y rayos gama) en el de radio, pero el nombre genérico se conserva. Hasta los ochen­tas no había siquiera consenso entre la comunidad astro­nó­mi­ca sobre la naturaleza de estos objetos, hace unos quince años se conocían alrededor de 8 000 y hoy son más de 100 000, la mayoría encontrados al efectuar un escrutamiento óp­ti­co del cielo norte, en realidad sólo una “rebanada” del ­cie­lo norte conocido como Sloan Digital Sky Survey, un proyecto en curso que continuará arrojando datos. A lo largo de to­dos estos años ha quedado claro que los cuasares no re­pre­sen­tan un fenómeno tan insólito en el Universo como se pensó en un principio; hoy se sabe que podemos encon­trar objetos similares en los centros de muchas galaxias y que son diversos los fenómenos observables en que se ma­ni­fiestan. Los cuasares se incluyen en la denominación ge­né­rica de núcleos activos de galaxias o nags.

Para regresar a la historia, el siguiente hallazgo sor­pren­den­te fue la variabilidad en el brillo de los cuasares. Se en­con­tró que existían algunos que duplicaban su emisión de luz ¡en un día!, lo cual indica que la región que produce esta luz no puede ser mayor “un día luz” o 25 millones de ki­ló­me­tros (dos veces el tamaño del sistema solar), es de­cir, que algunos cuasares producen mucha más energía que una galaxia como la nuestra, con sus cien mil millones de estrellas, ¡desde una región tan pequeña como el Sistema Solar!

Agujeros negros supermasivos
 
En 1964, Yakov Zeldovich y Edwin Salpeter propusieron, de manera independiente, que la fuente de energía de los cua­sares podría ser la radiación producida por gas y es­tre­llas a punto de caer a un agujero negro, cuyo centro es de entre uno y varios millones de veces la masa del Sol.
 
Lo que pareció en un principio una idea descabellada ha resultado ser, a lo largo de estos últimos treinta años, la más aceptada por la comunidad astronómica, y en la úl­ti­ma década la única confirmada por las observaciones. Sor­pren­den­te­men­te, a partir de 2002 la evidencia observacio­nal más directa y contundente de la existencia de estos ho­yos negros supermasivos en los centros de práctica­men­te todas las galaxias viene, ni más ni menos, de la obser­va­ción del centro de nuestra propia galaxia. El centro de una galaxia se define como su centro rotacional y el de la nues­tra se ubica cerca de 25 000 años luz del Sol, observado pri­me­ro por su emisión en radio e identificado con la fuente llamada Sagitario A. Es imposible observar esta región en luz visible porque entre nuestro Sol, que está cerca de la ori­lla de la galaxia, y el centro se acumula casi todo el pol­vo del plano de la Vía Láctea, que absorbe la luz visible, la ultravioleta e incluso los rayos X “suaves” (de 0.1 a unos 5 KeV). En cambio, se han observado fenómenos “extraños” en el centro de la galaxia en rayos X “duros” (de 15 a 60 KeV) con el telescopio Chandra, en órbita desde 1999.
 
Más impactante aún ha sido el desarrollo de la capacidad de los grandes telescopios llamados de nueva generación, que permiten hacer observaciones de gran precisión (interferométricas) en el infrarrojo. En particular, esto ha per­mitido observar el movimiento propio de las estrellas alrededor del centro de nuestra galaxia. La primera de­ter­mi­nación de una órbita completa llevó diez años y fue pu­bli­cada en 2002 en la revista Nature por un grupo de astró­nomos alemanes liderado por A. Eckhart, la cual posee un periodo orbital de 12.5 años y una distancia en el pericen­tro de sólo 17 horas luz del centro. El resultado del análisis implica la rotación alrededor de un “punto” central con una masa de cerca de tres millones de masas solares, y las observaciones descartan cualquier posibilidad de una masa central compuesta de objetos estelares oscuros o de un ob­jeto colapsado masivo hecho de fermiones degenerados.

La teoría y la historia

Veamos con algo más de detalle el modelo del agujero ne­gro central. La teoría de la relatividad general describe la fuerza fundamental que a gran escala, en términos de la geo­metría del espacio-tiempo, opera en el Universo, esto es, la gravitación. La presencia de objetos masivos le da cur­vatura a este espacio-tiempo y esa curvatura se manifiesta como una “fuerza” de atracción hacia esos objetos ma­sivos. Esta teoría amplía la concepción newtoniana de la gravedad y muchas de las predicciones adicionales que hace han sido ya corroboradas. En 1916, el astrónomo ale­mán Karl Schwarzschild, basándose en la teoría general de la relatividad formulada en 1915 por Einstein, calculó la deformación del espacio alrededor de un cuerpo esférico, lo que constituye la primera solución particular a las ecua­ciones de Einstein, estipulando que si una esfera con una masa cualquiera tiene un radio menor a un cierto valor, lla­ma­do Radio de Schwarzschild en honor a su descubridor, nos encontramos ante el hecho extraño de que su gra­ve­dad atrapa todo, incluso la luz. Es lo que hoy llamamos un hoyo negro.

Aun en el marco de la física clásica podemos entender esta idea: la masa y el radio de un cuerpo esférico están re­la­cionados por la expresión R = 2GM/v2, en donde R y M designan el radio y la masa, respectivamente, G es la cons­tante de gravitación universal y v es la velocidad de es­ca­pe, es decir, la velocidad que debe imprimirse a un ob­je­to para que se libere (escape) de la atracción gravitacional del cuerpo. Como ejemplo, pensemos en los cohetes que impulsan las naves espaciales, los cuales deben imprimir una velocidad mínima de 11 kilómetros por segundo a di­chas naves para que puedan escapar de la atracción gra­vi­tacional terrestre y salir al espacio, que es la cantidad ob­tenida si ponemos la masa y el radio de la Tierra en la ex­presión de arriba. Pero supongamos que su masa fuese la misma y su radio de aproximadamente medio centíme­tro en lugar de poco mas de 6 000 kilómetros, entonces la velocidad de escape que nos daría la expresión de arriba se­ría mayor a 300 000 kilómetros por segundo, es decir, ma­yor que la velo­cidad de la luz, y entonces nada podría esca­par a la ac­ción de su gravedad, ni siquiera la luz; esto es, precisamen­te, lo que caracteriza a un agujero negro. Como se ve, el término agujero, probablemente debido al físico norteamericano J. A. Wheeler, resulta un tanto impreciso pues no se trata de un agujero en el espacio, sino más bien de una enorme condensación de materia, pero es un nombre que se relaciona más bien con la geometría del espacio-tiempo generada por estos objetos en el marco de la relatividad general.
 
Es notable que, en 1793, más de un siglo antes de que Eins­tein formulara su teoría, y con base, no en la relatividad, sino precisamente en la mecánica clásica, Pierre-Simon Laplace calculó un radio gravitacional que correspondía exac­tamente al valor del radio de Schwarzschild. Laplace fue la primera persona en la historia que formuló un con­cep­to parecido al de un hoyo negro —aunque claro que no utilizó este nombre—, el cual aparece en su Tratado de me­cá­nica celeste, y lo notable es que usa la idea de velocidad de escape y que la gravedad actúa sobre la luz, además de preguntarse, igual que lo haría más de un siglo después Schwarszchild, si existirían en la naturaleza cuerpos con es­tas características. La respuesta de la astrofísica a esta in­terrogante llegó hasta la década de los sesentas.

Desde los treintas se sabía que una estrella como nues­tro sol puede brillar alrededor de diez mil millones de años (el Sol está a la mitad de su vida), ya que después de pasar por diversas fases inestables y relativamente cortas, se apa­ga y se “encoge” bajo su propio peso, pues ya no hay pre­sión de radiación que se contraponga a su gravedad. La misma física de la evolución estelar predecía que las es­tre­llas más masivas desarrollan inestabilidades que hacen es­ta­llar su parte externa dejando remanentes fríos que co­lap­san bajo su propio peso y se convierten en estrellas de neutrones o en hoyos negros. Fue Zeldovich quien señaló dónde buscarlos y cómo encontrarlos, y el primero se de­tec­tó en 1970 gracias al primer telescopio de rayos x. Como vimos antes, Zeldovich y Salpeter propusieron la existencia de otro tipo de hoyos negros, que son los que hacen bri­llar a los cuasares y los núcleos activos de galaxias, y que se les llama “supermasivos”, pero cuyo origen es aún desconocido.

Los distintos tipos de nags

En los últimos veinticinco años se ha realizado un intenso trabajo para, por un lado, observar los nags en todas las fre­cuencias posibles, desde las radiofrecuencias hasta los ra­yos gama, lo cual ha sido posible gracias al increíble avan­ce en la tecnología astronómica en detectores, la cons­truc­ción de telescopios y espejos enormes y de observa­to­rios es­pa­cia­les; pero también para comprender los procesos fí­sicos y afinar modelos teóricos que puedan explicar los fe­nó­me­nos que se observan en los diversos tipos de nags. Al ir jun­tan­do pacientemente las piezas del gran rompeca­be­zas ha emergido el hecho de que, como ya lo menciona­mos, ocu­rren fenómenos muy similares en los núcleos de muchos ti­pos de galaxias, sólo que no se comprendían ni se ha­bían podido asociar bajo una misma causa: 1) las lla­ma­das ga­la­xias Seyfert, descubiertas por Carl Seyfert en los cua­ren­tas, poseen un núcleo prominente que se veía como una es­tre­lli­ta azul; este tipo de núcleos se encuentra en ga­la­xias con morfología espiral; 2) las radiogala­xias, des­cu­bier­tas en los cincuentas, sólo hasta los setentas fue­ron re­la­cio­na­das con fenómenos del núcleo de su con­tra­par­te —una galaxia ob­ser­va­ble en luz visible. Son de mor­fo­lo­gía elíptica y suelen ser gigantes en los centros de grandes cú­mu­los de gala­xias; 3) el extremo más energético de este fe­nó­me­no lo cons­ti­tu­yen unos objetos conocidos como ob­je­tos tipo bl Lac, des­cubiertos en los setentas pero “des­­ci­fra­dos” varios años más tarde. Además de su potencia, una distinción impor­tan­te de estos objetos es que es muy di­fí­cil detectar las lí­neas en sus espectros. Cuando final­men­te se lograron detec­tar lí­neas débiles en el objeto proto­tipo, conocido hasta enton­ces como la estrella variable bl Lacer­tae o estrella bl en la constelación del Lagarto, se descubrió que no era una es­tre­lla, sino también un objeto fuera de nues­tra galaxia y muy lejano. El conjunto de los objetos tipo bl Lac o lagartos y los cuasares cuya luminosidad va­ría más violentamente en el óptico —ovvs, por las siglas de Opticaly Violently Variable—, constituyen la clase de obje­tos conocidos como blazares.

Es muy vasto este “zoológico”. Baste resumir que los nags suelen dividirse entre objetos radiofuertes y ra­dio­ca­lla­dos —aunque la definición es algo arbitraria y lo de fuer­te o callado es relativo. Para tener una idea, las ra­dio­ga­la­xias y sus parientes los blazares y cuasares radiofuer­tes emi­ten con potencias típicas de 1038 w en frecuencias en­tre 10 mhz y 100 ghz). Entre los radiocallados se incluyen los llamados liners —núcleos activos de baja lumino­si­dad—, que se en­cuentran en probablemente en todas las galaxias. Ya en 1956 Geoffrey Burbidge señaló que la den­si­dad de energía ob­ser­va­da en las radiogalaxias estaba en con­tradicción con los pro­cesos de emisión energética conoci­dos hasta entonces.
 
Toda la física en los nags

Para comprender los procesos que se dan en los nags ne­ce­sitamos de toda la física conocida y más. El modelo de ge­ne­ración de energía puede resumirse de la siguiente ma­nera: la enorme fuerza gravitacional del agujero negro atrae ma­te­rial de las regiones centrales de la galaxia circundan­te, gas y estrellas, que por su momento angular (o cantidad de ro­ta­ción) forman una especie de remolino alrededor del agu­je­ro negro. Las estrellas se destruyen previamente por la ac­ción de intensísimas fuerzas de marea al orbitar en las cer­ca­nías del agujero negro. La mitad de la energía se ge­ne­ra en este remolino (el término técnico es disco de acre­ción). A distintas distancias, el gas del disco gira con di­fe­ren­te velocidad (esto se llama rotación diferencial), el momento angular disminuye drásticamente y el disco se calienta de­bi­do a la fricción entre capas contiguas. Así, se ra­dia ener­gía, desde el disco, y esta energía térmica, de ca­lenta­mien­to, corresponde, aproximadamente, a un cuerpo negro de 20 000 oK, y se emite básicamente en la región ul­traviole­ta del espectro. La otra mitad de la energía, cuyo origen es fi­nal­men­te gravitacional, se emite desde el bor­de interno del disco de acreción. De acuerdo con las ecua­ciones de Eins­tein, la materia, antes de caer al hoyo negro, convier­te par­te de su masa en energía radiante —la co­no­cida for­mu­la E=mc2. La eficiencia de este proceso de con­versión de masa en energía puede llegar a 40%, es de­cir, que 40% de la masa del gas se convierte en energía ra­diante antes de caer a un hoyo negro. La verdad es que no se sabe cuál es la distribución en frecuencias de esta energía.
 
El único proceso capaz de producir energía con mayor eficiencia es la aniquilación de materia y antimateria —pues el 100% de la masa de las partículas que se aniqui­lan se con­vier­te en energía—, pero este proceso se da sólo en el labo­ratorio y no —al menos que se sepa— en la na­tu­raleza. El Uni­ver­so —¿o este universo?— está hecho sólo de materia.

Es muy ilustrativo comparar la eficiencia de la genera­ción de energía cerca de un hoyo negro con la del proceso más eficiente conocido en la naturaleza: la fusión termo­nu­clear, fuente de energía en el interior de las estrellas. En esa reacción, que fusiona cuatro núcleos de hidrógeno para producir un núcleo de helio, se convierte parte de la masa de los cuatro protones originales en energía radiante, por lo que la eficiencia de conversión de 0.7%, contra 40% en el caso antes mencionado. En suma, cerca de un hoyo ne­gro supermasivo se puede emitir tanta energía como un billón de soles, y este fenómeno ocurre en una región, en el borde interno del disco de acreción, cuyas dimensiones son apenas mayores a las del sistema solar.

Esta es sólo la fuente de energía “primaria”. Hay muchos otros procesos que intervienen en el estudio de los nags, como los jets o chorros de plasma extremadamente coli­ma­dos, producidos en los nags radio fuertes por un proceso has­ta ahora no muy bien comprendido, los cuales están cons­ti­tui­dos por partículas ultrarrelativistas lanzadas al es­pa­cio desde el borde interno del disco de acreción. La fí­si­ca de estas eyecciones está en pañales, aunque se sabe que la energía emitida es de origen sincrotrónico y producida por estas partículas que se mueven en campos magnéticos a velocidades cercanas a la de la luz.

Un proceso ligado a la radiación sincrotrónica es la ra­dia­­ción debida al proceso de Compton inverso, mediante el cual un electrón relativista interactúa con un fotón del me­dio y le transfiere energía para convertirlo en un fotón de más alta frecuencia; es un proceso importante para ex­­pli­­car la emi­sión de rayos X, duros. La misma radiación sin­cro­tró­ni­ca pue­de ser fuente de emisión primaria desde el in­fra­rro­jo has­ta los rayos x e incluso de rayos gama. Algunas otras propie­dades de la radiación, como la polarización, son útiles para distinguir entre ambos procesos, pero no siem­pre es posi­ble, ya que a lo largo de los chorros también se pro­pagan ondas de choque. Todo esto es sólo para explicar la emisión de con­ti­nuo, mejor no hablar de líneas de emi­sión y absorción.
 
La orientación de los chorros con respecto de la línea de visión del observador también influye mucho en lo que vemos. Las radiogalaxias representan un extremo, ya que el observador ve el disco de canto. El otro extremo corresponde a ver el chorro dirigido hacia el observador, o casi, como sucede con los blazares.
Otros efectos, como el enfoque relativista, beaming, se vuel­ven muy importantes en este caso. Si observamos un cho­rro relativista con un ángulo de visión de tan sólo cinco grados, la luminosidad observada desde la Tierra puede ser de hasta setenta veces la emitida en el sistema de re­fe­rencia local. También hay un corrimiento considerable al azul, un aumento en la frecuencia, de la radiación obser­va­da. Entre estos dos ángulos de visión extrema —que es­tán estadísticamente de acuerdo con la proporción de este tipo de objetos— están todos los cuasares radio emisores, la mayoría de los cuales son radio débiles. No se sabe a qué se debe esta diferencia, se especula que tiene que ver con el spin, el momento angular, del hoyo negro.

La interacción gravitacional de galaxias

Para producir la luminosidad de los cuasares, el hoyo ne­gro central debe “engullir”, en promedio, el equivalente de una masa solar por año. Parece poco, pero llegará un mo­men­to en que se acabe el material del centro de la gala­xia —no olvidemos que, por muy grande que sea la atracción gravitacional, disminuye con el cuadrado de la distancia—, y cuando esto suceda, ¿se “apagará” para siempre la acti­vi­dad nuclear? Tal es el caso del centro de nuestra gala­xia, donde sabemos que hay un hoyo negro supermasivo, pero “muerto de inanición”, ¿se puede reactivar?
En cualquiera de los casos, la colisión causa que una gran cantidad de gas fluya hacia el núcleo de la nueva gala­xia, “encendiendo” un cuasar. La idea de las colisiones de ga­la­xias no es nueva; ya en los años setentas se podían ex­pli­car varias morfologías peculiares como “colas”, “puentes” y “plumas” en galaxias, por los fenómenos de interacción, ya sea de manera directa —por la fusión de galaxias— o indirecta —por las fuerzas de marea debidas a encuentros cercanos. Un ejemplo típico es el sistema conocido como “la antena” en la constelación del Cuervo.

Las simulaciones numéricas de la inte­racción de galaxias que se podían hacer en las computadoras de aquella época sólo to­ma­ban en cuenta las estrellas, no el gas, lo cual es una gran limitante, porque cuando dos galaxias chocan o sim­ple­men­te se acercan mucho no sucede gran cosa con las es­tre­llas, pues las distancias interestelares son tan enormes, que la mayoría de las estrellas no se tocan entre sí, más bien se “atra­vie­san” como fantasmas. El gas que llena los enor­mes volúmenes del espacio interestelar es el más afectado por las fuerzas de marea. En el caso de una coli­sión total el gas se aglutina en el centro de la galaxia rema­nente de la fu­sión. Si cada galaxia tiene además un hoyo negro en el cen­tro, éstos se pueden fusionar para generar un hoyo negro con una masa que es la suma de las originales o se pueden formar sistemas de hoyos negros dobles, binarios, de los cua­les se conoce con certeza al menos uno: OJ287. También puede suceder que una proximidad muy grande pue­da inducir un gran flujo de gas al centro de una de las ga­la­xias o de ambas por la acción de fuerzas de marea, fe­nómeno puede reencender la actividad en un núcleo apa­gado, proporcionando “alimento” a un hoyo negro inactivo, como el de nuestra galaxia.
 
Faros que alumbran el pasado

Por último, hay que decir que los cuasares son una especie de faros que iluminan el pasado. Nos referimos al pasado del Universo, ya que la luz que observamos de ellos, fue emi­­tida en una época muy re­mo­ta, antes de que existieran as­tró­no­mos para estu­diar­la, antes incluso, de que existiera nues­tro sistema solar. Tal vez algunos de esos objetos ­ahora sean ga­la­xias con soles y planetas en los que haya astrónomos que vean a la Vía Lác­tea como fue hace miles de millones de años, quizá como un cuasar. En todo caso, el estudio de los cuasares es también esencial para la cosmología, el estudio del origen y evo­lución del Universo como un todo.
  articulos  
____________________________________________________________
     
Deborah Dultzin Kessler
Instituto de Astronomía, Universidad Nacional Autónoma de México.
 

Es investigadora del Instituto de Astronomía de la unam, ganadora del premio Sor Juana Inés de la Cruz que otorga la unam a destacadas cien­tíficas; es investigadora nacional, árbitro de revistas internacionales y pionera, en México, en el estudio de los agujeros negros. Es autora, entre otros textos, de Cuasares, en los confines del Universo.

como citar este artículo
Dultzin, Deborah. (2009). Cuasares y núcleos activos de galaxias. Ciencias 95, julio-septiembre, 54-61. [En línea]
     
You are here: Inicio Blog (2) revistas revista ciencias 95