![]() |
![]() |
|
¿Colaborar o no colaborar? Ése es el dilema |
Se presenta el desarrollo del estudio matemático de la colaboración entre los seres humanos, a partir de la formulación del dilema del prisionero. Se analizan las principales estrategias utilizadas en torneos de colaboración del juego del dilema del prisionero iterado.
|
|
José Antonio de la Peña y Nelia Tello
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |
La sociedad precede en la naturaleza al individuo. Alguien que no puede llevar a cabo una vida social o que es autosuficiente y no la necesita, es una bestia o un Dios. Aristóteles |
||
Es manifiesto que durante el tiempo que los hombres viven sin una fuerza común que los mantiene controlados, viven en condición de guerra: todo hombre contra todo hombre. Hobbes |
||
La colaboración entre los seres humanos es un asunto sobre el que no sólo Aristóteles y Hobbes han reflexionado. Grandes mentes en filosofía, ciencias políticas, economía, antropología, historia, psicología y biología evolutiva lo han hecho a lo largo de la historia. Para algunos, la naturaleza humana es pacífica y hay una tendencia natural a colaborar; por ejemplo, Locke argumentaba que, aunque el hombre pueda entrar en un estado de guerra, es por naturaleza cooperativo. Para otros, más pesimistas, sólo la fuerza del Estado puede llevarnos a trabajar por el bienestar común. Muchos problemas de colaboración, no sólo entre humanos, pueden reducirse a un planteamiento similar al del dilema del prisionero, que de alguna forma presenta la situación más simple y desnuda en la que dos actores se encuentran y tienen que decidir, ¿colaboro o no colaboro?
El problema conocido como el dilema del prisionero fue formulado por primera vez en 1950 por Melvin Drescher y Merrill Flood de la corporación rand. El primer artículo sobre el tema lo escribió Albert Tucker y de ahí surgió su famoso nombre. Publicado sólo años después, el dilema del prisionero fue ampliamente socializado entre la comunidad científica por un rápido proceso de transmisión oral, probablemente porque en esa época prevalecían preocupaciones por la carrera armamentista y la proliferación nuclear. En la formulación original, dos prisioneros A y B, detenidos por la policía como sospechosos de ser cómplices en un delito, son interrogados por separado. A cada uno se le hace la siguiente oferta: si confiesas y delatas al otro preso, tendrás un castigo menor. Así, si A acusa a B y éste guarda silencio, A saldrá libre, mientras que B será recluido cinco años. Pero como la oferta también vale para B, si ambos se acusan, los dos recibirán tres años en prisión. Por otra parte, como no hay pruebas importantes, si ambos guardan silencio, sólo recibirán un año en prisión. ¿Qué deben hacer?
Cada cual tiene la tentación de acusar al otro. Peor aún, cada cual piensa: si callo y el otro me traiciona, me tocan cinco años de prisión. Si lo acuso, tal vez salga libre y, en el peor de los casos, sólo me tocarán tres años de cárcel. Luego, lógicamente, acusa al otro preso. Ambos tendrán sus tres años en prisión. Si tan sólo hubieran colaborado con el otro y callado, sólo se quedarían un año encerrados. Paradoja.
Quizás la publicación más influyente sobre el tema sea The Evolution of Cooperation de Robert Axelrodt, un investigador de ciencias políticas que condujo las primeras simulaciones en computadora para enfrentar distintas estrategias de cooperación. Actualmente, poco más de veinte años después de escritas, las conclusiones de su libro cobran validez. “Hoy, los problemas más importantes que enfrenta la humanidad están en la arena de las relaciones internacionales, donde naciones independientes y egoístas se enfrentan unas a otras en un estado de casi total anarquía. Muchos de estos problemas toman la forma del dilema del prisionero iterado. Entre los ejemplos se pueden incluir la carrera armamentista, la proliferación nuclear y la escalada militar. Por supuesto, para una comprensión realista de estos problemas tendríamos que considerar muchos factores que no están incorporados en la formulación simple del dilema del prisionero, algunos de ellos son la ideología, la burocracia, los acuerdos y coaliciones, la mediación y el liderazgo. Sin embargo, podemos usar la perspectiva ganada con el enfoque matemático. […] Desde los griegos clásicos hasta los estudios contemporáneos, toda la teoría de las ciencias políticas trata un problema fundamental: ¿cómo puede la raza humana entender y controlar las fuerzas ciegas de la Historia? En el mundo contemporáneo este problema es especialmente agudo”. La formulación original del dilema del prisionero es equivalente al siguiente problema —según la forma sugerida por Hofstadter. Supongamos que tienes una cantidad de dinero y quieres comprar diamantes. Contactas al único vendedor de joyas de la ciudad y te pones de acuerdo en las cantidades que habrán de intercambiar. Por alguna causa, la transacción tiene que llevarse a cabo en secreto y cada cual acuerda en dejar una bolsa —una con el dinero, otra con las joyas— en un lugar preestablecido. Para ambos, el comprador y el joyero, es claro que no se encontrarán nunca más en la vida. ¿Qué sucede? Por supuesto, ambos temen que el otro traicionará el acuerdo y dejará la bolsa vacía. Si ambos cumplen y dejan las cantidades acordadas, los dos estarán contentos. Pero cada cual está tentado a salirse con la mayor ganancia: obtener lo que se quería a cambio de no dar nada. ¿Qué piensas hacer? Si cumples y te traicionan, además de lo perdido, te sentirás como tonto. Si no cumples y sólo dejas la bolsa vacía, hay dos posibilidades: o bien te traicionan y no pierdes nada, o bien el joyero cumple y ¡tanto mejor! Entonces, parece razonable concluir que debes dejar la bolsa de dinero vacía. Esta conclusión, lógica y razonable, también la puede tomar el joyero, y te dejará sólo una bolsa vacía. Así, de acuerdo con la lógica, nadie obtiene lo que quiere. Situación paradójica: pudiendo ganar algo que desean, un razonamiento elemental los lleva a perderlo. Para comprender mejor el problema de la colaboración en la sociedad humana, los ejemplos en el mundo animal pueden ayudar. El estudio de la colaboración entre animales surgió con Darwin, quien en 1859, en El Origen de las Especies, señala una serie de tendencias cooperativas y altruistas en los animales que calificó como “una especial dificultad, pues al principio me parecieron fatales para mi teoría”. Sin embargo, se percató de que si la selección natural operaba al nivel de las colonias sociales, las tendencias altruistas podrían explicarse. De hecho, el codescubridor de la selección natural, A. R. Wallace argumentaba en Darwinism, publicado en 1891, “la idea popular de la lucha por la existencia en el mundo animal, que conlleva miseria y dolor, está muy alejada de la realidad. Realmente, la vida se da con gran gozo y un mínimo de sufrimiento”. Uno de los autores más influyentes en el cambio de percepción del mundo animal fue Peter Kropotkin. Personaje fascinante. Príncipe ruso, fundador de un movimiento anarquista, renombrado geólogo y biólogo evolucionista, Kropotkin reportó por primera vez detalles de la cooperación de abejas y de hormigas en la defensa de sus nidos, cooperación entre aves, lobos y la colaboración de los perros de las praderas en la construcción de sus casas. Todos estos ejemplos de cooperación en el mundo animal, y otros casos, pueden considerarse como situaciones del dilema del prisionero. Pero, ¿por qué en el mundo animal hay colaboración, si nuestra conclusión lógica era no colaborar? Por la simple razón de que los animales se reconocen entre sí. El que hoy ayuda, mañana podrá beneficiarse de la ayuda de otros. Las situaciones interesantes en el mundo real no son dilemas del prisionero aislados, sino una sucesión indefinida de dilemas, uno tras otro. Para estudiar el problema en su nueva complejidad, la teoría de juegos puede auxiliarnos. El mito de Tit-for-Tat Consideremos nuevamente el planteamiento del dilema del prisionero. Estamos interesados en cambiar dinero por joyas, pero esta vez continuaremos viviendo en la misma ciudad que el joyero y estaremos interesados en realizar otras transacciones. ¿Qué hacer en este caso? Si traicionamos al joyero, seguramente, será difícil recuperar su confianza para hacer otra transacción. Tal vez sea más inteligente colaborar con él en varias ocasiones, esperar a que se confié, y ¡entonces engañarlo! Bueno, ésta es una estrategia posible. Pero, ¿qué estrategia seguirá el joyero? Pongamos las cosas en términos más precisos. Dos jugadores A y B se enfrentarán en situaciones sucesivas del dilema del prisionero. Ambos podrán colaborar, entonces se presenta la situación C:C, y ambos obtendrán una ganancia R —que pueden ser pesos, años de cárcel, u otra forma de pago—; si A colabora y B no, estamos en la situación C:D, así A obtendrá una ganancia S y B una ganancia T; si sucede que A no colabora y B sí, entonces A obtiene T y B obtiene S; finalmente, si ninguno colabora, es la situación D:D y ambos obtienen P. Por supuesto, se debe tener S < P < R < T.
Además, se impone en el juego la condición T + S < 2 R, para que un jugador no encuentre atractiva la estrategia de “colaboro una vez y la siguiente no, alternadamente”. Por ejemplo, podría ser
T= 3, R = 1, P= –2 y S= –3.
En el dilema del prisionero iterado la estrategia del jugador A puede leerse como una sucesión de acciones: colabora C, no colabora D. Por ejemplo, la estrategia de A puede ser: (C, C, C, D, C, D, D, …), y continúa siempre sin colaborar. Tal vez, la estrategia de B sea (D, C, D, C, D, C, D, …) colaborando una vez no, la siguiente si. En el primer encuentro de A y B, se presenta la situación C:D, de forma que A pierde 3 puntos y B gana 2. En el segundo encuentro, la situación que es C:C y ambos ganan 1 punto. Si seguimos la sucesión de respuestas de las estrategias de A y B, tendremos que sus ganacias, son para A:
–3 + 1 – 3 + 2 – 3 + 2 –2 –2.
y para B:
2 + 1 + 2 – 3 + 2 – 3 –2 –2.
De manera que B siempre aventajará a A por 5 puntos.
Hay muchas estrategias. Por ejemplo:
EstC = (C, C, C, …) siempre colabora
EstD = (D, D, D, …) nunca colabora EstCD = (C, D, C, D …) colabora y luego no, y así sucesivamente EstDC = (D, C, D, C …) no colabora y luego sí, y así sucesivamente; Azar, que decide en cada ocasión por medio de un volado.
Por supuesto, A puede recordar lo que le hizo B y actuar en consecuencia. Así, la estrategia de A puede ser “colaboro siempre que B colabore conmigo, la primera vez que no lo haga, no volveré a colaborar”. O bien, “colaboro con B la primera vez y luego colaboro sólo que haya colaborado conmigo la vez anterior”.
En 1979, Robert Axelrodt decidió organizar un torneo para elegir la mejor estrategia en el juego del dilema del prisionero iterado. Para ello, envió invitaciones a más de sesenta personas, de todas las disciplinas del conocimiento, en seis países. Los instaba a que propusieran estrategias para un torneo que se efectuaría en una computadora. Las estrategias que recibió fueron programadas en Basic y puestas a competir todas contra todas, de modo que cada una se enfrentara a las otras exactamente doscientas veces. ¿Cuál fue la vencedora? La ganadora, y por clara diferencia, fue la propuesta del psicólogo de la Universidad de Toronto, Anatol Rapoport, llamada Tit-for-Tat —que podríamos traducir como Tal para Cual. Esta estrategia, que denotaremos tt, consiste en la siguiente táctica al enfrentarse a otra estrategia B: coopera en la primera jugada con B, y a partir de la segunda vez que lo enfrentes, hazle lo mismo que te hizo en el enfrentamiento anterior. Así de sencillo. El programa de Rapoport era el más corto de todos los enviados a Axelrodt. Más que vencer a las otras estrategias, tt permitía ganar tanto como las otras. Esto bastaba para triunfar en el torneo.
Había otros programas ingeniosos en la lista de Axelrodt. Por ejemplo, el programa Joss enviado por el matemático suizo de ese nombre. Comienza colaborando y contesta no colaborando (D) enseguida de una D del rival, pero a una colaboración (C) contesta colaborando casi siempre, salvo en ocasiones, que al azar elige no colaborar. Joss trata de sacar provecho de la confianza establecida. Otro programa en la lista era Tit-for-two-Tats —escribiremos t2t— que es aún más generosa que tt: colabora primero y no colabora sólo después de que se presenten dos no colaboraciones sucesivas del rival. ¿Por qué Joss no le gana a tt? Enfrentémoslos. La primera jugada es siempre C:C y así continúan hasta que Joss decide no colaborar y tenemos una situación C:D. Entonces tt no colabora, y Joss, inocentemente, regresa a colaborar. Tenemos ahora D:C. Entonces, la siguiente jugada es C:D y después D:C y así sucesivamente hasta que a Joss se le vuelve a ocurrir no colaborar, y se presenta entonces una situación D:D. De ahí en adelante siempre tendremos D:D como respuestas. ¡Joss no pudo sacar ventaja de tt! Probablemente fue una sorpresa que un programa tan simple y claro como tt resultase el ganador del torneo de Axelrodt. A partir de entonces, tt se convirtió en el paradigma del altruismo recíproco. Muchas conclusiones se siguieron de esta idea. En palabras de Axelrodt, “la cooperación mutua puede emerger en un mundo de egoístas sin contar con un control centralizado. Basta comenzar con un grupo de individuos que trabajan con base en la reciprocidad”. Las estrategias deterministas Durante años de trabajo en el área nunca se demostró que tt fuera realmente una estrategia vencedora en torneos definidos de manera más formal y general que los caprichosos torneos de Axelrodt.
Tratemos algunos desarrollos recientes. Normalmente, la literatura sobre el tema considera estrategias estocásticas en las cuales las respuestas, C o D, están determinadas sólo con cierta probabilidad. Por el contrario, para entender mejor la situación es conveniente considerar estrategias deterministas.
Una estrategia determinista E consta de un número finito de estados el primero de los cuales es el estado inicial, dos funciones de transición y una función de salida
Al enfrentarse E con una estrategia B, primero responde s(a0), y dependiendo de la respuesta de B, cambia su estado a uno nuevo e; por ejemplo, si B responde C entonces el nuevo estado de E será e=fC (a0), y responde s(e), y así sucesivamente.
Una estrategia determinista puede dibujarse de manera sencilla por medio de una gráfica con n vértices y flechas de acuerdo con las funciones fC y fD, el valor de la función s se determina por la letra C o D en el lugar de cada vértice. Por ejemplo, consideremos las gráficas de la figura 1.
|
||
![]() |
||
La primera, con un solo estado
a0, s(a0)=C
y, por supuesto,
fC(a0)= a0 y fD(a0)=a0
es la estrategia EstC definida antes. La segunda corresponde a EstD. La tercera es Tit-for-Tat y la cuarta Tit-for-two-Tats. La ventaja de dibujar explícitamente las estrategias es que podemos manipularlas con mayor facilidad. En particular, podemos enfrentarlas y calcular al ganador de torneos.
Primero, es necesario resaltar algunas propiedades interesantes que pueden cumplir las estrategias deterministas. Decimos que una estrategia determinista
A= ({a0, a1,…, an}, fC, fD, s)
es noble si
s(a0) = C y s(fC(ai)) = C
para toda i. En otras palabras, colabora al principio y, cuando el rival colabora, siempre responde C. Decimos que A es vengativa si
s(fD(ai)) = D
para toda i. En otras palabras, siempre responde D a una no colaboración de un rival.
Observemos que EstC, tt, t2t son estrategias nobles, mientras que EstD y tt son vengativas. De hecho, en alguna forma que no trataremos aquí, tt es la única estrategia determinista que es simultáneamente noble y vengativa.
Supongamos que tenemos dos estrategias deterministas A y B.
A = ({a0, a1,…, an}, fC, fD, s)
B = ({b0, b1,…, bm}, gC, gD, t) En su primer encuentro, responden
s(a0):t(b0)
La estrategia A cambiará al estado ft(b0)(a0) y la B al estado gs(a0)(b0). En su segundo encuentro, la respuesta será
s(ft(b0)(a0)): t(gs(a0)(b0))
y cambian los estados de A y B correspondientemente. Matemáticamente, diríamos que la serie de respuestas de los enfrentamientos de A y B, que llamaremos el torneo t(A:B), está dado por la órbita del elemento (a0, b0) en la función tal que
F(ai, bj) = (ft(bj) (ai)), gs(ai) (bj))
Estos torneos también se pueden dibujar por medio de una gráfica, como en los ejemplos de la figura 2.
|
||
![]() |
||
Ahora, hablemos de la ganancia que obtienen A y B al enfrentarse. Usaremos los mismos valores que empleamos anteriormente, es decir, si en el paso i-ésimo la respuesta es
s(ai): t(bi)
la ganancia gi(A:B) de A respecto a B en ese paso es
1 si s(ai): t(bi) = C:C;
2 si s(ai): t(bi) = D:C; – 3 si s(ai): t(bi) = C:D; – 2 si s(ai): t(bi) = D:D; La ganancia g(j)(A:B) de A respecto a B hasta el paso j-ésimo es la suma de todas las gi(A:B) con i ≤ j. Se puede demostrar matemáticamente que el límite de las ganancias promedio de A respecto a B
g(A:B) = limj-->∞ g(j)(A:B)/j
existe y, conociendo la gráfica del torneo t(A:B), puede calcularse fácilmente. Llamaremos a este número g(A:B) la ganancia neta de A respecto a B, la cual, salvo desviaciones marginales, indica la ganancia que obtiene A al enfrentarse con B. En los ejemplos concretos es fácil calcular g(A:B) como ilustramos en la figura 3.
|
||
![]() |
||
Un resultado importante que muestra el comportamiento de diferentes tipos de estrategias es el siguiente teorema: sean A y B dos estrategias deterministas. Entonces sucede lo siguiente: Si A es noble,
g(A:B) ≤ g(B:A)
si A es vengativa, entonces
g(A:B) ≥ g(B:A); y g(tt,B) = g(B:tt).
En otras palabras, Tit-for-Tat no supera a ninguna, sólo empata. Sin embargo, esto le basta para ganar, al menos a veces, cuando se enfrenta con varias estrategias en torneos como los organizados por Axelrodt.
Ahora, organicemos un torneo con los siguientes participantes: Tit-for-Tat y las estrategias P y B indicadas en la figura 4, que incluye la tabla de ganancias. Observamos que P resulta ganadora del torneo. Definitivamente, Tit-for-Tat no es tan buena como la pintan.
|
||
![]() |
||
La estrategia Pavlov
En 1993, Nowak y Sigmund observaron que la estrategia P tenía un comportamiento interesante. Al realizar simulaciones por computadora de torneos entre estrategias estocásticas, obtenían que P era más exitosa que Tit-for-Tat. Por primera vez se contradecían las aclamadas observaciones de Axelrodt.
En ese artículo, se le llamó Pavlov a la estrategia P por la siguiente observación: Pavlov colabora con otra estrategia B en el movimiento i-ésimo si y sólo si en el movimiento anterior ambas jugaron igual. Un jugador con la estrategia Pavlov reacciona como reflejo a su ganancia, repite la respuesta anterior si obtiene T o R puntos (> 0) y cambia de respuesta si obtiene P o S puntos (< 0). Según los autores, el éxito de Pavlov se basa en dos ventajas sobre Tit-for-Tat.
La primera es que puede corregir errores ocasionales. Si dos estrategias Tit-for-Tat se enfrentan y por error —aquí no suponemos que las estrategias son deterministas puras— una contesta D en lugar de C, quedarían perpetuamente respondiendo D:D. En cambio, un error en un jugador Pavloviano, se corrige a la ronda siguiente y regresan a una amigable situación C:C. La segunda es que, a diferencia de Tit-for-Tat, puede sacar provecho de los cooperadores incondicionales. Un error de un jugador Pavloviano contra un cooperador incondicional trae por consecuencia una sucesión de D:C, lo cual favorece las ganancias del Pavloviano. Jamás le sucederá algo así a un jugador con estrategia Tit-for-Tat.
La explicación del éxito pretendido por Tit-for-Tat, según Nowak y Sigmund, está en el tipo de torneos deterministas que fueron jugados. Además, ya se mostró que tt no es exitosa en el mundo determinista. Por otra parte, en el torneo de la figura 4 se observa que Pavlov tampoco es una estrategia invencible, la estrategia B la vence. De hecho, hemos demostrado el siguiente resultado o teorema: Sea
A= ({a0, a1,…, an}, fC, fD, s)
una estrategia determinista con un máximo de cuatro estados. Entonces g(A:J4) ≤ g(J4:A) donde J4 es la estrategia definida en la figura 5.
|
||
![]() |
||
El dilema del prisionero se ha estudiado por más de cincuenta años como una metáfora matemática de muchos problemas biológicos, sociales, económicos y políticos. Como paradigma de la colaboración, la estrategia Tit-for-Tat ha jugado un papel conceptual fundamental. Sin embargo, diversas consideraciones matemáticas y algunas simulaciones por computadora, muestran que esta estrategia no cumple con las expectativas formuladas en la literatura. Otras estrategias más simples, como la intolerante —igual a colaboro la primera vez y sigo colaborando sólo si antes colaboraron conmigo—es mucho más exitosa que la estrategia Tit-for-Tat. Tal vez esto sea decepcionante políticamente, pero matemáticamente es cierto. | ||
José Antonio de la Peña
Instituto de Matemáticas,
Universidad Nacional Autónoma de México.
Nelia Tello
Escuela Nacional de Trabajo Social,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas
Axelrodt, R. 1984. The Evolution of Cooperation. Basic Books, Nueva York.
Conway, J. H. 1971. Regular Algebra and Finite Machines. Chapman and Hall, Londres.
De la Peña, J. A. y N. Tello (en prensa). Deterministic strategies in the iterated Prisoner´s Dilemma.
Dugatkin, L. A. 1997. Cooperation among Animals. An Evolutionary perspective. Oxford University Press.
Hofstadter, D. 1983. “The Prisoner´s Dilemma and the evolution of cooperation”, en Scientific American, número de mayo.
Mesterton-Gibbons, M. 2001. An Introduction to Game-Theoretic Modelling. Student Mathematical Librery 11, ams.
Nowak, M. y K. Sigmund. 1993. “A strategy of win-stay, lose-shift that outperforms tit-for-tat in the Prisoner´s Dilemma game”, en Nature, Vol. 364, pp. 56-58.
|
||
José Antonio de la Peña es Doctor en Matemáticas por la unam y realizó un posdoctorado en la Universidad de Zürich. Es investigador del Instituto de Matemáticas de la unam, de donde es director desde 1998. Pertenece al SNI en el Nivel III. Obtuvo el Premio Nacional de Ciencias y Artes 2005 en el área de Ciencias Exactas y Naturales.
Nelia Tello Peón es licenciada en Trabajo Social por la unam y pasante de la maestría en Semiótica, U. Anahuac. Especialista en atención a jóvenes y académica de la Escuela Nacional de Trabajo Social de la unam, de donde fue directora entre 1992 y 2000.
_______________________________________________________________
como citar este artículo → De la Peña, José Antonio y Tello, Nelia. (2006). ¿Colaborar o no colaborar? Ése es el dilema. Ciencias 82, abril-junio, 42-49. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
¿Vale la pena la búsqueda de inteligencia extraterrestre? |
Se expone el surgimiento y desarrollo del programa para captar señales de radio provenientes de alguna civilización extraterrestre seti, y se analiza la veracidad de sus argumentos, como la probabilidad de que la inteligencia haya evolucionado en otros mundos por caminos convergentes.
|
|
Carlos Alberto Ochoa y Ana Barahona
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Actualmente algunos científicos postulan que si tan sólo en la Vía Láctea existen miles de millones de estrellas, es absurdo pensar que la Tierra, nuestro planeta, fue el único lugar donde se desarrolló la inteligencia. Para demostrar sus presunciones han intentado, por más de cuarenta años, captar señales de radio provenientes de alguna civilización extraterrestre. En ello consiste el famoso programa seti —siglas de Search for Extraterrestrial Intelligence. De acuerdo con esos científicos, seti es el único medio por el cual podemos probar la existencia de vida inteligente más allá del Sistema Solar, ya que los viajes interestelares por ahora no son posibles, además de que los costos de los programas de búsqueda son relativamente bajos.
En 1959, la revista Nature publicó un artículo en el que Philip Morrison y Giuseppe Cocconi, de la Universidad de Cornell, proponen un método para entablar comunicación con civilizaciones extraterrestres; sugieren que para sintonizar las señales el canal adecuado es en la frecuencia de 1.420 millones de ciclos por segundo (Mc/s), esto es, una longitud de onda de 21 cm, por ser la línea que emiten los átomos de hidrógeno. Como este es el compuesto más abundante en todo el Universo, parece razonable pensar que las civilizaciones extraterrestres usan la misma frecuencia de emisión y de recepción para realizar el contacto. En 1961 se llevó a cabo una afamada reunión cuyo principal objetivo fue conversar acerca de la posibilidad de contactar con civilizaciones extraterrestres; el suceso se realizó en Green Bank, Virginia Oriental de Estados Unidos, sede de la National Radio Astronomy Observatory (nrao). Lloyd Berkner consiguió el patrocinio de la Space Science Board de la National Academy of Science de los Estados Unidos. El organizador del evento fue J. P. T. Pearman, de la National Academy, Otto Struve fue el guía y asistieron Cocconi, Morrison, el famoso físico Frank Drake, los astrónomos Su-Shu Huang y Carl Sagan, el biólogo molecular Melvin Calvin —quien recién había recibido el premio Nobel—, el especialista en delfines John C. Lilly, y los ingenieros electrónicos Bernard M. Oliver y Dana W. Atchley. Días antes del encuentro, Frank Drake desarrolló una ecuación que proporcionaría las bases para las discusiones y que sería utilizada para evaluar la probabilidad de encontrar vida e inteligencia extraterrestre. La llamada ecuación de Drake es la siguiente: N= R* x fp x ne x fl x fi x fc x L
en la cual N representa el número de civilizaciones comunicativas en la Galaxia. Las primeras tres fracciones son valores astronómicos que estiman, respectivamente, la proporción de formación de estrellas R*, la fracción de estrellas con planetas fp y el número de planetas por estrellas en los que el ambiente es favorable para mantener la vida ne; los siguientes dos factores pertenecen al dominio de la biología, la fracción de planetas convenientes en los que se originó la vida fl, y la fracción de planetas donde se originó y evolucionó la vida en alguna forma inteligente fi; las últimas dos son del ámbito cultural, fracción de planetas con seres inteligentes que desarrollaron una fase comunicativa fc, y la vida media en la cual una civilización se comunica L. Durante la reunión en Green Bank, Struve conservó su entusiasmo sobre el número de sistemas planetarios estimados gracias a su investigación en la rotación estelar, Su-Shu Huang se encargó de deducir el número de planetas en la Galaxia convenientes para el desarrollo de la vida, Calvin argumentó que el origen de la vida era un evento común y un paso inevitable en la evolución planetaria; Lilly comentó que si los delfines se consideran seres inteligentes, entonces la inteligencia evolucionó independientemente dos veces en la Tierra, por ello deducía que también podría evolucionar en otros planetas. En definitiva, todos concluyeron que dependiendo del promedio de la vida media de una civilización, el rango se ubicaría entre menos de mil hasta mil millones de civilizaciones con las que podríamos comunicarnos en toda la Galaxia. Un año antes se realizó la primera búsqueda, encabezada por Drake y su equipo, con el proyecto Ozma —en honor al nombre de la reina de la mítica tierra de Oz, un lugar lejano, difícil de encontrar, donde habitan seres extraños y exóticos. La observación se hizo en las instalaciones de la nrao en Green Bank; inició el 8 de abril de 1960 y duró poco más de una semana. Sus objetivos fueron dos estrellas de tipo solar, Tau Ceti y Epsilon Eridani, y aunque falló en la búsqueda de inteligencia extraterrestre, facilitó la realización de otros programas de búsqueda, los cuales se llevan a cabo hasta la fecha, pero aún sin éxito. Conflicto En las décadas de los años sesentas y setentas del siglo xx se realizó una serie de conferencias dedicadas al estudio de la vida extraterrestre que impulsó el nacimiento de una nueva disciplina, la exobiología, con el subsecuente establecimiento de una comunidad científica encargada de la investigación de la vida más allá de la Tierra, la cual estuvo formada únicamente por físicos, químicos e ingenieros, especialmente del seti. Con base en esta aclaración, hay que recalcar dos puntos importantes. En primer lugar, los conceptos acerca de la evolución extraterrestre no fueron consultados a biólogos evolucionistas, y no porque no hubiera biólogos cualificados que opinaran sobre este tipo de cuestiones. Aún vivían los creadores de la teoría sintética de la evolución, George Simpson, Ernst Mayr y Theodosius Dobzhansky; de hecho, ellos discutieron, en artículos separados, sobre la vida e inteligencia extraterrestre, y resulta interesante saber que sus opiniones fueron considerablemente escépticas. En segundo lugar, la ecuación de Drake es bastante determinista, idea muy controvertida en biología; las últimas cuatro variables de la ecuación no puede evaluarse, mucho menos (fi), porque no es posible predecir un rumbo concreto en el curso de la evolución, simplemente podemos decir que nuestra historia evolutiva fue sumamente compleja y, por consiguiente, es bastante difícil tratar de determinar una inteligencia extraterrestre tomando como modelo solamente lo ocurrido en la Tierra. Por lo anterior, el conflicto se ha arraigado entre dos formaciones disciplinarias; por un lado los físicos, quienes tienden al determinismo, y por el otro, los biólogos, a quienes se les ha inculcado la importancia del azar en los procesos evolutivos. Pero, ¿qué tan azarosos pueden ser estos procesos? Argumentos contra seti En su libro La vida maravillosa, Stephen Jay Gould escribió que la evolución de la inteligencia en el planeta Tierra fue altamente indeterminada, un suceso totalmente improbable visto en retrospectiva, si en el transcurso de la evolución cualquier evento fuera diferente, la especie humana jamás habría existido. Qué mundos alternos surgirían sin la evolución de los organismos pluricelulares, o de los animales, los cordados o los mamíferos; si no hubiera caído un meteorito en la Tierra hace sesenta y cinco millones de años, cuando los mamíferos vivían bajo la sombra de los dinosaurios; es muy probable que los primeros jamás habrían alcanzado las formas actuales —incluyendo al ser humano. Si en el curso de la evolución, la vida tomara otra alternativa, es seguro que no estaríamos aquí. En palabras de Gould, el “Homo sapiens es una cosa tan pequeña, en un Universo enorme, un acontecimiento evolutivo ferozmente improbable, claramente situado dentro del dominio de las contingencias”. Pese a eso, Gould no era totalmente escéptico en cuanto a la posibilidad de evolución de inteligencia extraterrestre, ponía mucha atención en el fenómeno de las convergencias; por ejemplo, la capacidad de volar —sostenía Gould— ha evolucionado por separado en insectos, aves, murciélagos y pterosaurios; todos tienen los principios básicos para levantar el vuelo, aun con una morfología variada. Otro ejemplo son los lobos y los topos marsupiales australianos, que evolucionaron en formas similares independientemente de los mamíferos placentarios quienes están ubicados en el resto de los continentes. Por lo tanto, Gould estaba de acuerdo con el postulado de que la inteligencia podría haber evolucionado en otros mundos por caminos convergentes, al igual que aquí en la Tierra la facultad del vuelo en los animales. Además, coincidía con la postura de que seti era la única forma de comprobar la hipótesis de los extraterrestres inteligentes, aunque también reconocía que sus posibilidades de éxito eran muy escasas. El fenómeno de las convergencias ha favorecido la realización del programa seti; sin embargo, el surgimiento de nuevos conceptos puso en tela de juicio sus argumentos. En 1977, Salvini Plawen y Ernst Mayr señalaron que la evolución de los ojos se ha presentado en por lo menos cuarenta diferentes grupos de animales, y concluían de ahí que un órgano tan complicado como es el ojo podría surgir repetidas veces en el curso de la evolución. Pero, ¿puede originarse por convergencia una inteligencia similar a la del ser humano? Gould apoyaba esta idea. Más regresando al argumento del origen polifilético de los ojos, es pertinente señalar que en los últimos años la evolución de los ojos se está rexaminando. De hecho, el descubrimiento de los genes que regulan la morfogénesis en el desarrollo embrionario —genes de control maestro— cambió la perspectiva en la biología moderna. Resulta que todos los metazoos comparten genes homólogos que regulan el desarrollo embrionario. En una de las investigaciones que apoyan fuertemente la nueva perspectiva, realizadas por Walter J. Gehring y sus colaboradores, encontraron que el gen Pax 6 —el que regula la morfogénesis del ojo— es homólogo tanto en insectos como en vertebrados. Es interesante señalar que este gen se ha detectado en todos los grupos de animales que poseen ojos, desde platelmintos —invertebrados de simetría bilateral— hasta mamíferos. Estos resultados comienzan a generar dudas sobre la hipótesis del origen polifilético de los ojos en los grupos animales, sugiriendo más bien uno monofilético. Gehring señala que el origen de los ojos fue un evento raro, y una vez que surgió el prototipo, la selección natural actuó optimizando el desarrollo de los ojos en los diferentes grupos de animales, como es el caso de la convergencia de los de vertebrados y de cefalópodos. Estas conclusiones son sorprendentes, ya que empezamos a comprender que los animales —bilateralmente simétricos— podrían ser variaciones de un mismo diseño corporal que se remonta al precámbrico y, por lo tanto, el surgimiento de cada estructura o morfología, como los ojos y el cerebro de los animales, podría ser irrepetible. Con base en lo anterior, podemos revisar uno de los descubrimientos más importantes en la exobiología. El 7 de agosto de 1996, la National Aeronautics and Space Administration (nasa), realizó una conferencia de prensa para anunciar la publicación de un artículo en la revista Science, “Search for past life on Mars: possible relic biogenic activity in martian meteorite ALH84001”. En ese texto, David S. McKay y sus colegas afirmaban haber encontrado en un meteorito marciano la evidencia de una posible forma de vida extraterrestre. La historia de este meteorito surge hace quince mil millones de años, cuando Marte fue impactado por un asteroide, desprendiéndose de él algunos fragmentos que viajaron por el espacio exterior hasta que cayeron en la Antártica hace trece mil años. Al examinar varios de esos fragmentos se descubrió que en las grietas de uno de ellos había substancias químicas que suelen formarse por alguna actividad biológica; y no sólo eso, incluso presentaba unos microfósiles que recordaban a las bacterias de la Tierra. Lo más curioso del asunto es que esos microfósiles datan de tres mil seiscientos millones de años atrás —lo que coincide con los fósiles más antiguos de la Tierra—, una época en la que el agua era abundante en la superficie de Marte. Aunque todas estas evidencias podrían explicarse de otra manera —no mediante la materia biológica—, es cierto que despertó el interés del público y el de la ciencia. Ahora bien, cabría preguntarnos ¿qué relación tiene el meteorito marciano con la inteligencia extraterrestre? Sus bacterias nos conducen a una conclusión fascinante: que ése podría ser el tipo cosmopolita de la vida en el Universo. Si es así, ¿cuáles son las posibilidades de que surja la vida compleja por caminos convergentes en otros planetas partiendo de las bacterias? Como vemos, la pregunta cambió radicalmente. Antes podría ser cualquier cosa refiriéndonos a la materia organizada, ahora tendría que surgir de una célula tipo bacteriano, el cual es muy diferente a nuestro tipo celular que es eucarionte y sus orígenes pueden rastrearse hace mil cuatrocientos millones de años, una época en la que las condiciones atmosféricas de la Tierra empezaban a cambiar. En aquel entonces hubo un incremento exponencial de oxígeno, un gas venenoso que resultó mortífero para los organismos dominantes en ese período; solamente algunos sobrevivieron, entre ellos los eucariontes, un tipo celular que surgió de la simbiosis de dos células de tipo bacteriano. Ahora bien, las mitocondrias transforman el mortífero oxígeno en energía, cualidad que proporcionaría a las nuevas células eucariontes el boleto para la supervivencia. En conclusión, sin la simbiosis de las dos células de origen procarionte, las eucariontes no existirían. Algo interesante, puesto que las últimas son la materia prima para la construcción de organismos pluricelulares. Éste caso sólo representa un pequeño ejemplo de las millones de contingencias que nos conducen a pensar en lo indeterminado que es la inteligencia extraterrestre.
Finalmente, según la hipótesis de Peter D. Ward y Donald Brownlee, la vida bacteriana está extendida por todo el Universo, y que la vida compleja —como los animales— probablemente es extraña y difícil de mantener —postura a la que llaman la hipótesis de la Tierra extraña. De hecho, Ward y Brownlee desarrollaron su propia ecuación, la ecuación de la Tierra extraña, que es la siguiente: N = N* x fp x fpm x ne x ng x fi x fc x fl x fm x fj x fme
donde N* es el número de estrellas en la Vía Láctea, fp la fracción de estrellas con planetas, fpm la fracción de planetas ricos en metales, ne el número de planetas en zonas habitables de la estrella, ng las estrellas en una zona habitable de la Galaxia, fi la fracción de planetas habitables donde se originó la vida, fc la fracción de planetas donde surgió vida compleja como los metazoos, fl el porcentaje del tiempo de vida de un planeta donde existe vida compleja como los metazoos, fm la fracción de planetas que tengan un satélite del tamaño adecuado, fj la fracción de sistemas solares con planetas del tamaño de Júpiter, y por último, fme la fracción de planetas con un bajo número de eventos de extinción masiva. Con todas estas variables, el valor del número de civilizaciones en la Vía Láctea N, según Ward y Brownlee, se aproxima a cero. Escribieron, “evidentemente, algunos de estos términos se conocen en poco detalle [pero] la variabilidad de factores que han permitido la evolución de la vida animal en este planeta, debe ser más grande de lo que se conoce ahora […] La continua marginalización de la Tierra y su lugar en el Universo quizás debería ser examinada de nuevo. No estamos en el centro del Universo y nunca lo estaremos. Sin embargo, no somos tan ordinarios como la ciencia occidental nos ha hecho creer durante milenios”.
Aunque todas las propuestas acerca del programa seti parecen bastante interesantes, es indudable que sus posibilidades de éxito son escasas y, por lo tanto, podrían representar una perdida de tiempo y de recursos. Thomas S. Kuhn decía que la ciencia es un fenómeno social que se realiza por medio de nociones y supuestos teóricos que un grupo humano comparte en una época en particular. Quizás, por ahora, no podamos responder la pregunta más enigmática de la humanidad; pero de algo sí podemos estar seguros: nuestra especie es del tipo de vida más raro y exótico que pueda presenciar el Cosmos. Tal vez el Universo está plagado de vida, pero imaginar que hay seres inteligentes en otros mundos, en realidad es lo que nos hace únicos. |
||
Carlos Alberto Ochoa Olmos
Ana Barahona Echeverría
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas
Cocconi, G. y P. Morrison. 1959. “Searching for interstellar communications”, en Nature, vol. 184, pp. 844-846.
Dick, S. J. 1996. The biological Universe: The twentieth-century extraterrestrial life debate and the limits of science. Cambridge University Press.
Dobzhansky, T. 1972. “Darwinian evolution and the problem of extraterrestrial life”, en Perspectives in Biology and Medicine, vol. 15, pp. 157-175.
Gehring, W. J. 1998. Master control genes in development and evolution: The homeobox story. Yale University Press.
Gould, S. J. 1995. La sonrisa del flamenco. Crítica, Barcelona.
Gould, S. J. 1999. La vida maravillosa: Burgess Shale y la naturaleza de la historia. Crítica, Barcelona.
Mayr, E. 1987. “The probability of extraterrestrial intelligent life” en Extraterrestrials: Science and alien intelligence, Regis, E. (ed.), Cambridge University Press, pp. 23-30.
Ochoa Olmos, C. A. 2003. Perspectiva histórica de la pluralidad de los mundos y el debate inteligencia extraterrestre en el siglo xx. Tesis de licenciatura, unam, fes Iztacala.
|
||
Carlos Alberto Ochoa Olmos estudió biología en la Facultad de Estudios Superiores Iztacala de la unam. Actualmente estudia la maestría en Ciencias Biológicas y es profesor de Filosofía e Historia de la Biología en la Facultad de Ciencias de la unam.
Ana Barahona Echeverría estudio la licenciatura en biología en la Facultad de Ciencias de la unam, donde obtuvo el Doctorado en Ciencias. Es profesora de la Facultad de Ciencias de la unam, miembro de la Academia Mexicana de Ciencias y del Sistema Nacional de Investigadores.
_______________________________________________________________
como citar este artículo → Ochoa Olmos, Carlos Alberto y Barahona Echeverría, Ana. (2006). ¿Vale la pena la búsqueda de inteligencia extraterrestre? Ciencias 82, abril-junio, 4-10. [En línea] |
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
de la red | |||
Algo más que un medio
|
|
||
Susana Biro
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | ||
Es una lástima que no haya forma de conocer las reacciones de nuestros antepasados cuando apareció la escritura. No puedo evitar imaginar que surgieron discusiones muy similares a las que se originaron con el advenimiento de la prensa en el siglo xv, la imprenta de vapor en el xix o la televisión en el xx. Que si estábamos mejor antes, cuando un experto contaba nuestras historias, y no cualquiera capaz de sostener la cuña; que si por medio de símbolos no es posible expresar lo mismo que de viva voz; en resumen, que no puede ser igual.
La aparición de la Internet, hace algunas décadas, es un fenómeno semejante que ha propiciado discusiones del mismo estilo. Se habla de la preocupación de que este medio suplante a los impresos; de la desventaja de que sea tan fácil publicar información en ella, pues la ausencia de un proceso editorial merma la calidad; o del peligro de que circule información no deseada. Seguramente es demasiado pronto para valorar todas las ventajas y desventajas de este medio de comunicación. Sin embargo, resulta interesante hacer una revisión de las formas en que está afectando los modos en que se desarrolla el quehacer científico. Hay algunos cambios evidentes, no hay duda de que la información fluye con mayor rapidez. Por ejemplo, el correo electrónico permite la comunicación más rápido, a menor costo y con mayor precisión que la complicada combinación de correo ordinario y llamadas telefónicas. Además, la posibilidad de ver lo que está en la computadora del prójimo enriquece las vías de comunicación previas como los medios impresos. Especialmente, esto es claro en el caso de las revistas. La gran mayoría se publica tanto en papel como en formato electrónico. En el segundo caso, en lugar de una simple lista de notas y referencias, los artículos pueden tener ligas a los sitios donde se encuentra la información. Además, pueden llevar muchas más ilustraciones, en color si esto es necesario, e incluso animaciones —cosa que es imposible en una revista de papel. Pero la red les permite a los científicos ir aún más allá. En paralelo al proceso lento —y necesario, dicho sea de paso— de arbitraje y publicación, los artículos pueden presentarse en un foro más amplio al mismo tiempo en que son enviados a una revista. Tal es el caso del sitio arxiv.org, iniciado por físicos, pero ahora aprovechado por especialistas de otras disciplinas.
El espacio donde suceden cosas realmente novedosas e interesantes es los sitios o páginas web. Si uno revisa los objetivos de las páginas que producen o comentan los científicos, se encuentra una gran variedad. Las hay meramente informativas, con datos de la institución o el investigador. Las mismas instituciones y personas producen páginas de divulgación, en las que presentan información de modo que pueda ser entendida por el público en general. Tal es el caso de la atractiva página sobre volcanes www.swisseduc.ch/stromboli en la que se pueden encontrar fotografías, videos y explicaciones sobre éste fenómeno natural. Además de utilizarlas para dar a conocer sus descubrimientos, los científicos se apoyan en las páginas para enriquecer su labor de enseñanza. Una página en la red puede contener simulaciones de experimentos que es imposible hacer en clase, bases de datos que relacionan información y referencias de muchos otros sitios. Un ejemplo es la multipremiada página creada en el Lawrence Livermore National Laboratory —fusedweb.llnl.gov— que explica el fenómeno de la fusión aprovechando las bondades de este medio. Los sitios en la red también sirven para juntar lo que de otro modo no podría juntarse. Hay enormes metabases de datos que permiten tener un panorama de toda la información acerca de un tema. También hay páginas, como www.microbeproject.gov, que reúnen pequeños grupos de investigación que de otro modo no estarían en contacto. Estos pocos ejemplos sirven para proporcionar una idea de las muchas formas en que la red ha cambiado nuestra manera de comunicar la ciencia. Además, sirvan para enriquecer el registro de la discusión acerca de los efectos de la aparición de este nuevo medio de comunicación. |
|||
Susana Biro
Dirección General de Divulgación de la Cienca,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Biro, Susana. (2006). Algo más que un medio. Ciencias 82, abril-junio, 50-51. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
De la licuefacción de los gases o hacia la bajas temperaturas |
Se describen los principales acontecimientos, desde la segunda mitad del siglo XVII hasta los albores del XX, en torno al desarrollo de la rama de la física dedicada al estudio de las bajas temperaturas, incluyendo la fundación del primer laboratorio moderno de criogenia en el mundo.
|
|
Andrea Aburto
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |
Cuando escuchamos o leemos acerca de las altas o bajas temperaturas, en general, nuestra percepción se limita a lo que nos es usual. En París, en el verano de 2003 se alcanzó la temperatura récord de 40ºC; la exterior, cuando viajamos en avión, es de alrededor de –40ºC. En este marco, no sería difícil imaginar que la temperatura de fusión del cobre es de 1 380ºC y que en el espacio interestelar es de –120ºC. Sin embargo, ¿qué sucede cuando nos informan que el interior del Sol está a casi diez millones de grados Kelvin o que en su corona es cerca de un millón?, entonces cabe preguntarnos ¿qué tan alto podemos llegar?, o ¿qué tan bajo?
La historia de las bajas temperaturas está estrechamente vinculada con la evolución de los conceptos de calor y temperatura. Sabemos que cuando juntamos dos cuerpos, uno caliente y otro frío, al cabo de un tiempo llegarán al equilibrio térmico; es decir, tendrán la misma temperatura, que es una medida del nivel de calor alcanzado y no del calor propiamente como tal. Microscópicamente decimos que la temperatura mide el grado de agitación de los átomos de un cuerpo y, por ende, no hay límite superior. Entonces, cuanto más agitados estén los átomos, mayor será la temperatura del cuerpo y a la inversa, conforme se calma la agitación la temperatura desciende hasta llegar a un punto de inmovilidad casi total, el cero absoluto.
Muchas escalas de temperatura están basadas en conocimientos empíricos, pero la absoluta lo está en resultados experimentales sobre las propiedades de los gases. En 1661, Robert Boyle observó que el producto de la presión (P) por el volumen (V) de una cantidad de aire, a temperatura constante, era constante en un intervalo moderadamente amplio de presiones. Hoy, este resultado se conoce como la ley de Boyle y tiene como expresión matemática: PV = constante. Posteriores experimentos mostraron que la ley de Boyle sólo era aproximadamente cierta, excepto en el límite de las bajas presiones donde es exacta para todos los gases. En dos notables trabajos sobre termometría, publicados en 1688, el físico francés Guillaume Amontons propuso un método para medir el cambio de temperatura del aire en términos de un cambio proporcional de la presión del gas en condiciones de masa y volumen constante. Amontons definió la temperatura del cero absoluto como aquella en que la presión del gas tiende a cero.
En los albores del siglo xix, Joseph-Louis Gay Lussac y Jacques-Alexandre César Charles concluyeron, en forma independiente, que el volumen ocupado por cualquier gas incrementa linealmente con el aumento de la temperatura, cuando la presión se mantiene constante. Este resultado se conoce como la ley de Charles y puede expresarse de la siguiente forma:
V = Vo(1 + α t)
donde V es el volumen a una temperatura t (ºC), Vo es el volumen a 0ºC y α es el coeficiente de expansión térmica. Según esta ley, α presenta el mismo valor para varios gases, y como la de Boyle, llega a ser exacta en el límite de las bajas presiones, donde α toma el valor 0.003661 = 1/273.15. Ahora bien, si insertamos este valor en la ecuación anterior se obtiene que cuando t = –273.15ºC, el gas no presenta volumen. De acuerdo con estas leyes, el enfriamiento contínuo de un gas lo llevaría a contraerse de tal manera que una vez alcanzado –273.15ºC, ocuparía un volumen nulo. A esta temperatura se le llamó el cero absoluto, porque cualquiera más baja es imposible. El concepto de volumen nulo se entiende en términos de que no existe espacio libre entre las moléculas del gas por la compresión molecular a esta temperatura. Es importante resaltar que como resultado de estas leyes, en el cero absoluto toda sustancia se presenta en estado líquido o sólido. Se definió entonces una nueva escala de temperaturas que establece que al insertar la temperatura T, dada por
T = t + 273.15
en la ley de Charles se llega a V/T = constante, expresión que combinada con la ley de Boyle resulta en la ley general de los gases: PV/T = constante. Esta ecuación implica que si se mantiene constante la presión de una cantidad de gas, la medición del volumen puede usarse para determinar la temperatura, y viceversa. El gas ideal o perfecto es aquel que respeta la ecuación general de los gases, y la temperatura T fue definida en la escala absoluta de temperaturas o escala de temperatura de los gases ideales. Ningún gas conocido se comporta exactamente como un gas ideal, por eso la mayoría de los experimentos iniciales que utilizaron estos principios produjeron escalas ligeramente diferentes. No sólo por las divergencias entre los gases, también por los modos de operación de las constantes de presión y de volumen. En 1848, el físico irlandés William Thomson, prosiguiendo los trabajos de los franceses Gay Lussac y Sadi Carnot, precisó los resultados con respecto al cero absoluto al proponer una escala termodinámica independiente de las sustancias estudiadas. Estos trabajos demostraron que las moléculas de toda sustancia —sólida, líquida o gaseosa— pierden energía a un ritmo constante al descender la temperatura. Calculó que la pérdida total de energía se presenta cuando la sustancia alcanza –273.15ºC, el cero absoluto. Además de la búsqueda del cero absoluto, Thomson trabajó en termodinámica y estuvo involucrado en el primer cable trasatlántico, para el cual diseñó una máquina capaz de transmitir señales rápidamente a través del cable y comunicarse con un submarino. Tal invento no sólo lo enriqueció, por ser más rentable y mucho más fácil de comprender, sino que además le valió el título de caballero, concedido por la reina Victoria. En 1892 fue nombrado Barón Kelvin de Largs, Lord Kelvin. La escala absoluta de temperaturas se bautizó así en su honor, el 0 K —sin el símbolo de grado— es equivalente a –273.15ºC. Una vez conocida la meta, el cero absoluto, quedaba por descubrir ¿cómo llegar a ella? Actualmente, según las condiciones normales que se presentan en nuestro planeta o las obtenidas en los laboratorios, sabemos que las sustancias están formadas por elementos que pueden cambiar de estado de agregación por medio de la condensación, la solidificación, la licuefacción, la sublimación o el derretimiento. Los gases permanentes En 1835, con una mezcla de nieve carbónica y éter, el químico francés Thilorier alcanzó –110ºC. Sin embargo, en ese momento el gran enigma consistía en cómo licuar los llamados gases permanentes: el oxígeno, el nitrógeno y el hidrógeno. Por más que se comprimían, aumentando la presión, inexorablemente quedaban como vapor. Un astrónomo aficionado, Joseph Norman Lockyer descubrió el helio en 1868. Leyó los trabajos de dos científicos alemanes, Gustav Kirchkoff y Robert Bunsen, en donde explicaban cómo el espectro de una fuente luminosa tenía que ver con su composición química. Así, cada raya del espectro indicaba la presencia de un elemento químico. Basado en esto, Lockyer estudió el espectro del Sol y observó las rayas características del hidrógeno, pero también una raya amarilla que no pudo adjudicar a ningún elemento, entonces la atribuyó a un nuevo elemento presente en el Sol, el helio. La carta en la que anunciaba su descubrimiento llegó a la Academia de Ciencias de París el 24 de octubre de 1868, el mismo día en que fue enviada la comunicación del astrónomo francés Janssen, quien llegó paralelamente a los mismos resultados. Esta paternidad simultánea de los descubrimientos no es una casualidad en las ciencias, durante muchos años para evitar la ambigüedad se consideraba al primero en comunicar como el autor del descubrimiento. Hoy, es la publicación en revistas científicas lo que rompe esa ambigüedad. Al año siguiente de su descubrimiento, Lockyer fundó la revista Nature, una de las más prestigiadas del mundo.
Después del descubrimiento de Janssen y Lockyer quedaba encontrar el helio en la Tierra. Como tan sólo cinco partes por millón del aire están constituidas por helio, la dificultad de aislarlo era evidente. Encontrarlo en nuestro planeta tuvo que esperar ventisiete años. En 1877, como muchos de sus congéneres, Georges Cailletet estaba consagrado a la licuefacción del oxígeno, y esperaba conseguirlo comprimiéndolo suficientemente. En varias tentativas fallidas, observó un fenómeno curioso, en las pruebas preliminares con acetileno se percató de una fuga en su aparato, una parte del gas comprimido se escapaba. Había constatado la formación y casi instantánea desaparición de una ligera niebla dentro del tubo de vidrio que contenía el acetileno. De ello dedujo que la caída de presión provocó el enfriamiento del gas y su condensación temporal en gotitas. ¿Qué había pasado? La fuga descomprimió al acetileno. Al enfriarse un gas ocupa un volumen mayor; en efecto, la temperatura —como lo predijo Joules— está en relación directa con la agitación de las moléculas. En el tubo de Cailletet las moléculas de acetileno, que después de la fuga tenían más espacio, chocaban y se agitaban menos, el gas se había enfriado. Esta observación del experimento fallido le proporcionó la clave para el método con el cual obtener el resultado buscado. Encerró oxígeno bajo presión —aproximadamente 300 atmósferas— en un tubo de vidrio de paredes gruesas. Enfrió el tubo en forma constante a –29ºC, utilizando vapores de anhídrido sulfuroso. Posteriormente, permitió que el oxígeno se dilatara en el recipiente, la temperatura cayó abruptamente y se formaron gotitas sobre las paredes del tubo. Aunque se evaporaron casi inmediatamente, no importaba, fue ese día, 2 de diciembre de 1877, cuando el oxígeno dejó de ser un gas permanente. Cailletet no reveló sus resultados a la Academia de Ciencias. El 17 del diciembre se celebraría una reunión en la que se decidiría su elección como miembro correspondiente, y pensó que comunicar su hallazgo antes de tal reunión podría influir la decisión del consejo. Sin embargo, envió una carta a un amigo —Saint Claire Deville—, el cual lo comunicó inmediatamente al Secretario Permanente de la Academia, quien fechó y selló la comunicación. Así las cosas, el 24 de diciembre Cailletet entregó su comunicado a la Academia, apenas hubo terminado su lectura, el secretario anunció en la tribuna que dos días antes había recibido el siguiente telegrama: oxígeno licuado hoy bajo 320 atmósferas y 140 grados de frío por la combinación de ácido sulfuroso y ácido carbónico. Raoul Picket.
El físico suizo pudo tener la primicia de no ser por la actitud precavida de Cailletet al enviar la carta a su amigo. Por ello, Cailletet pasó a la posteridad como quien licuó el oxígeno. Sin embargo, Picket llegó a un resultado idéntico pero con un método mucho más eficaz, llamado de cascadas. El 18 de diciembre, la Academia eligió a Cailletet como miembro correspondiente por 33 votos contra 19. Unas semanas después la licuefacción del oxígeno. En ambos casos, sólo se obtuvieron pocas gotitas y de corta duración. Entonces, el reto, como lo expuso Cailletet en su presentación “queda pendiente el experimento decisivo”, era poder conservar el oxígeno líquido a la temperatura de su punto de ebullición. Ni él ni Picket lo consiguieron. En 1877 vivía en París un físico polaco de noble cuna que devoraba toda publicación sobre el tema, Szygmunt Florenty von Wroblewski, originario de Cracovia. Con particular interés había leido un informe de una serie de experimentos realizados la década anterior por el químico Thomas Andrews en el Queens College de Belfast. Andrews demostró que la presión sólo podía ayudar para licuar un gas si éste se enfriaba por debajo de una temperatura crítica propia del gas. Mientras no se superara este escollo-umbral, todo esfuerzo sería inútil, por más que se comprima, el gas jamás pasaría al estado líquido. Wroblewski y Cailletet tenían una cordial relación, a menudo conversaban o discutían, al grado que al regresar Wroblewski a su país natal, se llevó consigo un aparato idéntico al de Cailletet. Cuando llegó a la Universidad de Cracovia, se encontró con que el jefe del laboratorio de química, Olszewski, también era un apasionado de las bajas temperaturas y de la posibilidad de licuar los aún llamados gases permanentes, el nitrógeno y el hidrógeno. Wroblewski y Olszewski comenzaron a trabajar juntos en febrero de 1883. Durante dos meses se abocaron a la posibilidad de que aquellas gotitas de Cailletet se transformaran en un líquido bullente. Ya iban por –105ºC, faltaba poco. En ese momento no sabían que la temperatura crítica del oxígeno —bajo presión— es de –118ºC. Los polacos tuvieron la idea de emplear una bomba para disminuir la presión sobre el etileno líquido, porque según los trabajos de Andrews y Cailletet así sobrevendría el enfriamiento. Efectivamente, la temperatura del etileno cayó a –130ºC, un ambiente frío para el tubo que contenía oxígeno. El 9 de abril vieron cómo se formaban pequeñas gotas sobre las paredes de vidrio, gotas de oxígeno que lentamente se acumulaban en el fondo. El nuevo líquido de tonos azules que hervía en el fondo del tubo de ensayo era el preludio de una nueva tecnología. Mucho tiempo después, los motores de los cohetes V2 de la Alemania nazi llevarían este líquido azulado y posteriormente permitiría al hombre llegar a la Luna. Wroblewski y Olszewski se enemistaron y no volvieron a trabajar juntos. Wroblewski falleció en un accidente de laboratorio cinco años más tarde y Olszewski continuó trabajando en forma independiente y falleció en 1915. Cuentan que si se visita la Universidad de Cracovia, en la antigua sala de la Universidad Real, se puede ver las notas de Wroblewski, medio quemadas en el accidente, junto a las de su ilustre predecesor, Nicolás Copérnico. Durante los años siguientes, se licuaron sucesivamente el metano, el óxido de carbono y el nitrógeno. Nadie dudaba en la licuefacción del hidrógeno, el último de los gases permanentes. El crióstato de Dewar Dicen que James Dewar, hijo de un posadero escocés, tenía un carácter colérico y hasta vengativo, así como una innegable necesidad de figurar. Sin embargo, también poseía una extraordinaria capacidad manual y era un gran experimentador. De niño cayó al agua al fracturarse la capa de hielo por donde caminaba, el accidente le causó una grave pulmonía, debilitándolo y privándolo de los juegos típicos de la edad. Pasó su recuperación junto a un constructor de violines, se dice que de ahí provienen sus grandes capacidades manuales. Todos los viernes por la noche, Dewar dictaba conferencias públicas en el Royal Institute de Londres, en las que exponía sus últimas investigaciones. El público asistía como quien va al teatro, para admirar la licuefacción del oxígeno. Sus exposiciones eran perfectas y no dejaban traslucir los problemas de su niñez. Le mostraba al público los gases licuados hirviendo lentamente en sus probetas, evitando que una pronta evaporación aburriera a la concurrencia. Empresa para nada evidente si se considera que sólo el calor del conjunto de personas encerradas en un auditorio era capaz de trasminar los tubos de vidrio y echar a perder el espectáculo. El primer sistema que inventó consistía en una probeta con oxígeno líquido, dentro de otra más grande cerrada con un tapón. En el fondo y en medio de las probetas, había un producto secante que impedía la formación de escarcha al absorber el vapor del agua condensada entre los dos recipientes, posibilitando siempre la observación del oxígeno en ebullición. Según sus propios cálculos, este artefacto era bastante bueno para el oxígeno, pero insuficiente para el hidrógeno. Entonces decidió abocarse a la posibilidad de guardar el hidrógeno líquido, antes de licuarlo. Dewar tuvo un momento de genialidad cuando observó que el mejor aislante era el vacío, ya que el calor se transmite vía las moléculas del aire; sin aire, el recipiente interno estaría aislado. En 1892 fabricó un recipiente de doble pared, plateadas para reducir la absorción de calor reflejando los rayos, en el cual bombeó el aire entre las paredes para tener un vacío lo más perfecto posible. Este aparato permitía conservar no sólo algunos centímetros cúbicos, sino litros de gas licuado. Con estos crióstatos —del griego cryos que quiere decir frío— era posible conservar el hidrógeno, si se conseguía licuarlo. Dewar se puso a trabajar casi frenéticamente porque sabía que tanto Karol Olszewski, en Cracovia, como Kamerlingh Onnes, en Leyden, estaban en el mismo tema. Dewar ganaría la carrera el 10 de mayo de 1898, al obtener veinte centímetros cúbicos de hidrógeno hirviendo lentamente en su crióstato. La máquina que el escocés concibió para alcanzar su meta se basaba en el principio de la descompresión de Joule-Thomson, quienes cuarenta años antes descubrieron que si la descompresión de un gas, o una lenta disminución de la presión que se ejerce sobre él, se realiza sin intercambios con el exterior, entonces el trabajo necesario para separar sus moléculas debe realizarse desde dentro, por consiguiente, por el propio gas. Como el gas gasta energía, se enfría. Sin embargo, esta regla tiene sus excepciones, el hidrógeno a temperatura ambiente se recalienta cuando se le descomprime. Hay que partir de –40ºC para que la descompresión sea acompañada de un descenso de la temperatura. Dewar comenzó comprimiendo fuertemente el hidrógeno y lo introdujo en un recipiente de nitrógeno líquido. Dejó que el hidrógeno se descomprimiera así enfriado —el nitrógeno se vuelve líquido a –196ºC—, luego permitió que circulara por una serpentina que llevaba nuevas cantidades de gas comprimido hasta un grifo de descompresión. La temperatura de la serpentina decrece continuamente hasta la licuefacción del hidrógeno. De este modo, alcanzó –252.76ºC. El líquido de su recipiente no existía en ninguna otra parte del Sistema Solar. Creyó que ya no quedaban gases permanentes, puesto que el último se rindió a su ingenio. La comunicación de Dewar estuvo acompañada por una de esas numerosas controversias a la que estaba acostumbrado. Algunos meses antes, Linde en Alemania y Hampson en Inglaterra registraron las patentes de las máquinas industriales de descompresión Joule-Thomson que permitían separar el oxígeno del aire líquido. Karl von Linde fundó una fábrica de máquinas de hielo y, posteriormente, la primera empresa de licuefacción de oxígeno, la cual prospera hasta ahora. Dewar se había inspirado en sus máquinas y citaba a Linde en las notas de pie de página, pero no a Hampson; dicen que por regla general no le gustaba citar a todos. Dos semanas después, la revista de Lockyer —Nature— publicó una indignada carta de Hampson en la que se quejaba del olvido. Aseguraba que hacia fines de 1894 visitó al adjunto de Dewar, Lennox y le habló de su invento. Esto ocurrió seis meses antes de registrar la patente. Por consiguiente, Hampson dejaba entrever que si Dewar había logrado la licuefacción del hidrógeno era gracias a la información que le había proporcionado a Lennox. Por el mismo medio, Dewar respondió con su acostumbrada amabilidad, que habría tenido éxito de todos modos y con la misma rapidez aunque Hampson nunca hubiese existido. Nature publicó cuatro series de intercambios epistolares entre Hampson y Dewar, tan pérfidos unos como otros. Llegó el mes de agosto y el asunto seguía ahí. Sin embargo, el tiempo de Dewar tocaba a su fin. El año siguiente alcanzó su último triunfo en la ruta del frío, logró solidificar el hidrógeno llegando a sólo catorce grados del cero absoluto, –259ºC. Esta vez, Dewar estaba convencido de haber terminado con esa página de la física. Su primera comunicación, se titulaba La licuefacción del hidrógeno y del helio, pues estaba persuadido que al obtener el hidrógeno líquido, también había licuado todo resto de helio allí mezclado.
El helio, en la tierra como en el cielo En 1895 se detectó helio en la Tierra, Sir William Ramsay descubrió que la clevita —mineral de uranio—, emitía un espectro idéntico al observado en el Sol por Janssen y Lockyer. El 23 de marzo le envió un telegrama al químico francés Marcelin Berthelot: “Gas obtenido por mi —clevita— mezcla argón-helio […] Grookes identifica espectro […] envíe comunicación a la Academia el lunes”. Berthelot presentó el informe solicitado y se ocupó, tres días después, de elaborar otra comunicación sobre el tema, donde contaba pocas cosas en muchas palabras por la falta de informaciones nuevas; pero con ello, valorizaba su imagen de sabio siempre al día en materia de investigación. El procedimiento probó ser eficaz, porque, entre otras funciones, ocupó el cargo de ministro de instrucción pública. Una vez descubierto el helio en la Tierra, era preciso obtenerlo en cantidades importantes. Primero, se constató su presencia en la atmósfera a razón de un cinco cien milésimo del aire; sobretodo en las arenas de monacita —fosfatos de tierras raras— y hasta en las fuentes minerales de las estaciones termales de moda. Dewar podía pensar, con todo derecho, que había licuado el helio al licuar el aire y luego el hidrógeno. Pero en realidad lo que tomaba por restos de helio era resultado de impurezas; debió rendirse al hecho de que la nueva sustancia quedó en estado gaseoso, prisionera del hidrógeno sólido, y ello a pesar de su nuevo récord de temperatura, sólo diez grados por encima del cero absoluto. La carrera se reanudó con más fuerza entre Leyden, Cracovia y Londres. Dewar pudo ganar, pero su carácter desconfiado le jugó una mala pasada. Para licuar el helio era necesario poseer el gas y en grandes cantidades; sin embargo, no podía procurárselo. Había una solución, pero tenía que pasar por los grandes precipicios del orgullo para llegar hasta Ramsey, el mayor especialista mundial de helio, quien vivía a dos pasos. Desgraciadamente, ninguno de los dos era modesto y se detestaban cordialmente. Ramsey llegó a convencerse de que la licuefacción del hidrógeno la realizó Olszewski antes que Dewar, golpe que le asestó en plena reunión de la Royal Society. Al reclamarle Dewar las pruebas de su afirmación, Ramsay fue incapaz de presentarlas; incluso debió admitir, en la reunión siguiente, que se había equivocado; el polaco, enterado de la querella, le había enviado una carta en la que decía claramente que no pretendía haber licuado el hidrógeno. Olszewski también detestaba a Dewar, pero su odio no llegaba al punto de hacerle inventar resultados. Ramsey no se disculpó y también tuvo que padecer por esta querella; para extraer el helio del neón necesitaba hidrógeno. Ahora bien, ¿como pedirle a Dewar su máquina después de la afrenta que le había infringido? Sin embargo, Ramsey tuvo suerte: contaba con un talentoso joven como asistente, Morris Travers, quien le construyó su licuefactor en menos de dos años. La situación cambió radicalmente, Dewar no sólo no podía pedirle helio a Ramsey, sino que para colmo de males, el último se lanzó a la carrera del helio líquido. No obstante, ambos se quedaron varados a pocos grados de la temperatura crítica del helio. Pronto llegó la noticia desde Leyden: el helio se había licuado. Dewar nunca se repuso de este fracaso. Se peleó con Lennox y luego con su último amigo, el fiel Sir William Crookes. El descubrimiento de Leyden marcó el comienzo de una nueva concepción de la investigación científica. El tiempo de la física de armarios cambiaba definitivamente para dar paso a los grandes laboratorios. Lo que siguió fue la profesionalización del oficio de investigador. El laboratorio criogénico de Leyden era la primera señal de una transformación radical. Nacía una nueva física; el físico, al igual que el director de una obra de teatro, debe aprender a dirigir un equipo y a conseguir patrocinadores. El fin de los gases permanentes El responsable de tal mutación fue Heike Kamerlingh Onnes, hijo del propietario de una fábrica de tejas en Groningen, una ciudad universitaria en los Países Bajos, Holanda. “Como buenos burgueses, sus padres le habían dado una educación tradicional, privilegiando la cortesía, los buenos modales, la austeridad y el rigor”. El axioma central de la casa Onnes era, según las palabras del físico, “tienes que llegar a ser un hombre”. Algo muy clásico sin duda, pero el holandés habría de hacer de este rigor el rasgo fundamental de su oficio. Y fue lo que hizo que Robert Bunsen y Gustav Kirchkoff se fijaran en él, cuando a los dieciocho años partió a estudiar a la Universidad de Heidelberg. En 1873 volvió a su Holanda natal, donde fue ascendiendo los escalones que lo condujeron, en 1882, a la cátedra de física experimental de la Universidad de Leyden. Allí, bajo la influencia de los trabajos de uno de sus compatriotas, Johannes Van der Waals, comenzó a apasionarse por las propiedades termodinámicas de los líquidos y los gases. Kamerlingh Onnes estimaba que la licuefacción de los gases debía pasar al estadio industrial o semi-industrial, para poder hacer progresos significativos. Para él, la época de los experimentos “en un rincón de una mansarda dudosa, en un sótano oscuro”, había terminado. Era la hora de dar vuelta a la página. Así, en 1894 fundó el primer laboratorio moderno del mundo, el laboratorio de criogenia de Leyden, con técnicos, ingenieros y dos escuelas asociadas, una destinada a formar técnicos mecánicos y la otra de sopladores de vidrio, indispensables para fabricar matraces, vasos y otros recipientes necesarios para transportar líquidos hirvientes a muy baja temperatura. En ese año puso a punto una cascada según el modelo imaginado por Picket. Pero su objetivo era cuantitativo, quería aire líquido en grandes cantidades, le hacía falta una cascada mucho más rendidora que la del suizo. Para comenzar el enfriamiento eligió el cloruro de metilo, un gas que se licúa a temperatura ambiente pero sometido a una presión de cuatro atmósferas y que, por lo tanto, resultaba ideal para la primera etapa: una bomba de vacío ramificada sobre el recipiente de metal blanco que contenía cloruro de metilo le permitió practicar una evaporación que llevó al líquido a –85ºC. En la segunda etapa utilizó el baño obtenido para la licuefacción del etileno, igualmente bajo presión. Por un ciclo análogo al precedente, el etileno líquido es llevado a –150ºC. En la tercera etapa, hizo circular oxígeno comprimido a veinte atmósferas en una serpentina sumergida en ese nuevo baño. En esas condiciones, el oxígeno se licúa y al volver a la presión atmosférica, su temperatura cae hasta –83ºC. Con ese nuevo baño de oxígeno, en la cuarta y última etapa, se puede licuar el aire comprimido a quince atmósferas y llegar a –217ºC. A esta temperatura el oxígeno, pero también el argón, el monóxido de carbono, el flúor y el nitrógeno se tornan líquidos. Su aparato proporcionaba alrededor de catorce litros de aire líquido por hora. Era más que suficiente para planificar toda una serie de experimentos y aprender perfectamente el manejo de los licuefactores. Pero para llegar más abajo, el método de las cascadas era insuficiente.
Mientras tanto, Dewar ganó la carrera del hidrógeno y demostró que era preciso utilizar la descompresión Joule-Thomson para llegar a las temperaturas necesarias. Después de estudiar el método de Dewar, Onnes volvió a lo suyo, mandó construir las famosas botellas de doble pared plateada inventadas por Dewar y luego comenzó la construcción de un licuefactor de hidrógeno compuesto de tres compartimentos; el primero lleno de aire líquido, donde el hidrógeno es comprimido a doscientas atmósferas, se enfría a través de una serpentina; el segundo asegura, por descompresión Joule-Thomson, una primera condensación del hidrógeno. En el tercero, una última descompresión conduce el hidrógeno a la licuefacción total. El licuefactor construido por Onnes no tiene nada que ver con el de Dewar. En 1898 el inglés había obtenido veinte centímetros cúbicos de hidrógeno líquido. En 1905, en Leyden se logró la preparación del primer cuarto de litro. En febrero de 1906 se prepararon tres litros de hidrógeno líquido en una sola colada. En mayo comenzaron los primeros experimentos de física a la temperatura del hidrógeno líquido. Kamerlingh Onnes estaba listo para la carrera del helio líquido. Entre él y sus competidores se abría el abismo que separa a un profesional de los aficionados, por más lúcidos que éstos fuesen. El triunfo de Kamerlingh Onnes La licuefacción del helio exigiría todavía dos años más de preparación. En marzo de 1908, Onnes sometió el helio comprimido a cien atmósferas bajo un refrigerante de hidrógeno líquido —hirviendo en el vacío a –259ºC— a una descompresión Joule-Thomson. Una ligera neblina aparecía en el crióstato, pero Onnes consideró que podía deberse a las impurezas del hidrógeno presentes en el gas. Lo purificó nuevamente y, el 9 de julio de 1908, con un aparato análogo al licuefactor de hidrógeno, dio un impulso definitivo al experimento final. Aquel día, Flim, el técnico responsable de la construcción de los crióstatos, licuó setenta y cinco litros de aire.
A las seis y media de la mañana del día siguiente, Onnes abordó la segunda fase del experimento; a las 13:30 tenía almacenado veinte litros de hidrógeno, suficiente para intentar la licuefacción del helio. El termómetro sumergido en el licuefactor indicaba una baja gradual de la temperatura y luego, dejó de descender. El stock de hidrógeno líquido está por agotarse; a las 18:30 Onnes creía haber fracasado, pero en ese momento uno de los numerosos curiosos, que regularmente iban a enterarse de las novedades, le hace notar que quizá su termómetro de helio gaseoso no funciona en esas condiciones. Onnes ilumina entonces el licuefactor por abajo; la refracción de los rayos luminosos muestra, sin duda posible, el recipiente central casi totalmente lleno de helio líquido.
Entre los espectadores, el profesor Kuenen parece muy intrigado. No aguanta más y se acerca a Onnes para hacerle notar que la superficie del helio líquido es muy diferente de la de los líquidos habituales. Efectivamente Onnes constata que aparece plana como la hoja de un cuchillo en contacto con las paredes del vidrio; dicho de otro modo, el menisco del helio era casi nulo.
Una vez que todo está frío-frío ¿qué hacemos con tanto frío? Pregunta que empezó a contestarse Kamerlingh Onnes al estudiar las propiedades físicas de los materiales a bajas temperaturas. Así, podemos citar a Mendelssohn para decir que el descubrimiento del frío al inicio del siglo xx preparó la agitación para el conocimiento de la naturaleza de la materia. “Trastorno casi equivalente a la revolución coperniicana. Este trastorno iba a ser la fragua en la que se forjaría una nueva herramienta, tan extraña como incomprensible, y la única capaz de explicar la superconductividad y la superfluidez: la mecánica cuántica.” |
||
Andrea Aburto
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas
Ortoli, S. y J. Klein. 1989. Histoires et légendes de la supraconduction. Calman-Levy.
Mendelssohn, K. 1965. La búsqueda del cero absoluto. El significado de las bajas temperaturas. McGraw-Hill, Madrid.
|
||
Andrea Aburto es profesora de la Facultad de Ciencias de la unam desde 1988. Realizó sus estudios de Licenciatura y de Maestría en la Facultad de Ciencias, unam y obtuvo el Doctorado en la Université de Paris-Sud XI (Orsay). Sus áreas de especialidad son la física de bajas temperaturas y la estructura electrónica de sólidos.
_______________________________________________________________
como citar este artículo → Aburto, Andrea. (2006). La licuefacción de los gases o hacia las bajas temperaturas. Ciencias 82, abril-junio, 52-61. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
del ambiente | |||
El Canal Nacional como corredor verde
|
|
||
Juan Manuel Chávez y Marta Chávez
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | ||
Zonas de esparcimiento o elementos ornamentales del paisaje, las áreas verdes urbanas juegan un importante papel en la vida de los habitantes de las grandes ciudades. Brindan servicios ecológicos fundamentales para la salud pública y la calidad de vida de los ciudadanos, como la purificación del aire y del agua, la captura del bióxido de carbono, la producción de oxígeno, la reducción del ruido y de la velocidad del viento, la regulación del microclima y el mantenimiento de la biodiversidad.
Actualmente la situación de estas áreas ha cambiado. Además de su reducido número, muchas se están transformando en lugares deteriorados, producto de los impactos del desarrollo inmobiliario, de la contaminación y, en general, de un uso inadecuado. Son sitios inseguros y poco saludables, marcados por el abandono, la falta de mantenimiento, vigilancia y reglamentación para su uso, aunado al escaso desarrollo de corresponsabilidad ciudadana en su protección. Tradicionalmente las áreas verdes tenían poca relevancia en los planes urbanos. Sin embargo, el actual reconocimiento de los servicios ambientales que proporcionan les confiere una creciente importancia dentro de la agenda política mundial, tanto desde la perspectiva ecológica como de la social y económica, al grado que algunas previsiones señalan mayores demandas de espacios verdes en las ciudades, producto de una mejora en la actitud hacia la naturaleza y la búsqueda de estilos de vida que conduzcan hacia la sustentabilidad urbana. En la práctica, la exclusión es la estrategia que predomina en la planeación de las áreas verdes. Son concebidas como parches o lunares dentro de una estructura urbana en expansión, lo que impide el libre tránsito de la fauna y flora local, y confina la oferta recreativa a espacios cerrados o delimitados. Del rechazo de esta visión, en el ámbito de la planeación del territorio surgió una corriente que apoya la búsqueda de nuevas alternativas, como los corredores verdes, parques longitudinales que se forman conectando áreas verdes sobresalientes del paisaje, que pueden tener múltiples usos. Entre sus bondades está la capacidad para mitigar la pérdida del paisaje natural o su fragmentación, y la de adaptarse frente a las presiones de la urbanización. El éxito de un corredor verde requiere la creación de asociaciones entre las distintas partes involucradas —sociedad civil, gobierno, comunidad científica—, puesto que el consenso es indispensable para no limitar su alcance.
Los corredores verdesPlaneación urbana Implementada desde la década de los años sesentas, la forma de planeación excluyente, basada en restricciones, evalúa, en el contexto ambiental, los recursos naturales y los protege en función de su valor intrínseco. Este enfoque, exitoso en muchos aspectos, no puede afrontar la fragmentación o el cambio en la estructura del paisaje, caracterizado por la división de áreas naturales en pequeñas parcelas. Entre las razones que explican este problema, resaltan el crecimiento de la población, el incremento de la movilidad y de los estándares de bienestar, lo que deriva en mayor consumo per capita del espacio. La fragmentación se considera un factor de peso en la pérdida de biodiversidad, porque la ruptura del hábitat de especies de interés o de un ecosistema puede promover cambios indeseables en las funciones ecológicas, como la alteración de los flujos naturales del ecosistema, sean de materia, energía, genes o individuos. Como estrategia de planeación, los corredores verdes puden satisfacer las recomendaciones de la Conferencia Habitat II, entre las que están promover la conservación y el uso sustentable de la biodiversidad de las áreas verdes urbanas y peri-urbanas, proteger los recursos forestales y fomentar la reforestación, impulsar el establecimiento de cinturones verdes recreativos y productivos, asegurar que los niños tengan acceso al mundo natural en su vida cotidiana por medio de actividades recreativas y de educación ambiental, y fomentar la participación de los sectores público y privado, así como de voluntarios, en la administración de las áreas verdes. Todo ello con el objetivo de contribuir a la recuperación de los mantos freáticos que abastecen de agua potable las ciudades, reducir la contaminación y detener la caótica expansión de la mancha urbana. La conectividad espacial es otra de las funciones de los corredores verdes, ya que pueden constituir redes de caminos y canales que unen sitios recreativos, monumentos y barrios de interés cultural. Por otro lado, pueden atender las necesidades de las especies sensibles a la fragmentación, al acercarlas al patrón natural regional que requieren y, de esta manera, evitar su aislamiento o extinción.
Existen tres tipos de corredores verdes. Los de primera generación están constituidos por los principales ejes viales de una ciudad que albergan algún tipo de vegetación; por ejemplo, las avenidas y bulevares como el Paseo de la Reforma o la Avenida de Los Insurgentes en la Ciudad de México. Estos ejes urbanos tienen como mínimo tres funciones: movimiento, uso e importantes experiencias visuales. La segunda generación está orientada al diseño de espacios apropiados para el desplazamiento no motorizado, de peatones y ciclistas, esencialmente enfocados a la recreación, como en las riberas de los ríos, canales y arroyos dentro de la urbe. En muchas ciudades se aprovechan como corredores verdes las áreas que se ubican a lo largo del tendido de líneas eléctricas o tuberías de gas o de agua. Los de tercera generación se caracterizan por buscar el logro simultáneo de múltiples objetivos para cubrir las necesidades humanas y las de la vida silvestre. Aquí, la participación de la sociedad civil es crucial para que los ciudadanos puedan apropiarse de estos espacios. Una opción viable El Canal Nacional puede ser revitalizado siguiendo la estrategia de corredores verdes. Tiene las características fundamentales que determinan las cualidades de un espacio susceptible de ser un corredor de tercera generación: la linealidad del espacio y sus posibilidades de conectividad: mide doce kilómetros y en su trayecto conecta dos áreas verdes importantes de la ciudad, el Parque Ecológico de Xochimilco y el Campo de Golf de Churubusco. También recorre sitios de importancia histórica y cultural como el Mercado de Flores de Cuemanco, la Iglesia de Mexicaltzingo y el ex Convento de San Francisco Culhuacán; su potencial para la recreación, ya que cuenta con infraestructura básica para fomentar actividades deportivas como correr y andar en bicicleta, en la mayoría de sus tramos; y su potencial para la conservación de la biodiversidad, porque representa un refugio para especies de flora y fauna silvestre dentro del entorno urbano.
Como corredor verde, el Canal Nacional permitiría desarrollar recorridos culturales y de posible interés turístico, entre sitios con diferentes expresiones de la cultura de la cuidad: podría representar una opción para el transporte no motorizado, facilitando el traslado hacia diferentes puntos en la región sur y este del Distrito Federal. También constituiría un espacio para ofrecer actividades recreativas y de esparcimiento en contacto con la naturaleza.
El impulsar su utilización en este aspecto fomentaría el sentido de corresponsabilidad de la sociedad en el cuidado de las zonas verdes urbanas. Además, su restauración y apropiación por parte de los habitantes contrarrestaría el actual destino de gran parte de este espacio y la imagen de inseguridad que tiene. Finalmente, su restauración como hábitat de la vida silvestre permitiría extender los hábitats acuático y terrestre típicos del Parque Ecológico de Xochimilco, situación que favorecería la presencia de aves silvestres y otros organismos a lo largo del canal.
Todo ello se resume en palabras de Guillermo Nagano, “lograr convertirlo en un modelo de integración urbana, recuperación ambiental y articulación social que nos lleve a recuperar un espacio público propiciador del encuentro, la convivencia y el disfrute”.
|
|||
Juan Manuel Chávez Cortés
Marta Chávez Cortés
Departamento El Hombre y su Ambiente,
Universidad Autónoma Metropolitana, Xochimilco.
|
|||
Referencias bibliográficas
Fábos, J.G. 1995. “Introducion and overview: the greenways movement, uses and potentials of greenways”, en Greenways. The Beginning of an international movement. J.G Fábos y J. Ahern (eds.), Elsevier, Amsterdam.
Ryan, R. L. y W. J. T. Hansel. 2004. “Protecting and managing private farmland and public greenway in the urban fringe”, en Landscape and Urban Planning, núm. 68, pp. 183-198.
Páginas del proyecto http://groups.msn.com/CanalNacionalUAMX,
_______________________________________________________________
como citar este artículo → Chávez Cortés, Juan Manuel y Chávez Cortés, Marta. (2006). El canal nacional como corredor verde. Ciencias 82, abril-junio, 26-29. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
del bestiario | |||
Esplendor y caída de un emperador
|
|
||
Héctor T. Arita
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | ||
En varios grupos de animales hay especies que por su belleza o majestuosidad destacan sobre las demás y reciben nombres con tintes nobiliarios. Así, existen pingüinos emperador, zopilotes rey y hasta animales que en su nombre manifiestan con redundancia su poderío, como Tyrannosaurus rex. En agosto de 1832, durante una reunión de la Sociedad Zoológica de Londres, se exhibieron varias pieles de un pájaro carpintero de excepcional tamaño y elegante belleza. Los ejemplares, presentados por John Gould, fueron obtenidos por un ingeniero de minas en la región de Bolaños, estado de Jalisco. Gould llamó a esta nueva especie Picus imperialis, el pájaro carpintero imperial. Rendidos ante su belleza, evidente aún en las pieles preparadas para museo, pocos de los asistentes pudieron cuestionar la acertada elección del nobiliario epíteto para esta imponente ave.
El pájaro carpintero imperial, ahora llamado por los científicos Campephilus imperialis, es la especie más grande y espectacular de su linaje. En una lámina publicada en 1892 en la revista ornitológica The Auk, Ridgway ilustra la majestuosa belleza de este animal. En primer plano, un macho se muestra posado en el tronco de un pino, justo enfrente del orificio circular que constituye la entrada a su nido. Las plumas negras cubren la totalidad del cuerpo de casi 60 cm, excepto por dos grandes parches blancos en las alas y una línea doble en V, también alba, en el dorso. La cabeza está rematada por el característico copete rojo intenso, ligeramente curvado hacia adelante para terminar en punta. Los penetrantes ojos amarillos destacan sobre el fondo de la cabeza negra, llevando la mirada hacia el poderoso pico marfileño de diez centímetros de longitud. Asomándose por detrás del tronco del pino aparecen el torso y la cabeza de la hembra. En ella, el copete es totalmente negro y más curvado, formando un cómico rizo, semejante al fleco del peinado de algunas mujeres contemporáneas.
Observar estas aves en su ambiente natural, los bosques de pino de la Sierra Madre Occidental, no era demasiado difícil hasta finales del siglo xix. Entre 1892 y 1893, Edward Nelson y su grupo de exploradores científicos recorrieron los bosques de la región comprendida entre Pátzcuaro y la entonces pequeña villa de Nahuatzen, habitada por indígenas purépechas. En varias ocasiones, Nelson y sus asistentes encontraron grupos de carpinteros imperiales, escucharon con asombro su característico llamado, descrito como un sonido nasal, similar al de una trompeta metálica, y observaron con admiración varios de estos animales al vuelo con su elegante patrón blanco y negro del dorso y las alas desplegado. Nelson describió el comportamiento de los carpinteros como valiente, recalcando la admiración que le causó un macho de esta especie que, herido en el ala por sus disparos, luchó contra sus captores con el pico y los talones, mostrando una fiera actitud reflejada en sus brillantes ojos. Esta admiración no obstó para que Nelson y su equipo terminaran por capturar prácticamente todos los individuos que observaron, convirtiéndolos en ejemplares de museo. En la primavera de 1893, un niño purépecha de Nahuatzen que asistía al equipo de Nelson encontró un par de huevos dentro del nido de una pareja de carpinteros imperiales. El pequeño rompió uno al descender del árbol, pero pudo colocar el restante en su camisa. Sin embargo, de regreso a casa el muchacho se topó con parte del rebaño familiar, y al correr para acercarse a las vacas, cayó al suelo, rompiendo así el otro huevo. Nunca se volvió a ver un huevo de pájaro carpintero imperial. Tal parecería que la tragicómica historia de los huevos del carpintero imperial no fue sino un sombrío presagio sobre el futuro de Nahuatzen y de los propios pájaros. Desde 1872 había iniciado en Nahuatzen el reparto de tierras previsto por la Ley de Desamortización de 1856. Para la década de los años noventas, coincidiendo con la visita de Nelson, el reparto irregular y viciado de las tierras ya había generado conflictos de gran magnitud en la comunidad, situación que fue aprovechada por las grandes compañías madereras. A principios del siglo xx, la Compañía Industrial de Michoacán recibió los derechos de explotación de los bosques de Nahuatzen por treinta años. En los siguientes años, el hábitat natural del pájaro carpintero imperial prácticamente desapareció de la zona. Igual suerte corrieron otros lugares a todo lo largo de la Sierra Madre Occidental. Para 1950, sólo unas pequeñas porciones en los estados de Durango y Chihuahua mantenían extensiones significativas del tipo de bosque necesario para el carpintero imperial. En 1956, en una localidad maderera localizada cien kilómetros al sur de la ciudad de Durango, se observó por última vez un ejemplar vivo.
La trágica historia del carpintero imperial es un ejemplo de libro de texto sobre los atributos que hacen a las especies vulnerables a la extinción. En general, las de mayor tamaño dentro de cada grupo animal son las más vulnerables, ya que requieren extensiones de hábitat más grandes, tienen tasas de reproducción más lentas y son fácilmente detectadas por los cazadores. En algunos casos, como parece ser el del carpintero imperial, las especies de mayor tamaño tienden a tener dietas especializadas y a formar grupos familiares muy unidos, lo que las hace aún más vulnerables. El carpintero imperial vivía solamente en bosques maduros de pino a más de dos mil metros de altitud sobre el nivel del mar. Para hallar alimento y formar sus nidos, esta especie requería la presencia de árboles de gran tamaño y de grandes árboles muertos, pero en pie. Una combinación de persecución por parte de los cazadores y de una masiva pérdida de hábitat condujo al emperador de los carpinteros a la inescapable espiral de la extinción. Igual suerte corrió el príncipe de los pájaros carpinteros. El carpintero pico de marfil —Campephilus principalis— fue considerado extinto, pues no se había encontrado desde 1944 en su hábitat de los bosques pantanosos del sureste de los Estados Unidos, ni desde 1956 en los bosques del este de Cuba. En 1987 se reportó el descubrimiento de algunos individuos de la subespecie cubana, pero a pesar de intensas búsquedas, no se ha vuelto a ver individuo alguno. En abril de 2005 se anunció el avistamiento de carpinteros pico de marfil en relictos boscosos del este de Arkansas, Estados Unidos. El reporte, publicado formalmente en el número de junio de la revista Science, provocó un enorme revuelo en los medios de comunicación masiva de la Unión Americana. Algunos especialistas han comparado, socarronamente, el borroso video presentado como evidencia con las trucadas películas de los años setentas que demostraban la existencia de Big Foot. A pesar de este escepticismo, en general, el reporte se considera válido, demostrando así el retorno del bello carpintero pico de marfil a los pantanos boscosos de los Estados Unidos. Algunos optimistas crónicos consideran que el hallazgo del carpintero pico de marfil proporciona renovadas esperanzas sobre la posible subsistencia del carpintero imperial en algún remoto lugar de la Sierra Madre de México. Después de todo, los bosques del sureste de los Estados Unidos están mucho más perturbados que muchos sectores de las montañas del occidente de México. David Wilcove, un connotado ornitólogo de Princeton, consideraba en el año 2000 que encontrar un carpintero pico de marfil en los desolados paisajes del industrializado sureste norteamericano era tan improbable como toparse con un pionero con mosquete en el centro de Atlanta. El propio Wilcove reconoció con agrado y buen humor su equivocación y avaló en las páginas de Science el redescubrimiento del carpintero pico de marfil. Con respecto al carpintero imperial, a pesar de numerosos rumores y de reportes incompletos, no existen avistamientos reconocidos desde 1956. Aun si existieran poblaciones aisladas, la situación de la especie sería desesperada, requiriendo inmediatas y efectivas acciones para evitar la extinción definitiva. Resulta estimulante pensar que todavía podríamos estar en posibilidades de observar con vida al emperador de los pájaros carpinteros. |
|||
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
|
|||
Referencias bibliográficas
Alarcón-Cháires, P. 2001. Ecología y transformación campesina en la Meseta P’urhépecha. Universidad Michoacana de San Nicolás de Hidalgo, Morelia.
Fitzpatrick, J. W. et al. 2005. “Ivory-billed woodpecker (Campephilus principalis) persists in continental North America”, en Science, núm. 308, pp. 1460-1462.
_______________________________________________________________
como citar este artículo → Arita, Héctor T. (2006). Esplendor y caída de un emperador. Ciencias 82, abril-junio, 12-15. [En línea]
|
|||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Estados emocionales negativos, dolor crónico y estrés |
Se analizan algunas de las funciones de adaptación que cumplen los estados emocionales negativos, como alarmas para responder oportuna y anticipadamente al peligro o a las lesiones, y la compleja interacción entre los factores biológicos y psicológicos que influyen sobre los distintos sistemas de alarma.
|
|
Benjamín Domínguez y Yolanda Olvera
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | |
Los estados emocionales, positivos y negativos, desempeñan un importante papel en la adaptación humana en el corto y el largo plazo. En general, es fácil identificar el valor adaptativo de sentir felicidad, relajación o satisfacción; sin embargo, incluso para los especialistas, reconocer las ventajas de los estados emocionales negativos, como la ansiedad, la depresión y el dolor crónico, requiere habilidades clínicas de observación por arriba del promedio.
Durante las últimas décadas, el conocimiento especializado sobre las vías neuroanatómicas y los mecanismos neurofisiológicos que fundamentan la complejidad de la experiencia del dolor creció en los países industrializados y, en menor medida, en los países en desarrollo. Se lograron grandes avances en los enfoques de tratamiento farmacológico, quirúrgico y neurorregulador. Pero actualmente, a pesar de todos los avances médicos, los principales fármacos usados contra el dolor son básicamente los mismos que utilizó Hipócrates en la antigüedad, quien describió los efectos calmantes de la corteza y las hojas del sauce en el año 400 antes de Cristo y antes de eso, el opio ya se cultivaba. La aspirina y la morfina, basadas en las sustancias activas de estos remedios tradicionales, se aislaron hasta el siglo xix y contribuyeron a cimentar las bases de la poderosa industria farmacéutica moderna. Ahora, los científicos buscan afanosamente nuevas formas de combatir el dolor, actividad que recibió un nuevo impulso por el reciente retiro, a finales del 2004, del analgésico y antinflamatorio Vioxx, y las dudas que rodean la seguridad de pastillas similares.
El retiro del Vioxx dejó más espacio para otras medidas farmacológicas y no farmacológicas para el control del dolor, pero también dificultó el desafío y su evaluación. No sólo no se han podido superar los opiaceos y la aspirina, sino que se espera que a partir de ahora la Food and Drug Administration (fda, la agencia estadounidense de los medicamentos) exija más pruebas de que los fármacos que ingresan en el mercado internacional sean realmente seguros para los pacientes. A pesar de la reciente acumulación de conocimientos y de experiencia clínica, un número elevado de pacientes enfrenta con desaliento el hecho de que su dolor resulta refractario a todos los tratamientos disponibles. Por ejemplo, algunos resultados difundidos sugieren que los tratamientos prolongados con opioides, anticonvulsivos y antidepresivos sólo reducen el dolor entre 30 y 40%, muchos pacientes sometidos a cirugía para aliviar su dolor, siguen teniéndolo después de la intervención, e incluso cuando se elige cuidadosamente a los pacientes para la implantación de un sistema de reservorio de opioides o de estimuladores del cordón espinal, rara vez se logra el control del dolor.
El dolor crónico, que persiste por meses y años, además del aspecto físico, produce un profundo impacto en el funcionamiento emocional, interpersonal y social. Por ello, el tratamiento exitoso de estos pacientes requiere atender y comprender no sólo las bases orgánicas de los síntomas, sino también el rango de factores que modulan la percepción de la intensidad —nocicepción—, la adaptación y la incapacidad asociada a éste. Hasta ahora, la evidencia derivada de la investigación sugiere un papel protagónico de los factores psicológicos para comprender el dolor crónico, en particular de los procesos cognoscitivos —toma de decisiones, creencias, estimaciones, expectativas, etcétera— y emocionales —estrés, autoconfianza, respuesta natural de relajación, entre otros. Se ha demostrado, cada vez con mayor solidez, que dichos factores determinan la transición del dolor agudo al crónico y los niveles asociados de incapacidad. Frecuentemente, los pacientes con este tipo de dolor reportan que sufren más por las consecuencias cognoscitivas y emocionales que por el dolor mismo, y en esa proporción el dolor está sujeto a múltiples modulaciones determinadas por tales procesos. Generalmente, los tratamientos contemporáneos no incluyen estas interacciones, pero con el advenimiento de la neuroimagen funcional, las técnicas de monitoreo no-invasivo psicofisiológicas y otras, ahora sus bases neurológicas son cada día más accesibles.
Un factor cognitivo destacado es la expectativa referente al dolor. Si bien la habilidad de predecir la posibilidad de sentir dolor y otros eventos displacenteros —la cual se apoyó en el aprendizaje de experiencias previas—, es una conducta adaptativa importante en los organismos sanos, también puede causar un miedo incapacitante y un comportamiento de evasión en pacientes con dolor crónico. Los estudios de neuroimagen funcional sobre la expectativa del dolor han proporcionado información importante sobre los sistemas de circuitos subyacentes. La variabilidad de los resultados encontrados en ellos revela el efecto de una importante variable psicológica-cognoscitiva reguladora, el grado de certidumbre asociado a una expectativa. Los estudios conductuales han demostrado que distintos grados de certidumbre se asocian a diferentes desenlaces emocionales, psicológicos y conductuales. Por ejemplo, la certeza subjetiva de que un evento aversivo es inminente —expectativa segura— se asocia con el estado emocional del miedo, el cual impulsa al organismo a iniciar una acción —pelear o huir—o cuando estas opciones no están disponibles, al menos minimizar el efecto —por ejemplo, por distracción cognitiva. Además, el miedo influye en la percepción del dolor. Numerosos estudios experimentales con animales —y algunos con humanos— han demostrado que el miedo contribuye a una sensibilidad disminuida al dolor o hipoalgesía. En cambio, la incertidumbre sobre la naturaleza de un evento inminente —expectativa incierta—, tiene consecuencias muy diferentes. Se encuentra asociada al estado emocional de la ansiedad —en lugar del miedo— que se caracteriza por un comportamiento evaluador del riesgo o de inhibición conductual, y por un incremento en la atención somática y ambiental —en lugar de distracción como en el caso del miedo. La ansiedad tiene un efecto opuesto al miedo en la percepción del dolor, se ha demostrado que conduce a una sensibilidad aumentada del dolor o hiperalgesía.
La influencia del estrés En la historia contemporánea de la medicina está documentado que las decisiones acerca de rotular o no una condición o un comportamiento como enfermedad o como indicador de salud no se ejecutan en un vacío social. En el pasado, la incorporación de prejuicios y distorsiones en la clasificación médica de las enfermedades tuvo consecuencias inmanejables para varios grupos sociales; por esta razón, el estudio clínico de las diferencias individuales requiere una atención crítica y vigilante. El presente y futuro de la investigación médica, y de los campos multidisciplinarios con los que está vinculada, no están inmunizados contra el riesgo de la medicalización errónea. Rápidamente nos acercamos a la era de los enfoques postgenómicos, en los que conoceremos la secuencia del genoma humano completo; sin embargo, como lo ha señalado Ploming, “no existe ninguna secuencia genómica humana única y distintiva, cada uno de nosotros posee un genoma único”. La secuenciación revelará cientos de variaciones genéticas entre los individuos, lo cual tendrá un amplio impacto en las ciencias clínicas comprometidas principalmente con el estudio de las diferencias individuales. La diversidad biológica, que ocupa un lugar sobresaliente en la teoría de la evolución, puede contribuir al fortalecimiento del marco teórico para el estudio de las diferencias individuales en las ciencias clínicas. En este caso podemos plantear cómo la medicina, la biología y la psicología evolutiva difieren en su conceptualización de la variabilidad individual y cómo influyen en el diagnóstico y las intervenciones terapéuticas de la reclasificación de síndromes clínicos al concebir los estados emocionales negativos no sólo como respuestas disfuncionales sino también como estrategias alternativas, un proceso de gran valor heurístico en los enfoques evolutivos. En este sentido, los fenómenos más robustos en la naturaleza, como la plasticidad emocional, concebida preliminarmente como “la capacidad de una persona de transitar de un estado emocional a otro opuesto en un intervalo definido”, son producto de una determinación múltiple, lo cual quiere decir que cuando ocurre frecuentemente un fenómeno, probablemente existe un conjunto de mecanismos independientes que contribuyen a que ocurra; un caso ilustrativo es el dolor, que puede ser generado por una lesión, sin lesión, por la sola evocación, la anticipación e incluso por otros factores no específicos. Hasta este punto, la investigación psicológica ha propuesto algunos mecanismos que pueden contribuir a clarificar la naturaleza de esta variabilidad emocional. En primer lugar, los mamíferos, y en particular los humanos, poseemos un gran talento para modificar nuestra forma de ver los eventos, lo cual sustenta la capacidad de moderar su impacto emocional sobre nosotros. En general, nadie disfruta el dolor de la extracción de una muela, pero en el corto plazo, la mayoría nos percatarmos de que “no hay mal que por bien no venga” o que “soy capaz de superar esta situación y otras peores”; algunos todavía califican este reacomodo desde el punto de vista del dolor como una racionalización; sin embargo, también puede ser el proceso de descubrir lo que siempre fue evidente y verdadero, pero previamente desconocido o no aceptado. En segundo lugar, la inclinación a pensar que los eventos negativos necesariamente nos harán sentir mal emocionalmente puede atribuirse a que ignoramos que poseemos un sistema de defensa inmunopsicológico —concepto acuñado por el doctor José Montes M., jefe de inmunología del Hospital General de México. Cuando las personas anticipan cómo se sentirán ante un episodio de dolor u otro estado emocional negativo, se olvidan de este sistema, lo cual los inclina a calcular que tendrán un estado emocional negativo más intenso y durable de lo que realmente será. En conjunto, los resultados de este tipo sugieren que descuidamos o ignoramos la cobertura de nuestros recursos para racionalizar cuando se nos solicita hacer predicciones sobre nuestros futuros estados emocionales positivos o negativos. Otro mecanismo que contribuye a la variabilidad emocional se observó al realizar encuestas; cuando se solicitó a personas sanas y a enfermas que contestaran cómo se sentirían si les diagnosticaran cáncer, todos proporcionaron casi la misma respuesta: “estaría totalmente devastado(a)”. Después se les pidió que explicaran cómo llegaron a esa conclusión, y casi todos reportaron haber tenido una imagen mental horrible de estar en un funeral o en un hospital, la cual sirvió de materia prima para elaborar su predicción, que al final resultó equivocada. La literatura clínica sugiere que a quienes se les informa tener un cáncer no se alteran emocionalmente de manera masiva seis o doce meses después. Por supuesto, el evento tiene repercusiones duraderas, pero lo sobresaliente acerca de estas poblaciones es la forma en que vuelven a funcionar emocionalmente bien. El punto aquí es que la medicina tradicional se alínea con la forma predarwiniana de pensamiento, donde no se atribuye significancia adaptativa a las diferencias individuales y se ignora la posibilidad de que estas variaciones intraespecíficas sean activamente mantenidas por la selección natural. La psicología evolutiva o darwiniana, que impulsa el enfoque del estudio de las diferencias individuales, más que considerar las variaciones entre miembros de una especie como distracciones perturbadoras o patologías, está consciente de que, en las poblaciones las variaciones naturales están diseminadas en cada nivel, desde la morfología gruesa hasta las secuencias del adn, pasando por la variabilidad emocional y el dolor, y que estas variaciones constituyen el energético de la evolución. La selección natural solamente ocurre cuando las divergencias en algunas características genotípicas producen diferencias consistentes en la tasa de sobrevivencia y reproducción. En general, los estados emocionales negativos ligeros o moderados, y sus variaciones, son normales —o adaptativos— en ciertas situaciones, e incluso pueden ser benéficos, posiblemente motivando a prepararse para una ejecución, generando mayor vigilancia durante una tarea desafiante o sirviendo como un aviso anticipado del peligro. Clínicamente, pueden surgir problemas cuando una persona experimenta muy poco o demasiada ansiedad, depresión o dolor. Clásicamente se distinguen los problemas de ansiedad y de depresión de los estados normales atendiendo a su intensidad, duración y asociación con otros cuadros comórbidos que pueden interferir con una función. Los síntomas de estrés y otros estados emocionales negativos pueden evaluarse en al menos tres dominios: cognitivo o afectivo, por ejemplo, en la sensación generalizada de miedo, nerviosismo, intranquilidad, irritabilidad, etcétera; en el nivel conductual, la paralización, la evitación, el tartamudeo y la hiperventilación; en el fisiológico, por ejemplo, el aumento de la presión sanguínea, el acortamiento de la respiración, la nausea o la sudoración. En la investigación psicológica contemporánea hay un nutrido debate sobre si los cambios fisiológicos acompañan o no las emociones; en otras palabras, en qué medida los cambios fenomenológicos subjetivos ocurren paralelos a las variaciones autonómicas. Para Lang, las cogniciones emocionales no son necesariamente acompañadas por la activación autonómica. Para otros, es un requisito para la mayor parte de las emociones, e incluso otros consideran que los cambios autonómicos son una parte importante de la percepción o una causalidad de la emoción. Nuestro grupo de investigación clínica considera que la mayoría de los eventos emocionales, como la elevación de la tasa cardíaca, no alcanza el nivel de la conciencia y por lo tanto el nivel de percepción consciente; lo cual ocurre por excepción sólo con los eventos que generan activación emocional extrema como una experiencia traumática. De acuerdo con Antonio Damasio, “la emoción es muy útil y es además el principal factor adaptativo en el proceso humano de toma de decisiones”, de ahí ha adquirido cada vez mayor importancia examinar el papel de este sentimiento mental y, desde un punto de vista evolutivo, poder determinar su contribución al surgimiento de la conciencia entre los mamíferos. Cada vez es más sólida la evidencia para declarar que alteraciones psicológicas, como la depresión o la ansiedad, con mucha frecuencia coexisten y pueden estar correlacionadas con el dolor crónico. Un estudio encontró que 35% de la población que tiene dolor crónico empataba también con los criterios de alteraciones de desórdenes de ansiedad, al compararla con la población general, en la que solamente 10 y 8% sufría de esta condición. En estudios realizados por Ferguson y su grupo, encontraron que los estados emocionales negativos —ansiedad, depresión—, aumentan la probabilidad del dolor reportado, así como el hecho de que los pacientes psiquiátricos más ansiosos presentan una mayor responsividad psicológica al dolor. Dichos estados ocurren rara vez de manera aislada de otros estados afectivos. Hasta ahora se ha demostrado la coexistencia repetida de la depresión con el dolor crónico. Con mucha frecuencia, cuando se postula al dolor como el síntoma principal de varias alteraciones médicas, se descuidan los síntomas afectivos coexistentes. El paciente afectado por dolor, bajo la creencia de que aumentará, evita ejecutar sus actividades y contribuye al fortalecimiento de un ciclo conductual de condicionamiento, donde la respuesta de evitación puede llegar a ser inmanejable. Evaluar el impacto de los estados emocionales negativos requiere la cuidadosa exploración de situaciones que provocan o reactivan síntomas, su frecuencia, la respuesta del paciente en ese estado emocional negativo y su impacto en sus actividades. En el plano internacional, se han elaborado diversos cuestionarios para evaluar clínicamente estos problemas; sin embargo, a pesar de su uso diversificado, se reconoce que el reporte verbal de los pacientes que atraviesan por tales estados está influido por diversas variables, lo que reduce su confiabilidad y objetividad como fuente de información y de evaluación. Bases psicológicas y biológicas La literatura especializada en este campo ha generado diferentes propuestas basadas en la teoría clásica del aprendizaje, el modelo de procesamiento de la información cognoscitiva y del condicionamiento operante. El segundo se ha privilegiado como la base de los estados emocionales tanto positivos como negativos, y aunque existen variaciones entre los grupos de investigación, la principal premisa es que los síntomas de la depresión, el estrés y el dolor son resultado de un patrón selectivo de procesamiento que favorece la información amenazante. En este sentido, al parecer, los pacientes con estrés excesivo carecen de la habilidad para negar o revertir estos patrones automáticos de respuesta atentual. Un componente común del estrés desadaptativo o distrés entre los pacientes con dolor es la marcada tendencia hacia la hipervigilancia o catastrofización. Ésta puede amplificar la percepción del dolor a través de un proceso parecido a lo que se conoce como las profecías autocumplidas, en las que un individuo anticipa el peor escenario. Por ejemplo, la evidencia sugiere que la kinesofobia —la tendencia a preocuparse acerca de la posibilidad de lastimarse nuevamente o el miedo al movimiento asociado con el dolor— también se correlaciona con el dolor. Algunos estudios han encontrado que tanto el dolor, la catastrofización y la kinesofobia, predicen niveles más elevados de dolor, minúscula lumbar e incapacidad. Los mecanismos fisiológicos del estrés se han estudiado intensamente en varias disciplinas. Ahora, los avances en la neurobiología del estrés y los desórdenes afectivos han revelado muchos mecanismos y vías importantes que involucran numerosos neuropéptidos, hormonas neurotrofinas, citoquinas y otras moléculas; en realidad, un amplio menú que presenta un sustancial traslape con los mediadores que actúan en el dolor crónico. Los estudios de imageneología cerebral y de mapeo del estrés sugieren la activación de la amígdala, del hipocampo y de la corteza frontal orbital, así como de otras regiones de la corteza prefrontal. ¿Cómo el estrés amplifica el dolor? Hasta ahora, no se ha esclarecido totalmente. El sistema nervioso simpático es uno de los eslabones potenciales entre el dolor y el estrés, su estimulación disminuye los umbrales nociceptivos e incrementa la actividad espontánea de los nociceptores. También se encontró que el estrés disminuye la regulación de los receptores de las benzodiacepinas en la corteza frontal, al mismo tiempo que actúa el eje hipotalámico pituitario adrenal. Ambas respuestas pueden predisponer al dolor, al estrés, a la depresión o a todas ellas. Una manifestación muy común del estrés, y de otros estados emocionales negativos, puede estar relacionado con estas vías contradictorias que convergen en áreas del hipotálamo y del tallo cerebral. Tratamientos En la actualidad, las intervenciones psicológicas para tratar los estados emocionales negativos representan la mejor opción terapéutica en el largo plazo, aunque durante los últimos quince años se han alcanzado considerables progresos en los tratamientos farmacológicos. La meta de los tratamientos psicológicos del estrés y del dolor crónico se traslapan, ya que ambas modalidades se encaminan a enseñarle al paciente cómo anticipar y manejar los síntomas fisiológicos y psicológicos, así como el uso apropiado de sus habilidades para afrontar y minimizar los síntomas. Las intervenciones específicas investigadas en el contexto del estrés y del dolor crónico incluyen diferentes enfoques conductuales, como el control de la respiración, la relajación muscular, y la exposición en vivo, y enfoques cognoscitivos como la distracción de la atención, la reestructuración cognoscitiva y la escritura emocional autoreflexiva. Regulación respiratoria El control respiratorio es un problema muy común entre las persona afectadas por el distrés, ya que está asociado con efectos del sistema nervioso simpático sobre el impulso respiratorio. La regulación respiratoria involucra la desaceleración del ritmo respiratorio y la utilización del diafragma en lugar de las estructuras toráxicas para optimizar la capacidad pulmonar y reforzar la percepción de normalidad respiratoria y de serenidad. El entrenamiento autogénico respiratorio se basa en la concentración pasiva y en la conciencia corporal. El control respiratorio también es efectivo en la reducción de incomodidad anticipada en niños que reciben tratamientos dentales o cirugías mayores. La relajación asistida con retroalimentación biológica, suministra información auditiva, visual o ambas a los pacientes, lo que les permite ejercer control sobre su respuesta biológica, que muchas veces se encuentra fuera de su control. Distracción de la atención Está documentado que la atención tiene una capacidad limitada, su retención sobre un estímulo puede competir con la atención hacia otros. En los pacientes con dolor crónico, para distraer su atención se puede recurrir a la aplicación de estímulos auditivos kinestésicos, olfativos, etcétera, desde la utilización de estímulos externos pasivos hasta involucrar al paciente en la ejecución de una actividad o una tarea física. Reestructuración cognoscitiva Es un procedimiento que involucra la alteración de pensamientos negativos o su reemplazo con alternativas positivas, y que puede realizarse con o sin mediación consciente. Durante este procedimiento terapéutico se prepara al paciente para conocer e identificar declaraciones catastróficas, discutirlas, encontrar evidencias contra ellas y finalmente reemplazarlas por afirmaciones más adaptativas. Una modalidad sistemática de la reestructuración cognoscitiva es la escritura emocional autorreflexiva, tanto para pacientes alfabetos como para analfabetos, que involucra la escritura o el reporte de los estados emocionales negativos asociados con el dolor a través de un proceso gradual de jerarquización que permite la reconceptualización del dolor, la disminución de los niveles de estrés y, finalmente, la modificación de la percepción de intensidad del dolor. Diversos estudios han mostrado que los niños, tanto las sugestiones directas como las indirectas de alivio del dolor reducen significativamente el dolor y el estrés durante procedimientos médicos invasivos; por ejemplo, la analgesía hipnótica alivió el dolor de 68% de los treinta y siete pacientes hospitalizados por varias enfermedades médicas. Los adultos con dolor crónico referidos a este tipo de procedimientos logran un mejoramiento en dos o tres sesiones con el uso de la analgesía hipnótica. En general, la hipnosis como procedimiento terapéutico en el manejo del dolor crónico es prometedor, aunque es una técnica sujeta a importantes variables del paciente, como la susceptibilidad hipnótica, la percepción de control y la edad. Hipnosis y farmacoterapia Entre las numerosas estrategias farmacológicas para el control del estrés se encuentra el grupo de las benzodiapinas, los antidepresores tradicionales y otros medicamentos que caen dentro de la categoría de agentes estabilizadores del estado de ánimo y de la membrana, como los anticonvulsionantes. Hoy, el traslape de las farmacoterapias analgésicas —supresión del dolor— y las ansiolíticas —tranquilizantes— es sobresaliente y se ha demostrado que no domina ninguno de los dos grupos usados para la analgesía, principalmente en el dolor neuropático. Este traslape de efecto terapéutico no es una coincidencia, nuevos medicamentos como la pregabalina y la doloxetina anticipan progresos y aplicaciones importantes de un solo factor que puede tratar los problemas de estrés y de dolor. El por qué algunos pacientes responden favorablemente al manejo farmacológico y otros lo hacen mejor a las intervenciones psicológicas o a una combinación de ambos, es un asunto que demanda mucha más investigación; sin embargo, el cuidado óptimo de los pacientes con dolor crónico requiere reconocer el interjuego del estrés y el dolor, y de la ansiolisis y la analgesía. La investigación del dolor La investigación preclínica en el campo del dolor enfrenta en la actualidad enormes desafíos. Entre otros, la necesidad de una propuesta teórica integrativa. Lo que se estudia en animales de laboratorio sólo puede reflejar parcialmente, y en ocasiones casi no correlacionarse con, lo que se estudia en los escenarios clínicos hospitalarios. En varios sentidos, en los países en desarrollo la investigación clínica de tipo translacional del dolor podría proporcionar importantes contribuciones a la investigación básica del dolor y sus aplicaciones clínicas. En primer lugar, puede examinar la efectividad e importancia tanto de la investigación básica como de la clínica, utilizando el método de análisis de datos basados en evidencia; en segundo lugar, este tipo de investigación puede jugar un papel crítico al integrar la información básica y la clínica —por ejemplo, con la teoría polivagal— y coordinar los esfuerzos entre estos dos extremos de la investigación clínica; y en tercer lugar, no toda la investigación básica debe conducirnos hacia aplicaciones clínicas directas. En realidad, la investigación básica es un proceso de acumulación que cada vez es menos costeable en nuestro contexto. La investigación translacional sobre el dolor puede ayudar a optimizar la utilización de nuestros limitados recursos y a acortar el ciclo entre los hallazgos de investigación básica y sus potenciales aplicaciones clínicas. |
||
Benjamín Domínguez Trejo
Facultad de Psicología,
Universidad Nacional Autónoma de México.
Yolanda Olvera López
Escuela Superior de Ingeniería Mecánica
y Electrónica, esime, Culhuacan,
Instituto Politécnico Nacional.
|
||
Referencias bibliográficas
Bond, M. y H. Breivik. 2004. “Why pain control matters in a world full off killer diseases”, en Pain, clinical Updates, iasp, Vol. XII, No. 4, pp. 1-4.
Buss, D. 1996. “Evolutionary psychology: A new paradigm for psychological science”, en Psychological/inquire, pp. 1-30.
Cabanac. 1999. “Emotion and Phylogeny”, en Japanese Journal of Physiology, Vol. 49, No. 1, pp. 1-10.
Damasio, A. 1999. The feeling of what happens. Harcourt, Inc.
Domínguez, T. B., y L. Y. Olvera. 2003. “Patrones de temperatura periférica y control psicológico del dolor crónico”, en Suma Psicológica, Vol. 10, No. 1, pp. 81-188.
Eccleston, C. 1995. “The attentional control of pain: methodological and theoretical concerns”, en Pain, núm. 63, pp. 3-10.
Gatchel, R. J., y D. C. Turk. 1999. Psychosocial factors in pain. Critical perspectives. The Guilford Press, Nueva York-Londres.
Ploming, R. 2002. “Individual differences. Research in a postgenomic era”, en Pers. Individ. Diff., núm. 33, pp. 909-920.
|
||
Benjamín Domínguez Trejo es profesor e investigador de la Facultad de Psicología de la unam desde 1971. Obtuvo el grado de Maestro en Ciencias en la Universidad Veracruzana y el Doctorado en Psicología en la unam. Es asesor de la Clínica del Dolor del Centro Médico Nacional 20 de Noviembre, issste, del Servicio de cardiología del Hospital General de México S.S. y de la cndh-México.
Yolanda Olvera López es profesora de la esime Culhuacan del ipn desde 1978. Realizó la licenciatura en Psicología en la unam, y es Maestra en Ciencias por el ipn. Responsable de la sección de psicología de la Clínica del Dolor del Centro Médico Nacional 20 de Noviembre, issste.
_______________________________________________________________
como citar este artículo → Domínguez Trejo, Benjamín y Olvera López, Yolanda. (2006). Estados emocionales negativos, dolor crónico y estrés. Ciencias 82, abril-junio, 66-75. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
||
de la historia | |||
Finanzas, una nueva ciencia aplicada
|
|
||
Esteban Martina
conoce más del autor
|
|||
HTML ↓ | ←Regresar al índice ⁄ artículo siguiente→ | ||
Por mucho tiempo, en el medio científico se consideró que el mundo financiero estaba muy alejado de los conceptos y técnicas utilizadas en la matemática, la física y las áreas más científicas de la ingeniería. A pesar de que varios científicos, actuarios e ingenieros, especializados en cómputo y sistemas, trabajaban en instituciones o en áreas financieras, no podía decirse que en sus labores emplearan el bagaje adquirido durante su formación universitaria.
A principios de los años setentas, en lugares como los Estados Unidos, Europa y Japón, donde los mercados e instituciones financieras eran bastante complejos, casi no se contrataban científicos para labores financieras. Sin embargo, la combinación de distintos factores provocó drásticos cambios en esta situación. La expansión sin precedentes de nuevos productos y estructuras financieras, junto con el impresionante desarrollo en sistemas de cómputo y de comunicaciones, impulsaron la globalización financiera que, a su vez, permitió operar nuevos instrumentos que requerían la participación de los científicos en el sector financiero. El evento clave ocurrió en 1973 con la publicación de dos artículos, uno del físico Fischer Black y del economista Mryon Scholes, ambos del Massachusetts Institute of Technology (mit), y el otro del matemático Robert Merton, de Harvard. En ellos se proporcionaba el mecanismo de valuación de ciertos productos, que empezaban a manejarse en el Chicago Mercantile Exchange, cuyo comportamiento depende parcialmente del de otros instrumentos —subyacentes—, y que se les llamó derivados. Actualmente existen billones de dólares en contratos nominales sobre un sin número de ellos. La valuación propuesta por Black, Scholes y Merton es la solución a una ecuación diferencial parcial parabólica —equivalente a la ecuación de difusión del calor— derivada, mediante técnicas bien conocidas en física y en matemáticas, de un modelo estocástico de caminata geométrica al azar. Con esta solución mostraron cómo valuar un instrumento financiero para obtener su rendimiento, al mismo tiempo que se establece matemáticamente cómo controlar el riesgo de que pierda valor. Para la teoría financiera, esto se convirtió en el paradigma fundamental de la valuación de productos financieros y de su riesgo, y abrió un nuevo campo de trabajo para los científicos, en particular para los matemáticos que supieran modelar el comportamiento del tipo de cambio, las tasas y otras variables financieras que son la base para valuar y medir el riesgo de un instrumento o de una cartera de instrumentos. Las ecuaciones diferenciales fueron centrales en el cálculo de derivados planteado por Black, Scholes y Merton. Por lo que éstas, junto con la teoría y el análisis numérico para resolverlas, la simulación —Monte Carlo—, la teoría de regularización y la de optimización se tornaron indispensables para valuar precios y calcular el riesgo asociado. Lo interesante es que estas mismas áreas de las matemáticas aparecen en la hidrodinámica y la física estadística. Por otro lado, el paradigma de Black, Scholes y Merton se basa en el supuesto de que el mercado no tiene memoria y que los precios son variables estocásticas, por lo que la teoría de la medida, las series de tiempo, los procesos estocásticos y la estadística fueron las herramientas matemáticas fundamentales para su desarrollo. Sin embargo, tras reconocer que el mercado perfecto sólo es una aproximación, porque en muchos casos tiene memoria, se están desarrollando modelos con otras dinámicas. La creciente aparición de productos con alto grado de complejidad en el mercado ha disparado la demanda de personal matemáticamente calificado. En México, no fue sino hasta mediados de los años ochentas, cuando un grupo de físicos, matemáticos, ingenieros, actuarios y economistas del Banco de México, comenzó el estudio sistemático de los nuevos avances en el mundo financiero. Desde entonces, y aun cuando cierto número de científicos y matemáticos emigran para trabajar tales temas en instituciones del extranjero, la incorporación de estos profesionales en el mundo financiero ha sido constante. La participación de la academia en la teoría de las finanzas también se ha incrementado. Actualmente, los desarrollos académicos sobre el mundo financiero no sólo aparecen en las revistas matemático-financieras como el Journal of Finance o Mathematical Finance, sino en revistas prestigiadas de física como Physica A o Physical Review E. También nacen nuevas disciplinas como la econofísica. En el caso de México, el interés por estos temas en el medio académico comenzó en las universidades privadas. Sin embargo, aunque en muchos casos estas instituciones cuentan con excelentes profesores, casi no realizan investigación. Por ello, es afortunado que en los últimos años surgieran grupos de investigación y docencia en estos temas en matemáticas aplicadas en la unam, la uam-i, el Politécnico, etcétera. El Instituto del Petróleo también tiene un grupo que realiza investigación, así como desarrollo y docencia en esta área. Finalmente cabe señalar que, aunque México sea un país dependiente y su sistema financiero sea pequeño y relativamente poco desarrollado, la interrelación de los mercados —consecuencia de la aplicación de modelos de riesgo-rendimiento dentro del paradigma de Black-Scholes-Merton— plantea problemas que no sólo son de interés práctico, sino también auténticos desafíos para los matemáticos y otros científicos. |
|||
Esteban Martina
Proveedor Integral de Precios S.A. de C.V. (pip) _______________________________________________________________
como citar este artículo → Martina, Esteban. (2006). Finanzas, una nueva ciencia aplicada. Ciencias 82, abril-junio, 62-64. [En línea]
|
|||
![]() |
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Homeostasis global y selección natural, un juicio para Gaia |
Se presenta un análisis de la literatura sobre las evidencias actuales que fortalecen y que cuestionan la hipótesis Gaia para establecer su estatus actual, principalmente en cuanto su compatibilidad con la teoría de la evolución por selección natural.
|
|
Miguel Ángel Munguía Rosas
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
En 1965, durante un programa de exploración de la National Aeronautics and Space Administration (nasa), James Lovelock examinó la atmósfera de diversos planetas; buscaba desarrollar un modelo para predecir la presencia de vida. Analizó la composición atmosférica de los planetas que no albergan vida y la de la Tierra, y advirtió que en los primeros la mezcla de gases estaba en completo equilibrio químico y que lo opuesto sucedía en nuestro planeta. Las atmósferas de Venus y Marte están dominadas por dióxido de carbono, mientras que la Tierra presenta una extraña combinación de gases altamente reactivos, como el metano y el oxígeno, que difiere por muchos ordenes de magnitud del esperado en el equilibrio químico. No pudo evitar relacionar su hallazgo con los seres vivos —que son sistemas termodinámicamente abiertos fuera del equilibrio— y sugirió que los organismos son más que simples pasajeros de la Tierra que modifican activamente la atmósfera de acuerdo con sus requerimientos, conduciéndola fuera del equilibrio químico. Entonces, la vida podría detectarse indirectamente analizando la composición de la atmósfera de los planetas.
Las grandes cantidades de gases producidas por los seres vivos están involucradas en el mantenimiento de la composición inestable de la atmósfera terrícola. La vida también es la causa de la homeostasis —la capacidad de un sistema para mantener determinados parámetros dentro de ciertos márgenes a pesar de los cambios en su entorno— en la composición atmosférica por periodos de tiempo que rebasan la residencia esperada de los gases según sus propiedades fisicoquímicas. Las condiciones actuales de nuestro planeta se mantienen dentro de los límites relativamente estrechos que los eucariontes multicelulares —algas, hongos, líquenes, etcétera— pueden tolerar. La vida persiste a pesar de que, desde que se originó, la temperatura del Sol se ha incrementado alrededor de 25%. La vida está involucrada en la regulación del clima. Lovelock, quien decidió llamar Gaia al complejo Tierra-vida, recibió fuertes criticas, entre las que destacan que en su forma inicial sugiere que los organismos buscan un objetivo, es decir, es teleológica; aparentemente es incongruente que pueda emerger la autorregulación en el nivel planetario mediante el proceso de selección natural, el cual opera sobre individuos; y es sumamente difícil plantear una hipótesis nula para una teoría de estas dimensiones, y más difícil aún conducir algún experimento.
En 1974, Lovelock y la microbióloga Lynn Margulis conjugaron sus observaciones sobre comunidades de bacterias y publicaron un trabajo con un título seductor, Homeostasis atmosférica por y para la biósfera. La hipótesis, en su forma original, establecía que la vida regula la composición atmosférica y el clima; ahora se ha modificado en función de las críticas recibidas, perdiendo paulatinamente el marco sensacionalista característico de Lovelock. En 2002, Lenton y Van Oijen describieron una versión moderna de la teoría. Gaia es un sistema cibernético cuyos elementos esenciales son la vida que afecta su ambiente, todos los organismos toman energía libre y excretan compuestos con alto grado de desorden para mantener su entropía interna baja; el crecimiento y la reproducción de los organismos; el ambiente que limita la vida, para cada variable ambiental existe un rango o nivel en el cual el crecimiento de un organismo se maximiza; y la selección natural, una vez que el planeta es habitado por diferentes formas de organismos cuya variación es heredable, la presión de selección y la competencia por recursos limitados filtra los genotipos con mayor adecuación. Gaia comprende la biósfera, la atmósfera, la hidrósfera, la materia orgánica muerta y el suelo, difiere del sistema Tierra previo a la vida y de la biósfera porque llega más allá del espacio ocupado por la vida. Modelos de vida artificial Los organismos, de acuerdo con Gaia, crean en conjunto un ambiente propicio para su desarrollo, con lo que parecería inevitable pensar en cooperativismo en el nivel de la biota total y, por lo tanto, en selección de grupos. Esto haría que Gaia sea insostenible según la actual teoría de la evolución, la cual postula que la unidad sobre la que opera la selección natural es el individuo. En relación con esto, en una ocasión Hamilton comentó, “así como Copérnico necesitó de Newton para explicar sus observaciones, yo necesito otro Newton para poder explicar cómo la selección natural pudo originar la homeostasis global”. Lejos de revivir a Newton para responderle, Lovelock creó la parábola del planeta de las margaritas, que en su forma original asume un planeta que gira alrededor de una estrella, a una distancia similar a la que existe entre la Tierra y el Sol, y que la temperatura aumenta con el tiempo. En el planeta existen dos especies, una margarita negra y otra blanca, que compiten por espacio y afectan su medio inmediato mediante la refracción de la luz. Tanto las margaritas negras como las blancas presentan tasas de crecimiento óptimas a 25ºC y un rango de tolerancia de entre 5 y 40ºC, ambas tienen la misma tasa de crecimiento, pero difieren en su capacidad para reflejar la luz, las blancas enfrían su ambiente —alta refracción—, mientras que las negras lo calientan —alta absorción. En un principio, el planeta presenta bajas temperaturas, lo que impide que las semillas germinen, pero conforme se incrementa la temperatura, las primeras semillas logran germinar. La refracción de la luz de las margaritas blancas provoca que su temperatura sea más fría que la de su ambiente, lo que obstaculiza su crecimiento. En contraste, las margaritas negras calientan su medio y favorecen su reproducción, por lo que proliferan calentando más el ambiente, lo cual favorece el crecimiento de ambas especies. Con el aumento de la temperatura, llega un momento en que las margaritas negras son perjudicadas por su alta absorción de radiación y su población declina. En este punto, las margaritas blancas son las que dominan el planeta hasta que la temperatura excede los rangos de tolerancia. Aunque aumente la temperatura de la estrella hasta 45ºC, la superficie del planeta permanece cercana al óptimo. Las margaritas funcionan como termostato, pues las dos especies presentan tendencias opuestas. En 1995, Stöcker incorporó al modelo la capacidad de mutación en el color de las margaritas, bajo este supuesto el planeta experimenta mayor capacidad de regulación y por periodos de tiempo más prolongados.
Saunders, en 1994, y Robertson y Robinson, en 1998, plantearon dos cuestionamientos al modelo del planeta de las margaritas. Primero, ¿qué pasaría si alguna de las especies de margaritas o ambas, en lugar de regular la temperatura se adaptara a temperaturas cada vez más altas? Segundo, ¿por qué no surge por mutación un defraudador que no contribuya, pero que se beneficie con la regulación de los demás? Ser defraudador puede proporcionar una ventaja, pues economiza recursos que puede invertir en su adecuación, ¿qué mecanismos de recompensa tienen los organismos que cooperan y cuáles evitan la presencia de defraudadores?
En 2000, Lenton y Lovelock respondieron al primero argumentando que la adaptación no puede ser ilimitada, “una margarita adaptada a una temperatura de 100ºC no es algo coherente”. Incorporaron un término al modelo que limita la capacidad de adaptación, con lo que lograron reinstalar al planeta de las margaritas en el marco de la evolución. Dos años más tarde, Sugimoto analizó nuevamente la adaptación de las margaritas considerando que las plantas tienen una capacidad de adaptación variable; encontró que las margaritas no pierden la capacidad de regular la temperatura a pesar de las diferencias entre los individuos. Introducir en el modelo la capacidad de adaptación diferencial sólo lo ajusta más a situaciones reales. Para resolver el segundo cuestionamiento, Lovelock introdujo en el planeta de las margaritas una planta gris, la cual se podría esperar que ahorre energía porque no participa en la regulación del medio que realizan las blancas y las negras. De acuerdo con los resultados, la margarita gris no destruye la capacidad de regulación del sistema, sólo tiene ventaja mientras la energía de la estrella está en el punto donde la regulación no es requerida. A medida que se incrementa la temperatura en el mundo de las margaritas, el costo de participar en la regulación es recompensado por el beneficio de mantener la temperatura cercana al óptimo para su crecimiento.
En 2001, Harding incluyó en su modelo, además de las margaritas, herbívoros y carnívoros. Con él predice que las plantas más abundantes serán las más atacadas por los herbívoros, algunas evolucionan con estrategias antiherbívoro y las que poseen mayor potencial biótico pueden sobrevivir porque la población de herbívoros es controlada por la de carnívoros. Las margaritas continúan regulando la temperatura de la atmósfera, regulación que emerge de procesos como la competencia, la depredación y la selección natural. Algunos trabajos teóricos trataron de abordar el problema de la homeostasis global mediante modelos que hacen una abstracción de un ecosistema. En 2003, Wilkinson enumeró las características mínimas que en cualquier planeta con vida basada en carbono debe presentar un ecosistema para ser autorregulable: flujo de energía, múltiples gremios, compromisos ecológicos que promueven la diversificación de los gremios, hiperciclos ecológicos, captación de carbono y posiblemente fotosíntesis. Cuatro años antes, Downing y Zvrinsky habían retomado la mayoría de los elementos enumerados por Wilkinson para modelar el desarrollo de un gremio biogeoquímico artificial. El modelo demostró que cuando una biósfera artificial tiene una cantidad limitada de recursos y un vasto número de organismos, la competencia promoverá que la biota desarrolle innovaciones metabólicas. Muchos gremios biogeoquímicos pueden emerger cuando un desecho se convierte en recurso para otros. Esta transferencia de materiales puede forjar ciclos y procesos de retroalimentación, lo que le permite a la biota ganar más biomasa de la que el flujo externo puede soportar.
Teleología El título del artículo donde se postulaba la teoría de Gaia, Homeostasis atmosférica por y para la biósfera, sugiere que la biota busca una meta. Sin embargo, buena parte de los títulos de los trabajos de Lovelock tienen esa connotación, por lo que puede ser más cuestión de estilo que de teleología explícita. Las hipótesis con alguna connotación teleológica refutan la selección natural como un proceso evolutivo, porque la última es un mecanismo y no un principio, no busca una meta, simplemente regula el paso de un carácter que confiere ventaja de un individuo hacia otro, por medio de la sobrevivencia y la reproducción diferencial.
La teleología en Gaia puede ser simplemente una cuestión de enfoque. Una adaptación con cierta función X podría tener otros efectos adicionales Y y Z, los cuales no pueden considerarse como la función primaria de esa adaptación. Transportando este razonamiento hasta un ejemplo real, la fotosíntesis tiene como principal función la captura de energía por medio de la conversión de la energía luminosa en glucosa; por lo tanto, la liberación de oxígeno y el consumo de bióxido de carbono son efectos colaterales. No sería coherente interpretar la producción de oxígeno como algo consciente para beneficio de los organismos aerobios. Sin embargo, los últimos son beneficiados. No es coherente argumentar teleología cuando la regulación en el nivel global no es el objetivo, sino un efecto colateral.
Un sistema complejo adaptativo Un sistema complejo, aquel que no puede explicarse por el comportamiento de sus partes, tiene propiedades emergentes que describen su conducta colectiva. La diversidad e individualidad de componentes, la interacción de ellos y un proceso autónomo que los selecciona son los tres elementos esenciales de los sistemas complejos adaptativos de donde pueden emerger propiedades como la adaptación continua, la ausencia de un controlador global, la organización jerárquica, la generación de novedades perpetuas y el desequilibrio termodinámico. Ejemplos de sistemas complejos adaptativos son los organismos y los ecosistemas. El término adaptativo no significa que todo el sistema esté sometido a la selección, se utiliza para describir el desarrollo y la respuesta del sistema, y se aplica a aquellos no sujetos a la selección natural como un todo, aunque sus partes posiblemente sí. Aunado a esto, si se considera la selección en un sentido más amplio que la selección natural, podemos describir conductas adaptativas que no son necesariamente el producto de la última. Gaia es un sistema complejo adaptativo porque tiene diversas partes interconectadas y sus propiedades no se explican totalmente por sus componentes; además, posee los tres elementos básicos: sostiene una gran diversidad e individualidad de componentes, existe interacción entre los organismos y, al menos, un proceso autónomo de selección —la selección natural. Como Gaia es un sistema complejo, emergen las propiedades mencionadas: es un sistema fuera del equilibrio, genera perpetuamente novedades —evolución—, tiene una organización jerárquica —poblaciones-ecosistemas-Gaia— y no existe un controlador global.
Considerar a Gaia como un sistema de tal naturaleza neutraliza la necesidad de recurrir a la selección en el nivel de grupo, porque la selección no opera en el nivel de todo el sistema, sino en sus partes. El hecho de que el sistema total aparente ser un sistema armónico no es teleología, es una propiedad emergente. Un sistema cibernético La cibernética estudia los sistemas que son regulados por retroalimentación, mecanismos que mantienen al sistema dentro de un marco de variación bien delimitado —placa homeostática. Cuando el proceso conserva al sistema dentro de la placa homeostática se denomina retroalimentación negativa, mientras que cuando se incrementa la tendencia de una respuesta más allá de la placa los mecanismos constituyen la retroalimentación positiva. La teoría de sistemas cibernéticos, ampliamente empleada en ecología —interacciones depredador-presa, ciclos biogeoquímicos, etcétera—, puede utilizarse para explicar la resiliencia —capacidad para volver a la situación anterior de una alteración, tras cesar la causa de la última— de Gaia durante el tiempo en que la vida ha permanecido en la Tierra. Lovelock sugirió que Gaia se autorregula en el rango de lo habitable. El término regulación es utilizado, en un sentido cibernético, como la tendencia de un sistema para contrarrestar las perturbaciones. La hipótesis de Gaia propone tres elementos en la regulación: los procesos de retroalimentación que contribuyen con la homeostasis ambiental, los organismos que construyen un ambiente favorable para la vida y los mecanismos de retroalimentación que emergen por selección natural. En 2002, Kirchner criticó estos elementos, argumentando que los mecanismos mediados por retroalimentación no son intrínsecamente homeostáticos, que muchos de los mecanismos biológicos que afecta el clima son desestabilizadores; es decir, algunos mecanismos de retroalimentación biológicamente mediados son amplificadores —retroalimentación positiva— y no depresores —retroalimentación negativa— de procesos ambientales como el calentamiento global. Afirmaba también que la retroalimentación biológicamente mediada no necesariamente hace al ambiente más favorable para la vida —aunque lo aparenta—, la imagen del ambiente completamente armónico con la vida es simplemente un artefacto, producto de la fuerza purificadora de la selección natural, la cual sólo favoreció los organismos con mejor desempeño en sus respectivos ambientes. Por último, decía que si bien la retroalimentación que favorece la homeostasis de Gaia puede haber evolucionado por selección natural, también puede hacerlo la retroalimentación disruptiva. Los partidarios de Gaia rápidamente respondieron a las inquietudes de Kirchner. Los procesos de retroalimentación no emergen por selección natural, la retroalimentación es una propiedad emergente de Gaia. Los sistemas anti-Gaia no pueden permanecer mucho tiempo porque se colapsarían. El patrón avalado por la historia geológica es que existen largos periodos de estabilidad, regulados principalmente por retroalimentación negativa, interrumpidos por intervalos cortos en los que predomina la retroalimentación positiva —por ejemplo, las extinciones masivas. De hecho, la teoría de Gaia siempre ha integrado eventos de retroalimentación, tanto negativa como positiva.
En 2003, Volk sugirió que la emergencia de retroalimentación puede explicarse mediante mecanismos que operan en el nivel del individuo. Para él, los elementos clave son los subproductos, que en su forma más simple son desechos de los organismos. Estos subproductos no evolucionaron para ser evacuados al ambiente y alterarle su composición química, si eso sucede es un efecto colateral. Aunque los desechos son sustancias inútiles para los organismos que los producen, pueden y de hecho afectan el ambiente global. Si consideramos que la Tierra tiene recursos limitados y una vasta cantidad de organismos, la competencia y la selección natural pueden favorecer la presencia de nuevas rutas bioquímicas, donde se utilicen los subproductos como recurso y se evite así la competencia.
El modelo nulo Un aspecto que ha obstaculizado la consolidación de Gaia es la generación de hipótesis. ¿Cómo podemos hacer una hipótesis nula de una teoría de dimensión planetaria donde sólo tenemos una N = 1? De acuerdo con Gaia, la vida ejerce gran influencia sobre su medio para su propio beneficio, pero ¿cuál es ese beneficio y cómo puede medirse? En 2002, Kleidon propuso utilizar la productividad primaria bruta como indicador de los efectos favorables de la vida en su ambiente. Las hipótesis nulas de Kleidon son: a) anti-Gaia: los efectos de la biota sobre el ambiente son disruptivos y repercuten en baja productividad primaria bruta, el porcentaje de esta última con vida es menor que el de la abiótica; b) no Gaia: pueden existir efectos de la biota sobre el ambiente, pero no incrementan ni deprimen la productividad mencionada, aquella con biota es igual que la sin biota; c) favorables a Gaia: la biota modifica las condiciones ambientales de acuerdo con sus requerimientos, esto repercute en mayor productividad primaria bruta, pero sin alcanzar el máximo, aquella con biota es mayor que la abiótica; y d) Gaia óptimo: los efectos de la biota modifican favorablemente la productividad, al punto en que el ambiente es óptimo para la vida, aquella con biota es mayor que la abiótica. Las hipótesis nulas pueden probarse con modelos empíricos bioclimáticos. Uno de ellosresta el papel de la vegetación en la captación de carbono y otro incrementa la precipitación natural en un 30%. Los resultados obtenidos sugieren un significativo efecto benéfico de la vida sobre la productividad mencionada, respecto al ambiente abiótico. Esto proporciona argumentos para rechazar las dos primeras hipótesis. 30% de precipitación adicional sólo incrementa la productividad del mundo real en 5% y no alcanza el óptimo, por lo que la última hipótesis también es rechazada. La tercera es la única que resiste los intentos de refutación utilizando como parámetro la productividad primaria bruta.
Evidencia empírica La ciencia avanza mediante un proceso de conjetura y refutación. Las teorías se proponen por medio de especulaciones y se contrastan contra observaciones. En 2003, Kirchen argumentó que no existen posibilidades de comprobar empíricamente la teoría de Gaia. Las cuatro hipótesis nulas planteadas sólo pueden contrastarse y refutarse con base en datos que provienen de modelos, no de estudios empíricos. Las evidencias de que Gaia existe provienen principalmente de modelos teóricos. Sin embargo, esta es una fase característica en el desarrollo de cualquier teoría —sobre todo de una que trata de fenómenos en el nivel global, con limitadas posibilidades de experimentación. Los partidarios de Gaia, para recabar evidencia empírica, han buscado ciclos en la escala del ecosistema o huellas del pasado que puedan ejemplificar cómo emerge la autorregulación. Desde sus inicios, Gaia fue planteada con base en datos empíricos, como las observaciones de Lovelock con espectrografía infrarroja de la atmósfera de varios planetas. En la Tierra existen varios ciclos homeostáticos que involucran factores climáticos, químicos, geológicos y biológicos, algunos de ellos son la regulación de largo plazo de las temperaturas globales por organismos fotosintéticos, el mantenimiento en los océanos de la salinidad relativa, la proporción fósforo-nitrógeno en los cuerpos de agua y en los microorganismos acuáticos, la habilidad de la vida para crear rutas eficientes de reciclaje para los nutrimentos presentes en cantidades limitadas y la producción de un precursor de dimetil sulfuro (dms) por parte del fitoplancton marino, el cual funciona como núcleo de condensación de nubes y puede actuar como un termostato en el nivel global. Los opositores de Gaia han citado otros fenómenos que parecen no ajustarse a ella. En 2002, Kirchner mencionó que la producción antropogénica de dióxido de carbono es evidencia de la pobre capacidad reguladora de la vida. El uso de combustibles fósiles ha colocado las concentraciones de los gases de invernadero más allá de los límites observados en los últimos cuatrocientos mil años. La composición de la atmósfera no es regulada eficientemente por los individuos. Los partidarios de Gaia: respondieron que la aparente falta de regulación de los gases de invernadero en la atmósfera actual es el resultado de la incorporación de carbono que estaba inmovilizado. Después de un periodo probablemente no perceptible en la escala humana, cuando el combustible fósil se agote, los organismos regularán de nuevo las concentraciones de esos gases —lo cual es anticipado con modelos empíricos. Un año después, el mismo Kirchner adicionó otras interrogantes en la agenda de Gaia: ¿qué controla la magnitud y duración de los ciclos glaciales e interglaciales?, y ¿por qué cambian todo el tiempo?, ¿qué controla los patrones de extinción y diversificación en el registro fósil?, y ¿cómo están ligados con el clima? Sería prematuro decir que estas preguntas no pueden contestarse, porque apenas fueron planteadas. El juicio En los últimos años creció la apertura de los editores de revistas científicas para publicar trabajos sobre la hipótesis de Gaia, lo que puede considerarse una evidencia de que está ganando un lugar como una teoría científica seria. Los modelos teóricos son otras evidencias que apoyan a Gaia. Elementos críticos para la teoría de la evolución —como la competencia intra e inter especifica, la limitación de recursos, la mutación y la presión del ambiente— se han integrado con éxito en los modelos del planeta de las margaritas y de la vida artificial. La historia que narran parece infalible, los modelos teóricos tienen la capacidad de integrar cualquier elemento y refutar así las críticas. Sin embargo, la impresión de que son infalibles no es una propiedad de Gaia, sino de los modelos. Mientras que Lenton en 2002, y junto con Wilkinson un año después, habla de que el incremento en el número de publicaciones sobre Gaia anuncia la emergencia de un nuevo paradigma, Kirchern, en 2003, dice que el terreno que ha ganado se debe a las modificaciones que sufrió y a lo que han cedido los opositores. Sin embargo, existen puntos de concordancia entre partidarios y algunos opositores cuando opinan que entre la atmósfera y la biósfera deben emerger procesos de retroalimentación, que los sistemas acoplados por retroalimentación pueden exhibir propiedades emergentes, incluso la autoregulación y que la Tierra debe considerarse como un todo.
Aunque la evidencia que trata de reconciliar a Gaia con la selección natural es creciente, existen problemas que dificultan realizar un juicio sobre ella. La mayoría de los cuestionamientos que plantean los opositores aún surge desde una visión reduccionista y no de una donde la Tierra sea vista como un sistema global. Los partidarios deberán reunir más datos de procesos reales compatibles con Gaia, así como tener iniciativas de experimentación —un microcosmos podría ser una alternativa. A pesar de las limitaciones para la última, la teoría actualmente vive su etapa de mayor intensidad de debate científico. La aceptación de Gaia parece no estar lejos. Sin embargo, su completa aceptación no será en su forma actual, seguramente tendrá que sufrir transformaciones radicales.
|
||
Miguel Ángel Munguía Rosas
Instituto de Ecología A. C.
Xalapa, Veracruz.
|
||
Referencias bibliográficas
Downing K. y P. Zvirinsky. 1999. “The simulated Evolution of Biochemical Gilds: Reconciling Gaia and Natural Selection”, en Artificial Life, núm. 5, pp. 291-318.
Harding S. 2001. “Complexity and Stability in a Gaian Ecosystem Model”, en Tellus, núm. 51, pp. 1-10.
Kirchner J. W. 2002. “The Gaia Hypothesis: Fact, Theory, and Wishful Thinking”, en Climatic Change, núm. 52, pp. 391-408.
Kirchner J. 2003. “The Gaia Hypothesis: Conjectures and Refutations”, en Climatic Change, núm. 58, pp. 21-45.
Kleidon A. 2002. “Testing the Effect of Life on Earth’s Functioning: How Gaia is the Earth System”, en Climatic Change, núm. 52, pp. 383-389.
Lenton T. M. y J. E. Lovelock. 2000. “Daisy World is Darwinian: Constrain on Adaptations are Important for Planet Regulation”, en Journal of Theoretical Biology, núm. 206, pp. 109-114.
Lento T. M. y M. Van Oijen. 2002. “Gaia as a Complex Adaptive System”, en Philosophical Transactions B, núm. 357, pp. 683-695.
Lenton T. M. 2002. “Testing Gaia: The Efect of Life on Earth’s Habitability and Regulation”, en Climatic Change, núm. 52, pp. 409-422.
Lenton T. M. y D. M. Wilkinson. 2003. “Developing the Gaia Theory”, en Climatic Change, núm. 58, pp. 1-12.
Lovelock J. E. y L. Margulis. 1974. “Atmospheric Homeostasis by and for the Biosphere: The Gaia Hypothesis”, en Tellus, núm. 26, pp. 2-9.
Lovelock. 2003. “The Living Earth”, en Nature, núm. 426, pp. 769-770.
Robertson D. y J. Robinson. 1998. “Darwinian Daisy World”, en Journal of Theoretical Biology, núm. 195, pp. 129-134.
Saunders P. T. 1994. “Evolution Without Natural Selection”, en Journal of Theoretical Biology, núm. 166, pp. 365-373.
Stöcker S. 1995. “Regarding Mutations in Daisyworld Models”, en Journal of Theoretical Biology, núm. 175, pp. 495-501.
Sugimoto T. 2002. “Darwinian Evolution Does not Rule Out Gaia Hypothesis”, en Journal of Theoretical Biology, núm. 218, pp. 447-455.
Volk T. 2003. “Natural Selection, Gaia, and Inadvertent By-products: A Reply to Lenton and Wilkinson’s Response”, en Climatic Change, núm. 58, pp. 13-19.
Wilkinson. 2003. “The Fundamental Processes in Ecology: a thought experiment on extraterrestrial Biospheres”, en Biological review, núm. 78, pp. 171-179.
|
||
Miguel Ángel Munguía Rosas es biólogo por la Facultad de Estudios Superiores Iztacala de la unam. Maestro en Ciencias Biológicas por el Centro de Investigaciones en Ecosistemas (cieco) de la unam. Actualmente cursa el doctorado en Ecología en el Instituto de Ecología A. C. de Xalapa, Veracruz.
_______________________________________________________________
como citar este artículo → Munguía Rosas, Miguel Ángel. (2006). Homeostasis global y selección natural, un juicio para Gaia. Ciencias 82, abril-junio, 16-25. [En línea]
|
||
![]() |
←Regresar al índice ⁄artículo siguiente→ |
![]() |
![]() |
|
Matracas estocásticas,
¿una máquina de movimiento perpetuo?
|
Se analizan algunos intentos de construir máquinas de movimiento perpetuo con base en la primera y segunda ley de la termodinamica y se ve cómo, aunque la construcción de una máquina de ese tipo es imposible, su búsqueda ha conducido a proponer nuevas hipótesis sobre el origen de la vida.
|
|
Laura Viana y Carlos Villarreal
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
Durante siglos, una parte de la humanidad ha luchado persistentemente por mejorar las duras condiciones de trabajo, eliminar la devastadora acción del hambre y de las enfermedades, y evadir la certeza de la vejez y de la muerte. De alguna manera para retornar al paraíso original de la tradición judeo-cristiana, un sitio idílico donde todas las especies, incluído el ser humano, conviven en armonía, sin actos de predación ni presiones de selección natural. Muchos esfuerzos se enfocaron en entender y manipular la naturaleza para sacar mejor provecho de ella, conjugando elementos materiales y espirituales. Así, nos encontramos con la búsqueda de la piedra filosofal, que transmutaría la materia degradada y corrupta en oro incorruptible y puro; o la de la fuente de la eterna juventud, para hacer realidad el sueño de poseer la belleza y el vigor juvenil por siempre; y finalmente, la del perpetuum mobilae, o máquinas de movimiento perpetuo, que desarrollarían trabajo de manera gratuita, eximiendo a los hombres de muchas de sus cargas laborales. Estas máquinas, una vez en movimiento, permanecerían en ese estado por siempre, sin necesidad de utilizar combustible, lo que permite pensar en ruedas que giran eternamente o barcos que obtienen su energía a partir de calor extraído del agua de mar. Por supuesto, la historia está plagada de fraudes de quienes, pretendiendo haber logrado un diseño exitoso, consiguieron socios inversionistas para desarrollarlo.
Algunos de los primeros intentos de diseño de este tipo de máquinas están registrados en documentos medievales de mediados del siglo xiii. Por ejemplo, la figura de la izquierda data de 1235 y está tomada del libro de notas del ingeniero francés Villard de Honnecourt, allí se muestra una rueda de la que cuelgan pesos que hacen que un lado siempre sea más pesado que el otro, lo cual la mantendría girando. En 1269 aparece un diseño similar en el libro De Magnete de Pièrre de Mericourt (el Peregrino), pero en éste —la figura de la derecha—, los pesos son reemplazados por una rueda de hierro dentada y la fuerza motriz proviene de un imán en forma de cucharón colocado en el centro. La figura superior, un grabado extraído del Theatrum Machinarum Novum de 1673, muestra una máquina de movimiento perpetuo para afilar cuchillos. Su mecanismo se basa en el uso de una rueda hidráulica que al girar acciona un tornillo de Arquímedes, el cual permite subir agua hasta un depósito. Al caer el agua sobre la rueda hidráulica, la hace girar, cerrándose de esta forma el ciclo. En el siglo xvii se intentó la construcción de los primeros artefactos de este tipo, algunos realmente ingeniosos. Sin embargo, aunque tengan la habilidad de operar durante largos periodos de tiempo, eventualmente se detienen. En 1635 se otorgó la primera patente inglesa para una máquina de movimiento perpetuo y, al comenzar el siglo xx, en ese país se habían otorgado alrededor de seiscientas. Actualmente, las oficinas de patentes de muchos países, entre ellos Gran Bretaña y los Estados Unidos, no revisan las solicitudes para máquinas de movimiento perpetuo, y en Francia, desde 1775, la Academia de Ciencias implantó como política no establecer ninguna correspondencia respecto a este asunto. Sin embargo, todavía hay quienes —basados en concepciones erróneas de la termodinámica— piensan que es posible construir una máquina de movimiento perpetuo, siempre y cuando se conjuguen grandes dosis de tenacidad e ingenio. Así, un rápido vistazo por internet permite distinguir los intentos de algunas personas que, de buena o mala fe, continúan trabajando con esta idea en mente. Nunca se construyó una máquina de movimiento perpetuo, pero no todos los esfuerzos fueron en vano, pues gran parte del desarrollo de la termodinámica tuvo su origen en los intentos por crear máquinas capaces de convertir eficientemente energía calorífica en mecánica. El desarrollo conceptual de la termodinámica evolucionó lentamente durante el siglo xix. Después de años de trabajo de muchas personas, Julius Clasius logró resumir sus postulados básicos en dos leyes fundamentales, actualmente conocidas como la primera y la segunda ley de la termodinámica, que permitieron el diseño de máquinas que realmente funcionaron y que originaron la revolución industrial. Posteriormente, se incorporó la tercera ley que completa la teoría y cuya formulación requirió el desarrollo de la estadística cuántica; esta ley es muy importante desde el punto de vista conceptual, pero no es requerida por el grueso de la termodinámica. Las leyes de la termodinámica A mediados del siglo xix, el científico inglés James Joule probó que todas las formas de energía son esencialmente lo mismo y que, por lo tanto, pueden transformarse una en otra. Con esto demostró que la cantidad de energía requerida para producir un cambio en un sistema es independiente del método de administración y de la velocidad de suministro. Los métodos pueden ser la inyección o extracción de calor, la aplicación de algún tipo de trabajo mecánico, eléctrico, etcétera, o una combinación. Esto significa que existe una relación fija entre la cantidad de trabajo y el calor, lo cual representa el equivalente mecánico del calor y constituye la base de lo que ahora se conoce como la primera ley de la termodinámica, que también puede expresarse como una declaración: “existe una cantidad llamada energía, la cual se conserva y es aditiva”. Entonces, si unimos dos sistemas, la energía total será igual a la suma de la energía de cada uno. Ahora bien, aunque son formas equivalentes de energía, la transformación del calor en trabajo no se efectúa de manera arbitraria; siempre que se realiza, una parte de la energía se pierde irremediablemente en forma de calor. Esto es precisamente lo que se encuentra plasmado en la segunda ley de la termodinámica. En 1824, el ingeniero militar francés Sadi Carnot encontró que existe un límite teórico para la eficiencia con que se puede producir trabajo partiendo de calor. La forma más eficiente es mediante un proceso cíclico reversible, el cual regresa al estado original después de cada ciclo y opera alternadamente entre dos temperaturas, T2 y T1. Este ciclo de Carnot es un procedimiento específico de cuatro etapas, gracias al cual podemos extraer calor de un sistema caliente —a temperatura T2—, utilizar parte de la energía para realizar trabajo e inyectar la energía restante, en forma de calor, en un sistema más frío —a temperatura T1— para después regresar al estado de partida. El sistema caliente podría ser una caldera y el frío el ambiente o agua templada. Se puede demostrar que la eficiencia (ε) de este proceso, definida como la fracción de calor extraído que es transformada en trabajo, depende únicamente de la temperatura de las dos fuentes y está dada por la relación ε = (T2-T1 ) /T2
donde las temperaturas se expresan en grados Kelvin. Según esta relación, si las dos temperaturas son iguales, la eficiencia es cero y es imposible extraer trabajo del sistema. También sugiere que para transformar todo el calor en trabajo, o lograr un proceso con eficiencia ε = 1, necesitaríamos que T2 fuese muy grande comparada con T1; de hecho, la temperatura T2 tendría que ser infinita o alternativamente, T1 igual a cero grados Kelvin, aproximada de –273oC. Por las enormes dificultades que implicaría alcanzar estas temperaturas y como cualquier otro proceso para convertir calor en energía tiene una eficiencia menor, queda claro que no puede haber un proceso con eficiencia ε = 1 y, por lo tanto, debemos desechar el sueño del movimiento perpetuo. La segunda ley y el movimiento perpetuo No existe una línea divisoria precisa entre los distintos tipos de máquinas de movimiento perpetuo que se han diseñado, aunque hay que insistir en que ninguna funcionó. Sin embargo, para analizarlas podríamos dividirlas en tres clases: las de primer y segundo tipo, que violarían la primera y la segunda ley de la termodinámica, respectivamente, y las de tercer tipo, que se podrían construir si se eliminan todos los factores que disipan energía, como la fricción mecánica y la resistividad eléctrica. La de primer tipo, aquella que después de pasar por un proceso cíclico en el que el estado final es igual al inicial, tiene como efecto neto la producción de trabajo —implica que la energía no se conserva, sino que aumenta. Un ejemplo sería el afilador de cuchillos de la figura superior en la página 32. El error de este diseño consistió en suponer que la energía obtenida del movimiento de la rueda sería mayor que la necesaria para regresar el agua a su posición original. La de segundo tipo transformaría íntegramente el calor en trabajo; por ejemplo, el diseño del ceromotor, muy similar a una máquina de vapor convencional. La última, como la que se muestra en la figura inferior, utiliza agua que al ponerse en contacto con una fuente de calor a temperatura T2, como en una caldera, se calienta; cuando alcanza 100oC, el agua se evapora y conforme continúa calentándose, aumenta la presión del vapor, que al llegar al valor máximo deseado, libera un pistón, el cual se mueve, transformando energía calorífica en mecánica. Posteriormente, se aleja el sistema de la caldera y se pone en contacto con uno de enfriamiento, con lo que el aire se enfría, se contrae y crea un vacío que provoca que el pistón se retraiga y que el volumen del gas disminuya; de esta manera, el gas vuelve a condensarse y regresa a su estado original. En este ciclo el sistema toma energía de una fuente caliente —caldera—, suelta calor hacia una fuente fría —sistema de enfriamiento o ambiente— y produce trabajo mecánico. Es claro que para que funcione, hay que mantener la caldera caliente; esto es, hay que suministrarle energía. El ceromotor, diseñado por John Gamgee, utilizaría amonio como líquido operante en lugar de agua, porque el amonio se evapora a 0oC y ejerce una presión de cuatro atmósferas —cuatro veces mayor a la presión atmosférica al nivel del mar— a esa temperatura. Por ello, su diseñador pensó que esta máquina podría utilizar el calor del ambiente para evaporar el amonio, y que éste al expanderse se enfriaría y condensaría, cerrándose así el ciclo. Gamgee consideró que de esta forma no sería necesario mantener caliente una caldera, por lo que no se utilizaría combustible. Lo que no calculó correctamente es que si este gas se expande cuatro veces su volumen original, consecuentemente su temperatura bajaría a –33oC, por lo que para alcanzar esta temperatura durante la segunda fase tendría que estar en contacto con un reservorio a una temperatura aún menor. Así, aunque la temperatura alta podría obtenerse del ambiente, tendríamos que enfriar el sistema en la segunda parte del ciclo, y para ello, utilizar un refrigerador, que obviamente consume energía. Respecto a las máquinas del tercer tipo, aquéllas que sólo podrían construirse eliminando todos los aspectos que disipan energía, resulta pertinente comentar que si bien se ha alcanzado cierto éxito en la construcción de máquinas que permanecen en movimiento por largos periodos, es un hecho que, tarde o temprano, fatalmente se detienen. De pulgas y elevadores El proceso de extraer calor de un sistema y transformarlo en trabajo se hace con una eficiencia menor que uno. Pero, ¿será esto ineludiblemente cierto o se trata de una limitación de nuestras capacidades técnicas? Siguiendo al famoso físico Richard Feynman, hagamos un experimento pensado. Tenemos dos recipientes con gas a temperaturas TISQ y TDER, respectivamente, unidos por un perno que los atraviesa de lado a lado por su parte media, dejando una sección suspendida en medio de los dos, tal como lo muestra la figura de esta página. Ahora, en el interior del recipiente de la izquierda y montado sobre este perno, fijemos un engrane que pueda girar únicamente en un sentido por la presencia de una laminilla de metal que obstaculiza el giro en el otro. Es decir, tendremos algo similar a una matraca. Por otro lado, a la sección del perno que se encuentra en el interior de la caja del lado derecho le fijaremos un sistema de aspas. Los gases contenidos en las dos cajas están compuestos por moléculas que se mueven chocando entre sí, con una variación aleatoria en la dirección de sus movimientos, de manera que las aspas reciben bombardeos de partículas sobre sus dos caras, con la misma regularidad. Si suponemos que las aspas y el engrane son de diminutas dimensiones, de forma que los golpeteos moleculares pueden perturbarlas, las paletas girarían aleatoriamente en una y otra dirección y transmitirían su movimiento, a través del perno, al engrane localizado en la otra caja. Sin embargo, recordemos que el engrane en la caja izquierda únicamente permite los giros en una dirección; así, los golpeteos sobre una cara de las aspas harían girar el engrane en la otra caja, mientras que sobre los lados opuestos, se encontrarían con la resistencia del engrane, por lo que no tendrían ningún efecto. Ahora viene lo interesante. Supongamos que atamos un pequeño hilo al segmento central del perno que se encuentra en el exterior, en medio de las dos cajas, en su otro extremo sujetamos a una pulga. La lógica nos dice que al girar el perno exclusivamente en una dirección el cordón se enrollaría y como resultado la pulga ascendería, independientemente de la temperatura de los dos recipientes. Esto es, estaríamos extrayendo energía del recipiente derecho que se encuentra a temperatura TDER y la transformaríamos en trabajo. Ahora bien, si TIZQ es igual a TDER, de acuerdo con la segunda ley de la termodinámica esto sería imposible, pero todo parece indicar que nuestro razonamiento es correcto e independiente de la temperatura en los dos recipientes. ¿Qué es lo que sucede?, ¿podemos ir corriendo hasta la oficina de patentes para registrar este magnífico dispositivo elevapulgas?, ¿es que realmente hemos encontrado que la segunda ley de la termodinámica tiene excepciones? Si analizamos con mayor detalle el razonamiento, notaremos que hay algunos elementos que no se han considerado. Por ejemplo, la intensidad del golpeteo molecular que mueve las aspas está determinada por la temperatura TDER del recipiente en el cual se encuentra a mayor temperatura, recibirán un mayor número de impactos moleculares por segundo. Si la intensidad del golpeteo es suficiente para hacer girar las aspas en un sentido, venciendo con ello la resistencia de la laminilla de la matraca, es factible pensar que el golpeteo molecular en la caja izquierda también sea capaz de levantar esta laminilla. Basta suponer que la temperatura TIZQ de su entorno es idéntica a la temperatura TDER del recipiente de las aspas, por lo que la laminilla recibirá el mismo número de colisiones por unidad de área y por segundo que aquéllas. Al levantarse la laminilla aleatoriamente, la rueda con engrane girará en uno u otro sentido indistintamente. Al final, no ocurriría una rotación neta y nuestro proyecto de máquina de movimiento perpetuo fracasaría rotundamente. Pero, ¿existe alguna forma de darle una utilidad a nuestra máquina? Por supuesto, pero para ello habrá que hacer que las leyes de la termodinámica trabajen a nuestro favor. Si elevamos la temperatura de la caja en la que se encuentran las aspas, de modo que TDER > TIZQ, el número de colisiones por segundo que recibirán las aspas será mayor que el recibido por la laminilla; esto permitirá que la rueda engranada tenga una rotación neta. Si la diferencia en el número de colisiones es suficientemente grande, la pulga se elevará. ¡Nuestra máquina funciona! Sin embargo, no será una máquina de movimiento perpetuo, pues eventualmente las moléculas del segundo recipiente irán perdiendo energía y, por lo tanto, enfriándose; parte de esta energía se utilizará para subir a la pulga y la restante calentará el gas del recipiente izquierdo, de manera que la pulga dejará de ascender cuando estas dos temperaturas se igualen. Las matracas estocásticas Pero, ¿para qué sirve construir un elevador de pulgas? Originalmente, Feynman concibió este experimento pensado para discutir algunos aspectos de la termodinámica; sin embargo, recientemente estos sistemas han encontrado aplicaciones para modelar procesos biológicos. Así, podemos pensar en el movimiento que sufrirá una molécula polarizable que interactúa con una sucesión de moléculas cargadas o polares, tal y como ocurre en la transcripción del código genético. La información del código genético (dna, por sus siglas en inglés) está contenida en el orden de las cuatro moléculas básicas de la vida: la guanina G, la citosina C, la timina T y la adenina A. Estas bases están dispuestas en secuencias del tipo AGTCTTGGAA…, cada grupo de tres bases corresponde a uno de los veinte aminoácidos esenciales con los que se contruyen las proteínas de los seres vivos, y se leen siempre en el mismo sentido: AGT, CTT, GGA, … Este mecanismo de lectura es muy similar al funcionamiento de la matraca, que siempre rota a saltitos en un mismo sentido. En este caso, la molécula encargada de la transcripción de bases en aminoácidos puede percibir la cadena de dna como un sustrato representado por una sucesión de potenciales asimétricos, entre los cuales la molécula podría brincar en una dirección preferencial bajo ciertas condiciones. Si la molécula no tuviera interacciones, permanecería en una posición determinada en alguno de los pozos del potencial. Sin embargo, la molécula será capaz de brincar aleatoriamente hacia los pozos vecinos por estar sujeta a fluctuaciones térmicas de energía, las cuales se originan por colisiones azarozas e impredecibles provocadas por las moléculas libres del medio. Podríamos pensar que, si alguna de las pendientes del potencial fuese más suave que la otra, la molécula tendría una mayor probabilidad de brincar en esa dirección hacia el pozo contiguo. Una vez que caiga en el nuevo pozo, el fenómeno se repetiría y habríamos generado un desplazamiento neto partiendo de meras fluctuaciones. Pero esto contradice las conclusiones extraídas en el problema de la matraca. La falla en este razonamiento consiste en que el número de colisiones por segundo que sufrirá nuestra partícula hacia un lado y hacia el otro también es asimétrico, lo cual provocará que la tendencia a remontar el potencial de pendiente más suave sea amortiguada por un mayor número de colisiones en contra. Como resultado, la probabilidad de brincar hacia un lado y hacia el otro es la misma y la molécula no sufre un desplazamiento neto. Como en el problema anterior, es necesario invertir energía química, electromagnética, o mediante un gradiente de temperatura, para provocar un movimiento ordenado. Este mecanismo fue propuesto como un rectificador de ruido; es decir, como una forma de transformar movimiento fluctuante en ordenado.
En equilibrio, el efecto del ruido térmico sobre una partícula es simétrico, aun cuando se encuentre en un medio espacialmente asimétrico, de manera que la partícula brincaría hacia uno y otro lado, pero en promedio no tendría un desplazamiento neto. Sin embargo, si existe una diferencia de temperatura entre los extremos de nuestro sustrato, la partícula se desplazaría hacia uno de los extremos. Por otro lado, se ha encontrado que si se suministra energía fluctuante externa —por ejemplo, un campo eléctrico que varíe en el tiempo o reacciones químicas fuera de equilibrio—, la partícula aprovechará la asimetría del potencial y se desplazará en alguna dirección, que depende en forma no trivial de la asimetría local del potencial, del coeficiente de difusión de la partícula, de su masa, de la viscosidad del medio, etcétera. El movimiento azaroso del medio afecta las partículas con masas diferentes de distintas formas; este efecto podría utilizarse para separar partículas o para diseñar dispositivos como motores moleculares, bombas biológicas para iones, etcétera. Ciertamente, la naturaleza se vale de estos mecanismos para muchos de los procesos físicos y biológicos que ocurren en el planeta, los cuales no contradicen la segunda ley de termodinámica, porque parte de la energía utilizada para sobrepasar las barreras de energía se obtiene del ruido térmico. Este mecanismo se ha utilizado para proponer un posible escenario del origen de la vida. Según evidencias recientes, el intervalo de tiempo transcurrido desde el enfriamiento del material terrestre hasta el surgimiento de las primeras manifestaciones de vida, es muy estrecho: unos cuantos cientos de millones de años. Si se calcula la probabilidad de que aparezca la vida exclusivamente como consecuencia de interacciones azarosas en un mar primigenio, como se suponía hasta hace poco, resulta que tendrían que haber pasado muchos más años. Entonces, existe la posibilidad de que la vida en la Tierra se haya originado en partículas sólidas provenientes del espacio interestelar, donde se han encontrado moléculas orgánicas de gran complejidad. Dichas partículas tienen numerosos canales que facilitarían la interacción de diversas moléculas, las cuales podrían formar largas cadenas poliméricas. La información contenida en la estructura polimérica resultaría susceptible de ser transcrita por otras moléculas cuya interacción con éstas estaría determinada por un potencial del tipo diente de sierra. El potencial oscilatorio podría provenir de la luz de las estrellas, mientras que las fluctuaciones estarían determinadas por los rayos cósmicos y todo tipo de perturbaciones existentes en el espacio interestelar. Cuando se realizan los cálculos matemáticos pertinentes nos percatamos de que este escenario no resulta descabellado.
De este modo, ahora buscamos respuestas a la pregunta de cómo es que un universo que tiende a aproximarse naturalmente al desorden, a generar el caos, encuentra resquicios para burlarse de si mismo y crear orden por doquier. Hablando metafóricamente, quizás al encontrarlas nos reconciliemos un poco con la expulsión original y concluyamos que en realidad fue un acto de amor primordial. |
||
Laura Viana Castrillón
Centro de Ciencias de la Materia,
Universidad Nacional Autónoma de México.
Carlos Villarreal Luján
Instituto de Física,
Universidad Nacional Autónoma de México.
|
||
Referencias bibliográficas
Bernal, J. D. 1975. La proyección del hombre. Historia de la física clásica. Siglo xxi editores, México.
Aldana, M., F. Cázarez Bush, G. Cocho y G. Martínez Mekler. 1998. “Primordial synthesis machines and the origin of the genetic code”, en Physica A, vol. 257, pp. 119-127.
Martínez Mekler, G., M. Aldana, F. Cázarez Bush, R. García Pelayo y G. Cocho. 1999. “Primitive molecular machine scenario for the origin of the three base codon composition”, en Origins of Life and evolution of the Biosphere, vol. 29, pp. 203-214.
Ibarra Bracamontes, L. y V. Romero. 1997. “Stochastic ratchets with colored thermal noise”, en Physical Review E, vol. 56, p. 4048.
Bier, M. 1997. “Brownian ratchets in physics and biology”, en Contemporary Physics, vol. 38, núm. 6, pp. 371-379.
|
||
Laura Viana Castrillón estudió la licenciatura en Física en la Facultad de Ciencias de la unam y el doctorado en la Universidad de Mánchester, Inglaterra. Actualmente trabaja como investigadora en el Centro de Ciencias de la Materia Condensada de la unam, en la Cd. de Ensenada B.C. y es coordinadora del Posgrado en Física de Materiales que ofrece la unam conjuntamente con el cisese.
Carlos Villarreal Luján estudió la licenciatura en Física, la maestría y el doctorado en Ciencias en la Facultad de Ciencias de la unam, y el posdoctorado en Física de Altas Energías en Duke University, Carolina del Norte. Actualmente es investigador del Instituto de Física y profesor de la Facultad de Ciencias de la unam.
_______________________________________________________________
como citar este artículo → Viana Castrillón, Laura y Villareal Luján, Carlos. (2006). Matracas estocásticas, ¿una máquina de movimiento perpetuo? Ciencias 82, abril-junio, 30-37. [En línea]
|
||
←Regresar al índice ⁄artículo siguiente→ |