revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R17Articulo4   menu2
PDF→                                                                   
   
   
Alain Jaubert
     
               
               

El museo de Historia Natural de Nueva York, imponente y elaborada construcción que bordea Central Park, seguramente no es la obra mas kistch de la ciudad. Sus extraños dioramas son celebres por las escenificaciones de animales disecados en medio de decoraciones hiperrealistas que recrean bosques, sabanas y desiertos del planeta. La visita culmina en la parte correspondiente al desván que cuenta con una magnífica colección de dinosaurios y anquilosaurios, los que despliegan impúdicamente sus negros esqueletos fósiles. Los más modestos se encuentran en vitrinas, los gigantes al aire libre. El tiranosaurio, el más grande de los carnívoros que han vivido en nuestro planeta, se yergue como estrella en este escenario: cola espesa, tronco masivo de varias toneladas, colosales miembros inferiores que contrastan con sus pequeñas y ridículas patas superiores; una cabeza que se menea a siete u ocho metros del suelo, cuyo rictus se encuentra ornado por puntiagudos dientes de quince centímetros de largo.        

Un domingo de 1945, un padre que regresa de la guerra lleva a su hijo al museo: el pequeño se va de espaldas ante el inimaginable esqueleto. Alguien en la sala estornuda; el niño se espanta terriblemente, pero la bestia se mantiene inmóvil. Al salir del museo el niño toma una decisión: será paleontólogo.

Stephen Jay Gould nació en 1941 en una familia de emigrantes instalada en Nueva York. Broma familiar: le ponen por segundo nombre Jay, haciendo alusión al magnate de los ferrocarriles Stephen Jay Gould, uno de los héroes de la conquista del Oeste. El padre de Stephen, un estenógrafo de la Suprema Corte del condado de Queens, es marxista y naturalista aficionado, inclinación, esta última, por la que estimula la vocación de su hijo. Los resultados: brillantes estudios en la Universidad de Colorado, Antioch College y Columbia University. Una tesis sobre caracoles fósiles en las Bermudas y un doctorado en Ciencias Naturales en Columbia, realizado en colaboración con el tan querido Museo de Historia Natural de Nueva York.

A la los treinta años, en 1971, Gould es nombrado profesor de Geología de la Universidad de Harvard, cerca de Boston. Hasta la fecha es profesor, al mismo tiempo, de Panteología, Biología e Historia de la Ciencia. Sobre los muros de su oficina se ven restos de inscripciones medio borradas: “Esponjas y protozoarios”, o bien “Esquema del reino animal”. Una antigua sala del museo, convertida por Gould en una buhardilla de sabio. Estantes de libreros y mesas que conforman todo un laberinto que obliga a dar varias vueltas antes de llegar hasta el escritorio del investigador. En los estantes, colecciones de conchas y filas de libros: Buffon, Darwin, Lyell, Wallace. Libros y revistas amontonados por todas partes. Carteles, anuncios de conferencias de Gould en diferentes ciudades de los Estados Unidos, un viejo cartel del Berliner Esnemble, caricaturas (la de David Levine entre otras). Un amontonamiento sin sentido de pandas de peluche; una lámpara de cristal traslúcido en forma de flamingo rosa. Un Diplodocus verde de plástico, un caracol de fantasía, simios de juguete, pequeños monstruos de ciencia-ficción. Sobre la mesa: un microscopio, un par de tenis, cajas de diapositivas, de galletas, café frío y una botella de champagne. En otra mesa, pilas de manuscritos y cajas llenas de conchas blancas. Fotografías: Gould y uno de sus hijos con Joe Di Maggio, Gould con el Papa. Si a esto le añadimos una media decena de sillones maltrechos y de sillas desvencijadas, la pila del correo cotidiano diseminado entre las pruebas de artículos y de libros por corregir; las cajas llenas con sus dos últimas obras, un traje de beisbol, una mochila lista para cualquier aparato, los montones de casetes de Bach, Mozart y Purcell, todo esto conforma una idea adecuada del universo un tanto insólito en que se mueve Gould. Pero este aparente desorden oculta un gran rigor: las jornadas del profesor son estrictamente contabilizadas, y en una oficina vecina, su secretaria filtra veinte veces por hora las llamadas precedentes del mundo entero.

 
Stephen Jay Gould en el Museo de Zoología Comparada en Harvard. 

“Yo pienso —dice Gould— , que la fama no es tan buena. Tal vez sea buena para la difusión de las ideas científicas. Para mi, la vida se ha vuelto muy difícil, he perdido el anonimato, me cuesta conservar mi tranquilidad y ya no puedo pasear por la calle sin ser abordado por gentes que desean un autógrafo o que quieren exponerme una idea revolucionaria. Ahora bien, antes que cualquier otra cosa, yo soy un científico y obviamente no puedo otorgar a cada persona de los cientos que me lo solicitan, aunque sean los dos o tres minutes que le serían necesarios”.

Las causas de esta celebridad son múltiples. Primero la publicación, en 1972, de un artículo que sacudió la teoría de la evolución y suscitó debates que todavía duran. Después, la publicación en volúmenes de los artículos que Gould entrega cada mes a la revista Natural History; han aparecido cinco libros y varios de ellos han sido premiados. Finalmente, sus numerosas polémicas y tomas de posición que han llamado la atención de la prensa: testigo ante el Congreso acerca del “invierno nuclear”, conferencias en Sudáfrica sobre la historia del racismo, testigo durante el proceso que oponía a los “evolucionistas” y “creacionistas”. Por supuesto que tal actividad, así como los ecos que suscita, han desencadenado una desconfianza (digamos más bien, envidia) entre muchos de sus colegas.

“En un principie trabajé con caracoles —dice Gould—, porque yo quería hacer un estudio estadístico de la evolución. Obviamente no podía hacer este estudio con mi tiranosaurio, ya que no existen más que dos esqueletos completos en el mundo. Pero hay millones de caracoles y recolectando algunos miles de ejemplares se pueden hacer estudios estadísticos serios. Junto con David Woodruff mostramos que las seiscientas especies de Cerion, el caracol terrestre de las Bahamas, censadas cuidadosamente por los biólogos, se podían restringir a algunas solamente, cuya distribución es coherente y ordenada. Nosotros mostramos que un complejo conjunto de caracteres, podía evolucionar independientemente más de una vez y en forma casi igual”.       

“La ‘teoría de los equilibrios puntados’ que propusimos Niles Eldredge, paleontólogo del Museo de Historia Natural de Nueva York, y yo, afirma lo contrario a lo establecido por la ‘línea dura’ del darwinismo, tendencia que reina en la biología contemporánea desde hace cuarenta años”.         

“Según esta línea, se producirían pequeñas variaciones genéticas al azar en las poblaciones locales de determinadas especies. Progresivamente, durante largos periodos, la selección natural eliminaría a los organismos menos adaptados al medio y conservaría aquellos que están mejor adaptados y que terminaran por predominar. Según esta posición, que debo decir que jamás fue la del mismo Darwin, toda transformación importante debe ser interpretada como una adaptación producida por la selección natural, o si se quiere, por la sobrevivencia de la especie mejor adaptarla. Todos los cambios han sido graduales y existirían todas las etapas intermedias entre ancestros y descendientes”.     

“Sin embargo cuando se observan los archivos, es decir, los fósiles, nos damos cuenta de que jamás hay formas intermedias, que la mayoría de las especies tienen un origen brusco y que después son estables durante cinco o diez millones de años”.    

“También observamos que se producen un mayor número de variaciones genéticas del que se pensaba. Ciertos genes pueden existir bajo numerosas formas diferentes y muchas mutaciones no modifican verdaderamente el comportamiento o la forma de los organismos, de tal suerte que estas no cambian las relaciones de tales organismos con el medio, ni su aptitud para sobrevivir. La evolución resulta ser mucho mas aleatoria de lo que pensamos. Finalmente, nosotros postulamos que las nuevas especies aparecen rápidamente entre las pequeñas poblaciones súbitamente aisladas. Rápidamente quiere decir de cinco a diez mil años, lo cual no representa más que un breve instante en la escala del tiempo geológico”.

Stephen Jay Gould ha popularizado misterios evolutivos, tales como los amores de la mantis religiosa o los del pejesapo, los desmesurados cuernos del alce de Irlanda, el florecimiento centenario del bambú, las migraciones de las tortugas marinas, las rayas de la cebra, y sobre todo, el pulgar del panda y el pico del flamingo rosa, los cuales dan el título a dos de sus libros.

“El pulgar del panda es la ilustración de un principio muy importante del darwinismo: en la forma de los organismos se encuentran signos de su historia, y esta historia esta reflejada en las imperfecciones. Por su origen, el panda es carnívoro, desciende del oso; pero actualmente es herbívoro y solo come bambú. Para arrancar las hojas, el panda pasa las ramas del bambú entre el pulgar y el resto de la mano. Sin embargo, el verdadero pulgar de los carnívoros estaba ligado a los otros dedos y carecía de esta posibilidad. ¿Qué es entonces el pulgar del panda? Si examinamos la anatomía de su pata, nos damos cuenta de que el verdadero pulgar existe a un lado de los otros dedos, y que lo que vemos como ‘pulgar’, es de hecho un hueso de la muñeca desviado: el sesamoideo radial, que es corto, carece de articulaciones y no funciona bien. Se trata de un bricolge de la evolución, por decirlo en términos de François Jacob”.

“El alce de Irlanda es un ciervo fósil que tenía cuernos de apariencia monstruosa, ya que algunos llegaban a medir hasta 3.60 m. de largo. Siempre se ha dicho que esos cuernos habían sido la causa de la extinción de esta especie; supuestamente estos animales habrían muerto por el estorbo que representaban sus apéndices, aplastados bajo su peso o atorados entre las ramas. Yo medí todos los animales que pude encontrar en los museos así como las colecciones de trofeos en los castillos, y constaté que mientras más grande era el tamaño del cuerpo, más grande era el de los cuernos. Contrariamente a la idea aceptada, la selección natural favoreció a los portadores de grandes cuernos. Yo pienso que los cuernos no servían para el combate, sino más bien para la seducción de hembras. Si el alce desapareció, es sin duda debido a las variaciones climáticas de la última glaciación y no a causa de sus apéndices”.

“También he escrito acerca del pico del flamingo rosa. El flamingo rosa come con la cabeza hacia abajo, moviendo su pico en el fango de los estanques. Su mandíbula inferior se ha transformado y se parece a la mandíbula inferior de otras aves. La superior, por el contrario, es el verdadero elemento dinámico. Este caso ilustra un principio darwiniano, según el cual los cambios de comportamiento deben ser los primeros y proceder a los cambios de morfología. Es un principio constatado inicialmente por Lamarck, pero Lamarck se equivocó en el mecanismo. Él pensaba que el medio ejercía una influencia directa sobre la herencia, cuando es la selección lo que constituye el mecanismo. La parte inferior del pico del flamingo evolucionó como la parte superior del pico de las otras aves”.     

Pero a Gould, que no carece de malicia, le gusta aplicar los modelos de la evolución a otros sujetos. Se ha interesado, por ejemplo, en la evolución gráfica de Bibendum (el hombre gordo de la publicidad de las llantas Michelin), en la de Mickey Mouse, el personaje de Walt Disney, el cual le ha inspirado bellas reflexiones impresas en El pulgar del panda.        

“Si, me divertí al señalar la evolución de Mickey, porque es un gran ícono de la cultura americana y en su metamorfosis se pueden observar rasgos sorprendentes. Disney inventó a Mickey en 1928. En esa época era prácticamente una rata: cabeza y ojos muy pequeños y hocico muy largo. Era bastante malvado. Poco a poco, Mickey se volvió muy popular y bueno; sus ojos y su cabeza se hicieron más grandes, la nariz más corta. Yo me di cuenta que, de hecho, Mickey se parecía cada ves más a un bebe. Nosotros tenemos un afecto especial por los animales que se parecen a los bebes y nos atraen las formas juveniles. La evolución hacia formas juveniles es un proceso al que llamamos neotenia. Nuestros ancestros tenían formas más cercanas a las de los grandes monos adultos, y se puede pensar que a lo largo de la evolución el desarrollo del hombre se ha vuelto más lento, por lo que su apariencia se ha hecho más juvenil. El hombre se encuentra más cerca del bebé mono. Es por esto que la evolución de Mickey hacia una forma juvenil, es un poco la evolución del hombre en general”.     

El origen, o más bien, los orígenes de la vida, serán sin duda siempre enigmáticos. Sin embargo el tema no deja de obsesionar a un paleontólogo como Gould.       

“La historia de la vida es sumamente apasionante. Las evidencias paleontológicas nos muestran que lo que llamamos la vida, apareció hace al menos tres mil quinientos millones de años. La Tierra no tiene más que cuatro mil quinientos millones de años. Por lo tanto, el origen de la vida se encuentra muy cercano al de la Tierra. Durante casi tres mil millones de años la vida se mantuvo en un estado muy simple; ésta consistía solamente en organismos unicelulares. Hace 600 millones de años se produjo una explosión. Hay que tomar en cuenta que para un geólogo una explosión dura uno o dos millones de años, lapso muy corto comparado con la duración de la Tierra. En un breve periodo la vida multicelular hizo su aparición y de inmediato se diversificó muy rápidamente. Esto constituye un gran misterio. Quizá la evolución de los seres multicelulares fue más rápida”.       

A propósito de los famosos dinosaurios, que son el origen de su vocación, ¿cómo fue que desaparecieron?  

“Los dinosaurios son el centro de atracción en la actualidad. Por cierto, ¡lo tienen bien merecido! Ellos desaparecieron muy rápidamente, hace 65 millones de años, durante el Cretácico, después de 100 millones de años de dominar la Tierra. Con ellos dominaban también el plancton marino y las amenitas. Se han propuesto las hipótesis más disparatadas: pequeños roedores que se comían los huevos de dinosaurio; excesivo calentamiento de los testículos de esas grandes bestias; absorción de plantas alucinógenas hasta alcanzar una sobredosis; impacto de un cometa que desató una gigantesca nube de polvo y que oscureció el cielo, por lo que numerosas especies murieron de frío. Yo me inclino más bien por esta última hipótesis”.

Teoría que Gould retoma en uno de sus artículos mensuales que aparecen en Natural History, un trabajo que él lleva a cabo con paciencia desde hace años y que le permite difundir algunas hipótesis, refutar otras, recordar tal o cual página poco gloriosa de la historia de las ciencias o regresar a la inmensa y abundante obra de Darwin.  

“En francés ustedes dicen vulgarizar, nosotros decimos más bien popularizar. Pero vulgarizar también quiere decir hacer más vulgar. Yo se que en francés el término es más respetable de lo que parece a los ojos de los estadounidenses. Los franceses tienen una larga tradición en este campo. Pienso en Fabre, quien ha escrito con gran belleza acerca de los insectos, o en Rostand, quien ha tratado toda clase de temas de biología”.   

“Dentro de la tradición europea se podría llegar hasta Galileo, quien escribió sus grandes obras en italiano y no en latín, en forma de diálogos muy vivos, que toda la gente un poco letrada podía leer fácilmente. En los Estados Unidos los científicos son poco dados a la divulgación; tienen miedo a la simplificación y a la deformación o a ser absorbidos por la corriente del periodismo. La mayoría de los divulgadores tratan siempre de hacer la ciencia más fácil, yo no. Jamás busco reducir los conceptos. Deje las ideas en toda su complejidad, pero hago que los ejemplos, las demostraciones, las explicaciones, sean perfectamente accesibles. Para mi la ciencia no es diferente de otras actividades humanas. La ciencia es un hecho cultural, y al respecto, es mucho mejor que nos deshagamos de los mitos. Es por ello que en mis ensayos, en mis artículos, hay muchas criticas a científicos, tanto del pasado como del presente”.  

“En primer lugar, hay que cuidarse de tener modelos que pertenecen estrictamente a la ciencia. Por ejemplo, hay que distinguir entre la evolución biológica y la evolución social. En la evolución biológica los linajes separados jamás se vuelven a juntar, mientras que en la evolución cultural las uniones son el motor principal. La evolución social tiene un aire lamarckiano, ya que lo que adquirimos a lo largo de nuestra vida lo podemos transmitir, enseñárselo a nuestros hijos; lo cual no sucede en la evolución biológica”. 

Pero las desviaciones de la ciencia no son solamente algunas oscuras especulaciones metafísicas esparcidas a lo largo de la caótica historia. Han existido abusos monstruosos, locas deducciones, sanguinarias utopías sancionadas por teorías científicas, que proclaman ser la verdad última.  

“En mi libro La falsa medida del hombre trate acerca de las diferentes formas de racismo científico. Por ejemplo, durante el siglo XIX se intentó medir la inteligencia por medio del tamaño del cráneo; en el siglo XX por medio de tests, es la misma historia solo que con otro modelo. No existe base científica para establecer diferencias raciales de este tipo.    

Más aún, no hay un algo unitario que se pueda llamar ‘inteligencia’. Pienso que todos los estudios —los de Broca en Francia, los de Lombroso en Italia, y los de tantos otros en Inglaterra o en Estados Unidos—, no eran fraudes deliberados, sino que los estudios eran llevados a cabo con prejuicios tan fuertes, que lo que se deseaba encontrar se encontraba. Los tests de nuestra época no son la medida de una entidad biológica. Éstos no hacen más que reflejar la habilidad cultural y las diferencias de calidad entre diferentes colegios”.   

Las polémicas acerca del CI (Coeficiente Intelectual), la herencia de la inteligencia y su división social, continuarán seguramente todavía por largo tiempo. Mientras tanto, algunas ideologías más sutiles han aparecido dentro de la investigación científica, cuyas conclusiones no son meaos inquietantes. Gould ha tenido la oportunidad, en varias ocasiones, de reaccionar a las teorías de los “sociobiólogos”.   

“La sociobiología es una teoría ultradarwiniana. Según ella, todos los aspectos del comportamiento humano son adaptaciones biológicas, desde la perspectiva de una evolución darwiniana, concebida como una lucha de la especie por el éxito de la reproducción. Son nuestros genes los que dirigirían el juego, de donde se desprende la agresión, las rivalidades, la lucha sexual. Yo piense que la flexibilidad del comportamiento es tan grande en nuestra especie, que esos comportamientos que los sociobiológos se empecinan en interpretar como inducidos por la supervivencia de los genes, no son en verdad más que los múltiples aspectos culturales de las diferentes sociedades. El jefe de esta escuela, E. O. Wilson, es un famoso especialista en hormigas. Las hormigas son animales muy simples, cuyas acciones son determinadas genéticamente y que casi no tiene flexibilidad en su comportamiento. No se puede extrapolar esto al hombre, el cual tiene una gran diversidad de respuestas de acuerdo a la sociedad”.

Hurgar en los archivos, en los expedientes mal cerrados de la historia de las ciencias, trae a veces sorpresas. Gould ha consagrado varios artículos a un celebre fraude: el hombre de Piltdown. Un cráneo de hombre con los dientes limados, al cual le fue añadida una quijada de gorila, fue teñido con bicromato y depositado en una mina de arena en Inglaterra. Su descubrimiento causó sensación en la víspera de la Primera Guerra Mundial, periodo de intensa rivalidad entre Francia e Inglaterra. El hombre británico de Piltdown, sacaba del escenario a les esqueletos franceses descubiertos en abundancia en diversos sitios famosos. Por medio de un cuidadoso análisis de la correspondencia entre los investigadores, así como de diversos indicios, Gould llegó a sospechar de Theillard de Chardin, el más celebre de los jesuitas después de Ignacio de Loyola.

“Theillard se encontraba en Piltdown. Era estudiante en el colegio de jesuitas que no estaba lejos. Hizo excavaciones con Dawson. No creo que él mismo haya hecho la superchería, pero una gran cantidad de indicios parece mostrar que él fue cómplice. Quizá se trataba de mitificar a Arthur Smith Woodward, curador del departamento de paleontología del Museo Británico, a quien el cráneo fue llevado primero. Theillard tuvo que ir a Francia y después fue movilizado como camillero. Pasaron los años de la guerra. En ese tiempo murió Dawson y el cráneo de Piltdown fue tomado en serio durante cuarenta años por muchas personas. Aunque hay que reconocer que algunos nunca quisieron creer en él. El mismo Theillard, posteriormente, casi no volvió a mencionarlo. Quizás participé en una broma inocente y después, al convertirse en un renombrado paleontólogo, no se atrevió a tocar el punto”.  

Los artículos que Gould dedicó a este asunto causaron fuertes respuestas. De otra dimensión es la polémica con los “creacionistas”. En 1925 un profesor de Tennessee, John Scopes, fue llevado ante el tribunal por haber enseñado la teoría de la evolución. El “proceso del mono”, como fue llamado, terminó con la condena del indecente profesor. Recientemente los “creacionistas” reatacaron en varios estados del Sur, exigiendo que en las escuelas fuesen enseñadas las verdades bíblicas —es decir, que el mundo fue creado por Dios en seis días. Incluso el gobernador de Arkansas firmó un acta de “estricta neutralidad entre las dos concepciones”. El estado de Luisiana lo siguió y una campaña del mismo tipo tuvo lugar en California. Gould, quien había atacado a los creacionistas en un artículo que provocó mucho ruido, publicado en Discovery (mayo de 1981), fue uno de los testigos estelares del proceso de Little Rock, Arkansas, en diciembre de 1981. El juicio final reconoció que el creacionismo era una religión y no una ciencia.  

“Los movimientos creacionistas son muy fuertes en Estados Unidos, y pienso que en Francia no pueden comprender esto”.     

En Estados Unidos existe una pluralidad de religiones. Los fundamentalistas piensan que todas las palabras de la Biblia son estrictamente verdaderas. Eva salió de la costilla de Adán. El mundo tiene seis mil años. Dios hizo el mundo en seis días, y así. Las iglesias fundamentalistas tienen un poder inmenso. Hacen enormes esfuerzos por imponer sus puntos de vista y por tener una legislación que haga que el creacionismo sea enseñado en la misma proporción que la evolución”.  

“No se trata de un debate intelectual, no es más que un problema político. Nosotros logramos convencer en Arkansas, y finalmente, el año pasado, la Suprema Corte de los Estados Unidos decidió cerrar un debate iniciado en la década de los veintes con el proceso Scopes, declarando que la enseñanza del creacionismo en los cursos de ciencias, era contrario a la constitución americana, la que afirma la neta separación entre Iglesia y Estado”.

Un día, para justificar la diversidad de sus crónicas en Natural History, Gould declaro: “Siempre tanto, por medio de leyes generales, las pequeñas cosas de la vida”.

Su método, que le permite ligar la más profunda investigación con el periodismo, la teoría con las cosas de la vida cotidiana, el pasado con las especulaciones sobre el futuro inmediato, lo privado con lo universal, ha hecho de él un hombre que crea opinión. Uno siempre espera que él tome posición respecto a todo; jamás decepciona. De la misma forma, la ciencia no se encuentra separada de otros —campos de la cultura: Shakespeare, Joyce, Dante, se ven asociados a las sabias disgresiones de Gould. Y la actualidad más terrible es siempre un campo de exploración fecunda. Acerca del SIDA dice:

“El desarrollo de un microorganismo es una cosa natural. No hay ningún mensaje en su extensión. La ciencia nos ha enseñado que el SIDA actúa de acuerdo a un mecanismo que nosotros podemos descubrir”.  

Afectado en el intestino por un cáncer particularmente agresivo, Gould peleó y ganó. Es lo que aconseja hacer con el SIDA:   

“La victoria no esta determinada por ningún principio de progreso, eslogan o tecnología, por lo que debemos pelear a muerte y ser vigilantes. No hay mensaje alguno, solo mecanismo”.    

Todas estas luchas, estas investigaciones podrían ser vistas, a fin de cuentas, como una viva ilustración del darwinismo.

“No creo que Darwin será refutado. Encontraremos una mejor teoría que será un darwinismo más profundo, como Einstein engloba hoy a Newton. Pero el fondo, la idea central del darwinismo, es uno de los grandes motores de la ciencia. Mientras tanto, yo creo que hay que continuar enseñándolo”.

 articulos
 
     
Referencias bibliográficas

Entrevista aparecida en la resista LIRE. No. 151, 1989. Traducción Cesar Carrillo T.



     
       
____________________________________________________________
     

Alain Jaubert

como citar este artículo

     
R17Articulo3   menu2
PDF→                                                                   
   
   
       
               
               

INTRODUCCION

A unos cuantos kilómetros de Ciudad Guzmán, por la carretera a Manzanillo, se puede observar el volcán mexicano que ha registrado el mayor número de erupciones por siglo: el Colima. El magma arrojado durante las erupciones se ha depositado en capas sucesivas, que en conjunto tienen un espesor de varios kilómetros. El volcán de Colima arroja al medio materiales con un alto contenido de silicio y sustancias volátiles; estas últimas producen las explosiones que alguna vez han observado los habitantes de la zona.   

El magma y las explosiones del volcán de Colima son una parte visible de una actividad geológica que abarca a vastas regiones de nuestro país. En otra región de México —alejada cientos de kilómetros del estado de Colima— se dio otro evento volcánico de gran importancia: el 28 de marzo de 1982 el volcán Chichón inició una violenta erupción, durante la cual se arrojaron al medio alrededor de 300 millones de metros cúbicos de cenizas. Una de las consecuencias de esta erupción fue la formación de nubes de cenizas, que cubrieron durante varios días los pueblos y ciudades aledañas.    

México es un país montañoso, las sierras bordean al país por el oriente y por el occidente e inclusive algunas llegan a cruzarlo. Los volcanes forman parte del paisaje en varias regiones del país. Por ejemplo, en el extremo norte de la península de Baja California se localiza el volcán Cerro Prieto, que ya se ha convertido en el símbolo de la utilización de la energía geotérmica en México. Al sur, pero en la misma península se encuentra el volcán Tres vírgenes, que tiene en su haber varias erupciones.   

En el centro del país encontramos un vasto conglomerado: de aproximadamente tres mil volcanes, que se conoce como eje neovolcánico mexicano y que cruza del oriente al occidente, desde Nayarit hasta el estado de Veracruz. En este conjunto se agrupan entre otros muchos el Ceboruco en Nayarit, el Paricutín en Michoacán, el Xitle en el D. F. y el Nevado de Toluca en el Estado de México.   

En el sureste también hay actividad volcánica, pero la misma está ligada a la que hay en Centroamérica. Justo en la frontera con Guatemala hay un volcán con actividad reciente: el Tacaná. Mención aparte merece el Chichón, cuyo origen todavía no esta bien determinado. Es un volcán aparentemente aislado de las cadenas mexicana y centroamericana desde el punto de vista de su actividad reciente y es posible que sea una especie de eslabón entre ambas.  

En el océano Pacífico abundan los archipiélagos con actividad volcánica, tanto en la parte que corresponde a Asia y Oceanía, como del lado americano. Menciónese a manera de ejemplo las islas Kuriles, las islas Aleutianas, el archipiélago de Tonga en la Polinesia y en mucho menor escala las Islas Revillagigedo pertenecientes a México.

VULCANISMO, ELEMENTOS RADIACTIVOS Y TECTONICA DE PLACAS

Durante los eventos volcánicas se libera tanta energía térmica, como energía mecánica. Cabría preguntarse: ¿de donde proviene esa energía?   

La parte externa de la Tierra conocida usualmente como litosfera no es una estructura monolítica, esta constituida por bloques (o placas) que se desplazan unos con respecto a los demás. Inclusive existe la hipótesis de que en el pasado geológico los continentes americano, europeo y africano estaban unidos. En apoyo a esta hipótesis se argumenta que los contornos de dichos continentes tienen una sorprendente concordancia. La actual separación se debería al movimiento de las placas.     

El movimiento de las placas esta íntimamente relacionado con la existencia de materiales radiactivos en el interior de la Tierra. En adelante veremos por qué. La excavación de pozos y minas ha revelado que la temperatura aumenta con la profundidad, primero a razón media de 20-30 grados por kilómetro y luego más lentamente. Dicho fenómeno se debe a la existencia de elementos radiactivos de larga vida como el uranio y el potasio 40. La Tierra mantiene elementos radioactivos a nivel de trazas, es decir, de cantidades del orden de partes por millón o fracciones de partes por millón. Sin embargo, cuando se considera todo el volumen terrestre la cantidad de material radioactivo es muy importante; su desintegración es lo que ha proporcionado calor al interior del planeta desde sus edades tempranas.      

El calor generado por la desintegración radiactiva no se puede transmitir por difusión, ya que la conductividad térmica del medio es muy baja. A profundidades del orden de 100 kilómetros la temperatura es lo suficientemente alta para producir un cambio en las propiedades mecánicas del material, que entonces se vuelve lo suficientemente dúctil como para comenzar una convección de estado sólido (la convección es el movimiento de masas del interior de la Tierra inducido por la diferencia de densidades). El material no se funde, sin embargo, las fuerzas de flotación generadas por las altas temperaturas son lo suficientemente importantes para que en periodos de tiempo geológico el material pueda fluir.   

Los movimientos de convección en el interior de la Tierra son los que producen el crecimiento, el desplazamiento y la subducción de las placas de la corteza terrestre. Ya se ha dicho que la actividad volcánica y los procesos tectónicos toman su energía del calor desprendido por la desintegración de ice: materiales radiogénicos, fundamentalmente el torio, el uranio y el potasio. La vida media de dichos elementos es del orden de la edad de la Tierra, a saber: para el Uranio-238 se estima una vida media de 4000 millones de años, mientras que para el torio se calcula una vida media de 14000 millones de años. Cuando se formo la Tierra, hace unos 5000 millones de años, la actividad radiogénica era aproximadamente dos veces más intensa que en la actualidad. Sería de esperarse que la mayor parte de los procesos convectivos fueran el doble de intensos, así como sus manifestaciones externas: la velocidad de desplazamiento de las placas y la actividad volcánica. Con el paso del tiempo la actividad geológica disminuye de una manera lenta, pero continua, a consecuencia del decaimiento de los elementos radiactivos.

El territorio nacional esta asentado sobre las placas norteamericana y del Pacífico. En la zona de contacto entre ambas placas hay una divergencia horizontal de una con respecto a la otra, lo que origina el vulcanismo y la sismicidad en Baja California y también en la Alta California (recuérdese el reciente sismo del 17 de octubre de 1989 en San Francisco, California). La zona de contacto no es perfectamente lineal sino que esta escalonada. Las partes que corresponden a los escalones se denominan zonas de rift y en ellas hay una gran tensión, que se libera parcialmente con las emanaciones geotérmicas y volcánicas. Usualmente el manto terrestre se encuentra en estado sólido. Cuando hay un movimiento de separación de placas en la superficie, los materiales que se encuentran por abajo tienden a subir, disminuyendo considerablemente su presión pero casi sin cambiar su temperatura. El material del manto terrestre asciende hasta prácticamente llegar a la superficie del planeta. En ese momento sufre cambios químicos menores y aflora como lava; muy similar a la lava basáltica del Pedregal de San Ángel, pero de mayor densidad, más rica en materiales ferromagnéticos y con un menor contenido relativo de silicatos.   

La placa norteamericana limita frente a las costas de México y Centroamérica con la placa de Cocos. La interacción entre ellas es diferente: una placa se sumerge debajo de la otra (fenómeno que se conoce como subducción). Los esfuerzos asociados a la subducción son capaces de fundir los materiales que se localizan en la superficie de contacto de las placas o incluso, a mayor profundidad entre la placa que subduce y el manto circundante.      

El magma del vulcanismo de subducción tiene probablemente un origen más profundo que el magma del vulcanismo tipo rift, ya que la disipación de calor por viscosidad puede producir la fusión de los materiales sólo a profundidades superiores a los 100 kms. Tanto la temperatura como la presión crecen con el incremento de la profundidad, de manera que entre los 150 y los 200 kilómetros los materiales se encuentran bastante cerca del punto de fusión, aunque usualmente no pasan al estado líquido. La fricción que se produce durante la subducción genera cantidades adicionales de calor y la elevación de la temperatura por encima del punto de fusión. Se forma entonces el material magmático, mismo que tiende a subir ya que su densidad es menor a la de las rocas circundantes. Este fenómeno es la base del vulcanismo de las regiones centrales de México. En comparación con la actividad volcánica en Baja California, el magma de los volcanes del centro de México tiene un origen más profundo. Luego, como la composición química del interior de la Tierra varía con la profundidad, geoquímicamente el magma es distinto para cada uno de los dos casos.

TIPOS DE ERUPCIONES

El volcán Stromboli con su actividad persistente desde la época de Homero, así como la actividad de otros volcanes como Vulcano, Vesubio, Mauna Loa, etc., han servido para hacer una clasificación de las erupciones de otros volcanes en base a las semejanzas; sin embargo, esta clasificación tiene la desventaja de ser meramente descriptiva. Una mejor manera de clasificar a dichos fenómenos es por la cantidad y las características del material arrojado. En líneas generales, la clasificación se puede hacer en base a dos parámetros: la energía térmica y la energía cinética liberadas durante la erupción. Por ejemplo, durante una erupción con gran cantidad de magma y sólo una pequeña porción de volátiles, se liberara mucha energía térmica y muy poca energía cinética. Recíprocamente, una erupción muy explosiva, en la que arroja material rico en volátiles, puede tener una componente más grande de energía cinética.       

Los materiales volátiles son fundamentalmente el bióxido de carbono y el vapor de agua. Cuando el magma llega cerca de la superficie estas sustancias se vaporizan muy rápidamente y forman burbujas, que crecen de tamaño y explotan, esto contribuye mucho a la energía cinética.

Algunas erupciones arrojan cantidades considerables de magma caliente, pero casi no hay explosiones. Éste es el caso típico de las Islas Hawai. En el otro extremo están las erupciones con un contenido relativamente menor de energía térmica y mayor de energía cinética. Como ejemplo se mencionan al Chichón, cuya erupción de 1982 fue muy explosiva. Cabe señalar que una erupción hawaiana puede producir más magma que el volumen de las cenizas arrojados por el Chichón; más de 1000 millones de metros cúbicos. Sin embargo, en este último caso la lava fluye formando ríos y sin explosividad.             

El Paricutín hizo erupción durante 9 años consecutivos y luego se extinguió. Una evolución similar tuve el Xitle al sur de la Ciudad de México hace unos 2500 años. Este volcán lanzo una cantidad de lava que cubrió la región que hoy se conoce como el Pedregal y luego se extinguió. Existen otros volcanes con las características del Xitle o el Paricutín y se pueden contabilizar por miles en el territorio nacional. Reciben el nombre de monogenéticos. Un volcán de este tipo nace, hace una erupción que puede durar un tiempo considerable, luego se apaga y ya no vuelve a activarse más. Ocurre frecuentemente que en la misma región nace otro volcán y es ese el que arroja nuevos materiales magmáticos.

Los volcanes que hacen erupción repetidamente se denominan poligenéticos. Los volcanes poligenéticos tienen una estructura de capas que se va formando con cada erupción. Dichos volcanes crecen hasta tener alturas muy grandes, como por ejemplo el Popocatépetl o el de Colima. En la península de Baja California y a unos cuantos kilómetros de Santa Rosalía se localiza el volcán Tres vírgenes que también forma parte de este grupo. También cabe mencionar al San Martín Tuxtla, que tuvo una erupción importante a fines del siglo XVIII; al Chichón con la erupción de 1982, entre otros.

VULCANISMO Y MEDIO AMBIENTE

El vulcanismo ha jugado un papel importante en la evolución de la Tierra. En épocas tempranas la atmosfera de nuestro planeta era diferente a la actual.

Las moléculas de los gases se movían a gran velocidad como consecuencia de la alta temperatura que reinaba (del orden de los 1000 grados centígrados) y esto permitía que escaparan fácilmente al espacio exterior.

La atmosfera primitiva se perdió definitivamente, pero la acción conjunta del vulcanismo y la disminución de la temperatura dieron origen a una nueva envoltura gaseosa de la Tierra. Las emanaciones volcánicas lanzaron una gran cantidad de vapor de agua y compuestos de carbón y oxígeno, a partir de los cuales se crearon los océanos y la atmosfera actual. Los gases que salieron a la superficie del planeta fueron principalmente bióxido de carbono y bióxido de azufre, siendo el primero un compuesto que propició el desarrollo de organismos vegetales. Eventualmente la interacción de los vegetales con el CO2 enriqueció lentamente a la atmosfera con moléculas de O2 hasta llegar al porcentaje actual.        

Aún en la actualidad el vulcanismo tiene efectos sobre la superficie de la Tierra y sobre la atmosfera. Por ejemplo, durante una erupción de baja explosividad, la lava fluye y se deposita sobre el área circundante. La región que es alcanzada por la lava queda inservible para ciertos fines, entre otros la agricultura; posiblemente todo lo que es el Pedregal fue un campo de cultivo hasta antes de la erupción del Xitle. Lo mismo se puede decir del área agrícola cubierta por la lava del Paricutín en Michoacán.

En las erupciones explosivas la lava se pulveriza antes de salir a la superficie y se emite como ceniza. La ceniza puede tener un alcance considerable y provocar cambios importantes en el ambiente, los que no siempre son negativos. Después de cierto tiempo las cenizas que flotan en el ambiente se depositan en el suelo, enriqueciéndolo con minerales y aumentando la producción agrícola.

Los cambios atmosféricos producidos por una erupción llegan a ser notables. Póngase como referencia al Chichón que durante la erupción de 1982 emitió una gran cantidad de bióxido de azufre y actualmente arroja ácido sulfhídrico a razón de varias toneladas por día. Lo último contribuye a la acidificación de la lluvia en la región.

OTRAS MANIFESTACIONES DEL VULCANISMO

Usualmente cuando se habla de actividad volcánica se piensa en las emanaciones de lava y cenizas. Sin embargo, existe una gama de otras manifestaciones volcánicas colaterales, como las agua termales y los geiseres —que por otra parte, no son del todo desconocidos.

A varios kilómetros de Ixmiquilpan, en el estado de Hidalgo, se encuentre enclavado en la sierra, el pueblo de Tolantongo en cuya jurisdicción hay un cerro, del cual surge a la superficie una corriente de agua caliente. Después de descender por las laderas escarpadas el agua forma un arroyo que corre hacia el este y despide a su paso vapor de agua, con lo que el ambiente se torna cálido. Es más quien pasa la noche a orillas del arroyo no necesita protegerse del frío.       

Ixtlán de los Hervores, en Michoacán, es otro sitio con características semejantes. Quien ha viajado de día de Zamora a Guadalajara ha podido observar en el trayecto un potente chorro de agua y vapor, que alcanza una altura de decenas de metros, pero ahí no termina todo: todas las fuentes de la zona son de agua a alta temperatura y los habitantes del área ¡deben enfriar el agua que consumen!

Los geiseres y los manantiales de aguas termales son manifestaciones volcánicas secundarias. El magma caliente que permanece en el interior de la Tierra transmite calor a sus alrededores, donde puede haber mantos acuíferos. Cuando esto sucede, el agua se calienta y eventualmente puede pasar de estado líquido a vapor. La formación de vapor está acompañada por un aumento considerable en la presión donde se encuentra el acuífero y cuando hay algún orificio hacia la superficie el vapor escapa dando lugar a las manifestaciones antes citadas.

INVESTIGACIONES SOBRE LA ACTIVIDAD VOLCANICA

La predicción de erupciones y en general el estudio del vulcanismo se realizan con muy diversos métodos. Uno de ellos es la gravimetría, una técnica geofísica que permite determinar la distribución de densidades en el subsuelo y que es muy utilizada en la prospección de materiales. Los materiales volcánicos tienen contrastes de densidad en relación a las rocas circundantes; cuando hay una intrusión de magma en el interior de un volcán se produce una ligera variación en el valor de la fuerza de gravedad, misma que se puede detectar si se hace una medida gravimétrica con suficiente precisión.

Los aparatos que miden cambios pequeños en el valor de la gravedad se conocen como gravímetros. Para dar una idea de su sensibilidad considérese que al alejarnos de la superficie terrestre disminuye el valor de la gravedad. Si nos alejamos de la superficie del planeta, también nos alejamos del centro de la Tierra. Entonces, por la ley del inverso cuadrado, la fuerza de gravedad disminuye con el aumento de la distancia. Pues bien, los gravímetros comerciales de la actualidad pueden detectar variaciones de la gravedad equivalentes a las que se producen cuando nos alejamos de la superficie terrestre 3 cm.

La investigación del vulcanismo también incluye el estudio de las emanaciones de sustancias radiactivas de corta vida, en particular el torón y el radón. Ambos son gases nobles y radiactivos, producto de la desintegración del uranio. Por ser nobles no interaccionan químicamente; luego, su movilidad en la corteza no depende de las características químicas de las rocas, sino sólo de sus propiedades físicas. Por lo tanto, las emanaciones de radón y torón permiten conocer las condiciones físicas en el interior de los volcanes, sin tomar en cuenta las características químicas. Por ejemplo, durante la erupción del Chichón se detectó un pico en la concentración del radón en el subsuelo a distancias hasta de 20 km del volcán. Además, la concentración de radón tuvo un lento decaimiento con el tiempo.    

Este fenómeno podría explicarse en parte por una característica del radón: su alta solubilidad en agua supercrítica. Pero ¿qué es el agua supercrítica? Nosotros conocemos al agua en sus tres fases: como hielo, como líquido y como vapor. Sin embargo a temperatura de varios cientos de grados las diferencias entre el estado líquido y el gaseoso desaparecen, de manera que ambas fases son indistinguibles. Cuando esto sucede decimos que el agua se encuentra en estado supercrítico. La abundancia del radón podría explicarse por la existencia de un volumen considerable de agua supercrítica en la cámara magmática.

La investigación del vulcanismo tiene una amplia gama de aplicaciones, entre las que destacan su aprovechamiento como fuente de energía (en el volcán Cerro Prieto, Baja California está instalada una planta generadora de electricidad) y la predicción de erupciones. Aplicaciones por demás interesantes y de una utilidad evidente.

 

MEDICIONES GRAVIMETRICAS

La ley de la gravitación universal establece que la fuerza de atracción gravitatoria entre dos cuerpos puntuales es directamente proporcional al producto de las masas e inversamente proporcional al cuadrado de la distancia entre ellas. Una de las consecuencias de dicha ley es que en un planeta completamente esférico y cuya masa esté distribuida de manera uniforme por todo el volumen (es decir, la densidad de la materia es constante), la aceleración producida por la fuerza de gravedad es la misma en todos los puntos de la superficie del planeta. Esta propiedad también ocurre en un planeta esférico cuya densidad de materia depende únicamente de la distancia a su centro. En otros casos la aceleración de la gravedad varía de un punto a otro sobre la superficie.

En nuestros cursos de física nos hemos enterado que la aceleración de la gravedad en la superficie de la Tierra es de 9.8 m/s2. Sin embargo, este valor varía de un sitio a otro por diversas causas. En primer lugar, la superficie de la Tierra no es esférica; una primera evidencia es la existencia de cadenas montañosas en l

 os continentes, pero se pueden dar más datos. Por ejemplo, la Ciudad de México se encuentra a 2240 metros sobre el nivel del mar, mientras que las zonas costeras están a escasos metros sobre el agua de los océanos. El caso extremo sería Holanda, país que tiene una parte considerable del territorio debajo del nivel del Océano Atlántico. Por otra parte, la distribución de la materia en el interior da 1a Tierra no es uniforme. Considérese, por ejemplo, una región dónde hay un yacimiento de petróleo. La densidad de esta sustancia es diferente a las de las rocas que comúnmente se encuentran a la misma profundidad que el yacimiento.

Tanto el hecho de que haya elevaciones y depresiones en la superficie del planeta, como que la distribución de la materia no sea uniforme producen ligeras diferencias del valor de le gravedad en la superficie de la Tierra. Estas variaciones de la gravedad tienen una importancia capital en las investigaciones geológicas y geofísicas.

Por ejemplo, las variaciones en el valor de la aceleración de la gravedad con respecto al valor en otros lugares cercanos revelan a menudo la existencia de yacimientos

 minerales. Además, si el valor de la gravedad cambia con el tiempo en un mismo sitio, eso puede ser un indicio de actividad volcánica. El magma tiene una densidad diferente e la densidad de las rocas circundantes, luego su ascenso produce ligeras variaciones en la gravedad.

Los aparatos que miden variaciones en el valor de la gravedad se pueden construir con ayuda de un péndulo y reciben el nombre de gravímetros. La cantidad que se mide en este caso sería el periodo de una oscilación del péndulo, misma que está relacionada entre otras cosas con la gravedad. Si se logra eliminar la influencia de otros factoras (por ejemplo el alargamiento o encogimiento del péndulo) entonces una variación en el periodo se deberá únicamente a cambios en el valor de la gravedad.

Los gravímetros actuales se aplican en la prospección de pozos petroleros, en la búsqueda de yacimientos minerales e inclusive en el estudio de los volcanes activos. La utilidad de los gravímetros es grande ya qua proporcionan conocimientos sobre el interior de la Tierra sin necesidad de hacer perforaciones (que por otra parte, no siempre son posibles de realizar).

 

TECTONICA DE PLACAS

¿Se ha fijado en los márgenes de los continentes americano, asiático y europeo? América tiene costas en el Océano Pacífico, mientras que África limita con el Océano Índico, pero lo que interesa son las márgenes con el Atlántico. ¿Ha notado la semejanza entre las costas de América del Sur y las de África? Los bordea del nordeste brasileño coinciden con los bordes de Guinea. Lo mismo se puede decir respecto a Norteamérica y el África Septentrional. Suena bastante plausible suponer que hace muchos millones de años había un solo continente —qua se conoce usualmente como Pangea— y que al paso del tiempo se fraccionó y sus partes se separaron hasta llegar a la configuración actual.

La teoría contemporánea del movimiento de los continentes (la tectónica de placas) surgió apenas en los años sesentas luego de que se tuvo conocimiento de la composición del fondo oceánico y de que se conocieron las propiedades mecánicas del material del manto. A principios del siglo XX se pensaba que los continentes flotaban sobre el manto y que los únicos movimientos de la envoltura exterior de la Tierra eran horizontales. Sin embargo, evidencias como el hundimiento de Holanda y el levantamiento

de los países nórdicos modificaron radicalmente las concepciones sobre el tema. En ese mismo sentido apunto el descubrimiento de regiones en el fondo de los océanos donde emerge y luego se dispersa material procedente del interior de la Tierra. Pero todo ascenso debe estar seguido de un hundimiento de material litosférico dentro del manto. Este fenómeno de descenso se he observado en varios sitios de la Tierra y se encuentra asociado a zonas de sismicidad. 

Le litosfera es le envoltura exterior de la Tierra y su anchura promedio es de 70 km. Usualmente al interior de la Tierra se le divide en tres partes: la corteza, una delgada capa con una anchura de unos 10 kilómetros debajo de los océanos y de varias decenas de kilómetros en las cadenas montañosas de los continentes. Debajo de la corteza y hasta una profundidad de 2900 kilómetros se encuentra el manto, una capa constituida fundamentalmente por sílice. Por abajo de los 2900 kilómetros y hasta el centro de la Tierra se extiende el núcleo, una región que se supone se encuentra en estado líquido y que tiene una densidad grande en comparación —por ejemplo— con el agua.

La evidencia de movimientos horizontales de los continentes y le existencia de movimientos verticales de materia a gran

escala han conducido a la certidumbre de que le litosfera se encuentre dividida en varias placas. Cuando dos placas contiguas tienen movimientos encontrados se produce el hundimiento de una debajo de la otra; eso es lo que sucede por ejemplo frente a las costas mexicanas en el Océano Pacífico. El hundimiento de una placa transcurre según un plano inclinado y durante ese proceso el rozamiento de las porciones de materia libera una gran cantidad de calor. También puede suceder que en el límite de dos placas una se deslice respecto a la otra, lo que puede observarse en California. La falla de San Andrés es un ejemplo a este respecto. Aquí también, el rozamiento entre placas libera calor. 

El calentamiento de los límites entre las places puede producir la fusión del material sólido. ¿Se imagina lo que esto significa? El magma es material a altas temperaturas e incluso en estado líquido. Pues bien, la interacción entre placas se convierte en un mecanismo para el surgimiento del volcanismo. Japón, Las Filipinas, la Península de Kamchatka, Colombia, México son zonas de vulcanismo, pero también se localizan en los límites de las placas. Ciertamente no todos los volcanes deben su actividad al desplazamiento de fragmentos de la litosfera, sin embargo la tectónica de placas juega un papel importante.

 articulos
 
 
     
Referencias bibliográficas

Adaptación de Gerardo Ruiz a una entrevista a Servando de la Cruz, Investigador del Instituto de Geofísica, UNAM.

     
       
____________________________________________________________
     

como citar este artículo

     
R17Articulo2   menu2 índice 17
siguiente
anterior
PDF→                                                                       
   
   
Montgomery Slatkin      
               
               

El objetivo general de la genética es entender el papel que las diferentes fuerzas tienen en la evolución de caracteres fenotípicos. Las principales fuerzas son la selección natural, la deriva génica, la mutación, la recombinación y el flujo génico. Recientemente, los biólogos moleculares han descubierto nuevas fuerzas de evolución génica tales como la transposición y la conversión génica. Sin embargo, aún no se sabe si estas fuerzas son importantes en la evolución de caracteres observables o no.

En esta ocasión voy a centrarme en el flujo génico como una fuerza evolutiva. Siempre que hay movimiento de genes de una parte del área de distribución de una especie a otra hay flujo génico. Un tipo de flujo génico opera cuando individuos de una población se mueven a otra. Este es el tipo de flujo génico que ocurre en una especie con poblaciones estables que persisten durante largos periodos de tiempo. Existen otros tipos de flujo génico que ocurren cuando se establecen poblaciones nuevas. En muchas especies, incluyendo malezas y especies parasitas, las poblaciones no persisten durante largos periodos de tiempo; por el contrario, hay una extinción constante de poblaciones y una colonización por nuevas poblaciones. El flujo génico puede ocurrir durante la colonización por nuevas poblaciones, porque los genes de una población que ha colonizado recientemente pueden ser una mezcla de los genes de otras dos poblaciones o más. Durante la expansión geográfica de una especie también hay flujo génico. Tanto la colonización como la expansión de los rangos de distribución de las especies, so motivo de estudio para los ecólogos, más que para los biólogos evolucionistas. Es por lo que estas dos formas de flujo génico son ignoradas ocasionalmente.

CONSECUENCIAS GENETICIAS DEL FLUJO GENICO

El flujo génico tiende a reducir las diferencias genéticas entre poblaciones locales. Qué tanto se reducen las diferencias génicas entre las poblaciones, depende de la fuerzas que están actuando para causar diferenciación entre las poblaciones locales. La selección natural que favorece la adaptación local en diferentes condiciones ambientales locales, va a tender a actuar en favor de alelos diferentes en un locus genético, si dichos alelos causan adaptaciones locales. Si no existe flujo génico, habrán diferentes alelos en diferentes localidades. J. B. S. Haldane fue el primero en preguntarse cuanto flujo génico era necesario para prevenir la evolución de adaptaciones locales. Este autor examina el siguiente ejemplo que ilustra el resultado principal: supongamos que en una determinada población un alelo de un locus particular tiene una adecuación de 1 1 s en relación a otro alelo, pero que en cada generación una fracción m de esta población es sustituida por inmigrantes de una población en la que el alelo desventajoso se encuentra fijo. Haldane demostró que la frecuencia en equilibrio del alelo desventajoso es aproximadamente 1 2 m / s si m , s y 0 si m . s. En otras palabras, solamente en los casos en que la tasa de inmigrantes sea menor a la intensidad de selección podrán haber adaptaciones locales. Se ha obtenido el mismo resultado con modelos más realistas y generales.

En la ausencia de flujo génico, la deriva génica conducirá también a diferencias locales en las frecuencias alélicas. En 1931, Sewall Wright propuso un modelo simple del balance entre el flujo génico y la deriva génica. Este autor asumió la existencia de un gran número de poblaciones locales, cada una de ellas con N individuos, y asumió que en cada generación una fracción m de individuos eran reemplazados por un conjunto de individuos, escogidos al azar del resto de las poblaciones. Este es el famoso “modelo de islas” para la estructura poblacional. Se le conoce con ese nombre, porque se puede considerar que cada población se encuentra en una isla de un gran archipiélago: Wright demostró que la varianza entre las poblaciones para la frecuencia de un alelo, σp2, es aproximadamente:

(Fórmula 17)

donde p es la frecuencia alélica promedio en la población. Si 4Nm es mucho mayor que uno, σp2 es pequeña, lo que implica que hay poca diferencia genética entre las poblaciones. Si 4Nm es mucho menor que uno, σp2 es casi p(1 - p), lo que implica que la frecuencia alélica en la población es uno o cero.    

Como hemos visto, el flujo génico interactúa de manera diferente con la selección natural que con la deriva génica. En el caso de la selección natural el resultado depende del cociente s / m, y en el caso de la deriva génica el resultado depende del producto Nm. Por esta diferencia, es imposible decir si el flujo génico es importante o no en una especie particular. La respuesta dependerá de que otras fuerzas evolutivas se consideran. Dada una tasa de inmigración m los alelos de loci fuertemente seleccionados a favor (valores altos de s), tendrán altas frecuencias, aún si las tasas de flujo génico son elevadas, mientras que en las mismas poblaciones, las frecuencias de alelos de loci neutrales o de aquellos con coeficiente de selección bajo, estarán determinadas primordialmente por el flujo génico de otras poblaciones.

EL FLUJO GENICO COMO FUERZA EVOLUTIVA

La dificultad teórica de decidir la importancia relativa del flujo génico en cada especie, no ha impedido que los biólogos evolucionistas argumenten acerca de la importancia global del flujo génico. Como en la mayoría de las áreas de la biología evolutiva, también en este tema existen dos opiniones extremas. La primera de ella es que el flujo génico es una fuerza importante en casi todas las especies. Ernest Mayr, en su libro Especies animales y Evolución (1963), sostiene que el flujo génico entre las poblaciones de una misma especie, provoca que éstas estén generalmente ligadas entre si y conformen una sola unidad evolutiva. Mayr argumentaba que la interrupción del flujo génico es el primer paso hacia la formación de especies distintas, lo que constituye la teoría de “especiación alopátrica”. En este sentido, Mayr continuaba la tradición de Darwin, quien enfatiza la importancia del aislamiento para la formación de nuevas variedades y de nuevas especies. En libros posteriores, Mayr ha cambiado de opinión, pero aún se pronuncia a favor del flujo génico.

La visión contraria sostiene que el flujo génico no es importante para determinar las frecuencias génicas de la mayoría de las poblaciones, en casi todas de las especies. En 1969 Paul Ehrlich y Peter Raven publicaron un artículo trascendente en Science, en el que se manifestaban en contra de lo que en aquel tiempo era la visión ortodoxa de Mayr. Ehrlich y Raven afirmaban que la mayoría de los trabajos de campo demostraban que era poco frecuente que los individuos se dispersaran distancias largas, demasiado raro como para que el flujo génico causado por la dispersión fuera importante. El ejemplo de la mariposa Euphydryas editha, que Ehrlich ha estudiado extensivamente, fue uno de los que utilizaron en su artículo. Ehrlich estudio varias poblaciones de esta mariposa y encontró que, aún cuando las mariposas tenían la capacidad de volar a grandes distancias, raramente se movían de una población a otra que se encontraba a solamente 100 m de distancia. Además, encontró que las épocas reproductivas eran distintas entre las poblaciones y esto impedía que las mariposas que lograban llegar a otras poblaciones se reprodujeran. Con base en estas observaciones Ehrlich concluyó que en esta especie, que se encuentra en gran parte del Suroeste de los Estados Unidos, el flujo génico no podría ser importante en lo absoluto.

La pregunta de qué tan importante es el flujo génico en las poblaciones naturales es interesante en sí misma. Es importante también para entender el papel potencial de otras fuerzas evolutivas. Si las poblaciones no están ligadas entre sí por flujo génico, entonces es necesario recurrir a explicaciones alternativas, para poder entender la similitud morfológica de poblaciones de la misma especie, en diferentes regiones geográficas. Si en efecto, el flujo génico no está operando en las poblaciones de la mariposa, tal como argumenta Ehrlich, entonces ¿que fuerzas están determinando que las mariposas de diferentes poblaciones sean tan parecidas? ¿Acaso la selección natural favorece el mismo fenotipo en diferentes localidades o existen “restricciones de desarrollo” que impiden el cambio morfológico bajo diferentes circunstancias?

METODOS PARA ESTIMAR EL FLUJO GENICO

Existen dos formas generales para estimar el flujo génico en poblaciones naturales: métodos indirectos y métodos directos. Los métodos directos implican observaciones detalladas de la especie. En algunas especies es posible observar el movimiento de adultos individuales o de semillas, o es posible marcar individuos y recapturarlos después de que ha ocurrido la dispersión. Ehrlich pudo marcar a los individuos y después encontrar la fracción de ellos que se había movido entre poblaciones. En otras especies es posible introducir algún alelo raro, como un carácter dominante que se expresa en un carácter claramente observable, como un color raro, y luego se puede seguir el movimiento de este alelo por la población. Técnicas moleculares modernas, tales como la secuenciación de ADN y las huellas genéticas, permiten la asignación de paternidad en algunas especies, y por lo tanto, permiten calcular las distancias de dispersión de la progenie.

Por otro lado, un método indirecto es aquel que utiliza observaciones de las frecuencias alélicas u otras características medibles de las especies para deducir qué cantidad de flujo génico debe haber ocurrido para producir los patrones espaciales observados. Los métodos indirectos dependen de modelos matemáticos que predicen qué patrones se observarían en las diferentes tasas de flujo génico. Wright introdujo uno de estos métodos basándose en su modelo de islas. Wright definió FST como la cantidad de consanguinidad causada por las diferencias en las frecuencia génicas  entre las poblaciones y encontró que en un solo locus:

(Fórmula 18)

donde, como en la fórmula anterior, p y sp2 son la media y la varianza de las frecuencias alélicas entre poblaciones. Como mencioné anteriormente, Wright había predicho el valor de σp2 en equilibrio para el modelo de islas, de tal manera que pudo predecir el valor de FST que se esperaría para un locus neutral:

(Fórmula 19)

Un método indirecto para estimar Nm, se puede derivar calculando FST para una especie a partir del promedio y la varianza de las frecuencias alélicas y después resolviendo esta ecuación para encontrar:

(Fórmula 20)

Hay que notar que este método no estima el producto de Nm. Por el momento no hay ningún método indirecto para calcular m por separado.

El procedimiento para utilizar este método es simple. Un estudio de campo para una especie nos proporciona una tabla de frecuencia alélicas para varios loci, generalmente estudiados por medio de electroforesis Después se estima un valor de FST con el cual se pueda estimar Nm. Hay diferentes formas de estimar FST a partir de este tipo de tablas, pero generalmente todos los estimados deben dar valores muy similares de Nm. Los dos estadísticos utilizados más comúnmente son el estadístico Gst de Nei y el estadístico de Weir y Cockerham.

Yo he desarrollado otro método indirecto que se basa en las frecuencias de alelos raros. Tiene propiedades muy similares al FST de Wright, y por lo tanto, los voy a analizar conjuntamente. Para que estos métodos sean precisos deben proporcionar estimaciones de Nm también precisas para diversas condiciones. Las poblaciones hacen caso omiso de las suposiciones de los matemáticos y por lo tanto no se ajustan a los modelos idealizados que se proponen: no se encuentran en islas que permitan el flujo génico a tasas iguales entre todos los pares de islas; no son todas del mismo tamaño ni permanecen siempre del mismo tamaño. Más aún, es muy poco probable que todos aquellos loci que se puedan muestrear sean completamente neutrales. Para que cualquier método indirecto proporcione estimaciones precisas de Nm no debe ser demasiado sensible a desviaciones de los supuestos en los cuales esta basado.

METODOS INDIRECTOS DE Nm

En los últimos años me he dedicado a investigar si es posible obtener estimaciones precisas de Nm a partir de valores de FST y de los alelos raros. Mi enfoque para resolver este problema se basa en el uso de simulaciones de flujo génico, deriva génica, mutaciones y selección natural. Utilizo estos modelos de simulación para derivar datos hipotéticos, a los cuales se les pueden aplicar diferentes métodos indirectos de estimación de flujo génico. De esta forma puedo evaluar la validez de los diferentes métodos, porque conozco el tamaño real de las poblaciones y las tasas de migración que han generado las frecuencias alélicas. No voy a describir todo este trabajo con detalle, pero voy a presentar algunos de los resultados que he obtenido.      

La primera pregunta que me hice es si estos métodos son precisos cuando las poblaciones satisfacen las suposiciones a partir de las cuales fueron derivados. Simulé poblaciones asumiendo una estructura de islas en la que cada población tenía N individuos. Asumí que en cada generación una fracción m de cada población era sustituida por individuos escogidos al azar del resto de las poblaciones. En cada generación, cada gene tenía una probabilidad m de mutar. También partí de que todos los alelos eran neutrales. Posteriormente asumí que 25 individuos se escogían de 10 de las poblaciones escogidas al azar y que se les aplicaban diferentes métodos indirectos para estimar Nm. Estos tamaños de muestra son los que generalmente se utilizaban en estudios de campo.     

Se muestran algunos resultados en la Tabla 1. En esta tabla se han utilizado tres métodos diferentes. Utilicé dos métodos para estimar FST, la Gst de Neri y Weir y la u de Cockerham, y utilicé mi método que usa las frecuencias de los alelos que se encuentran sólo en una de las poblaciones que se muestrean, p(1). Si el valor de Nm está cerca de uno, cualquiera de estos métodos proporciona estimaciones precisas de Nm. Para valores de Nm muy pequeños, los tres métodos sobreestiman a Nm por un factor de 2. Para valores muy grandes de Nm mi método y el de Gst tienden a subestimar un poco a Nm, mientras que a u lo sobreestima mucho.   

Estos resultados muestran que el uso de estos métodos indirectos presenta problemas estadísticos no anticipados, pero funciona bien para parámetros de mucho interés. Indican de manera bastante precisa si el flujo génico es más fuerte o más débil que la deriva génica, aunque la precisión disminuye a medida que la diferencia en la magnitud de las fuerzas se hace más grande.

La siguiente pregunta es si los estimadores indirectos se vuelven menos precisos cuando la selección natural actúa sobre estos loci. Para responder a esta pregunta asumí en mis simulaciones, que cada heterocigoto tenía una adecuación relativa de 1 1 s con respecto a todos los homócigos. Se muestran algunos resultados en la Tabla 2. Si s es positiva, la selección tiene un efecto muy pequeño y si es negativa hay una tendencia a sobreestimar a Nm. Por lo tanto, si sólo se utiliza alguno de estos métodos, se pueden obtener estimaciones sesgadas de Nm, en el caso en que haya habido presiones de selección. Sin embargo, para que dicho sesgo fuese importante todos los loci muestreados deberían ser afectados por selección en la misma dirección; y esto es muy poco probable. Por la misma razón la selección que varía geográficamente y que produce clinas en la frecuencia alélica, es poco importante como fuente de sesgo.

La tercera pregunta se refiere al efecto de algún tipo de estructuración geográfica en la colección de poblaciones locales. El modelo de islas presenta el extremo de flujo génico a larga distancia. Los individuos nacidos en cada una de las poblaciones pueden llegar a otra cualquiera con la misma probabilidad. En el extremo contrario, supongamos que las poblaciones locales se encuentran en un arreglo bidimensional en que el flujo génico ocurre solamente entre las poblaciones adyacentes. Este es el modelo de migración de “stepping stone”, que representa el extremo inferior de las distancias de migración. Yo utilicé este modelo de migración en mis simulaciones para averiguar cómo las estimaciones de Nm dependen de los valores de Nm y de las localidades muestreadas. Asumí que se muestreaban 9 poblaciones de un arreglo cuadrado con k poblaciones entre las parejas de poblaciones más cercanas de las muestreadas.

La Figura 1 muestra cómo los estimados de Nm dependen de k para cada valor particular de Nm. Encontré que cuando k es grande, se obtienen estimaciones precisas, pero la Nm se tiende a sobreestimar cuando k es pequeña. La conclusión es que se tiende a sobreestimar a Nm cuando se consideran únicamente poblaciones cercanas.

METODOS DIRECTOS E INDIRECTOS   

Tanto los métodos directos para estimar el flujo génico, como los indirectos, tienen ventajas y desventajas. Los métodos directos tienen la ventaja de observar la dispersión y saber bajo qué condiciones ecológicas opera. Estos métodos tienen la desventaja de estar restringidos, tanto en tiempo, como en espacio. El área geográfica en la cual se puede observar la dispersión, es generalmente una fracción pequeña del rango de distribución de las especies. Los individuos que se dispersan fuera de dicha área no son considerados. Generalmente se estudia la dispersión únicamente para una o dos temporadas reproductivas, pero la dispersión a larga distancia puede ocurrir esporádicamente y no ser detectada por estudios de corto plazo. Además, los métodos directos únicamente se llevan a cabo durante épocas consideradas como típicas o normales para una especie. Sin embargo, pueden ocurrir dispersiones a larga distancia, únicamente durante épocas excepcionales, tales como huracanes, grandes tormentas e incendios.

Los métodos indirectos tienen la ventaja de que en ellos las estimaciones de flujo génico de las tasas promedio son para muchos años, no solamente para una o dos generaciones. Por lo tanto estiman la tasa promedio de dispersión y no la tasa durante un periodo particular. Tienen la desventaja de que dependen de modelos matemáticos que no se pueden probar independientemente. Yo creo que no es correcto decir que un tipo de método es mejor que otro. Cada uno de ellos proporciona diferente tipo de información, y la comparación de resultados al aplicar ambos métodos puede proporcionar alguna visión acerca de las especies que se estudian.

APLICACIONES

Voy a discutir brevemente un ejemplo de una especie a la cual se le aplicaron ambos métodos (directo e indirecto). Es la especie que ya he mencionado: la mariposa de Ehrlich. Sus estudios directos han mostrado convincentemente que la dispersión entre poblaciones es en realidad muy rara. Él también ha usado electroforesis para estimar las frecuencias alélicas de varios loci de la población de esta especie, por toda California. Yo he calculado el FST de estos datos y encontré que es aproximadamente 3.7. Este valor es muy grande para ser consistente con las observaciones de Ehrlich.   

La diferencia entre las conclusiones del método directo e indirecto es importante, yo pienso, ya que nos dice algo muy útil acerca de esta especie. En el momento actual no hay esencialmente flujo génico. Sin embargo, hubo flujo génico en un pasado muy cercano, ya que su efecto todavía esta presente. La explicación más probable de esto es que la especie ha pasado por un rango de expansión reciente durante algunos años, probablemente durante alguno de los periodos en los que el valle de California tenía una mayor precipitación.    

Algunas otras especies muestran diferencias entre los métodos directos e indirectos. Dobzhansky y Wright llevaron a cabo un estudie directo de dispersión con la mosca de la fruta, Drosophila pseudoobscura, en el oeste de los Estados Unidos y encontraron que la dispersión ocurrió a través de unos cientos de metros; sin embargo, la especie es genéticamente uniforme en un rango de cientos de kilómetros.

No todas las especies, muestran estas diferencias. El mejillón Mytilus edulis, tiene larvas que pueden flotar en el océano por varios meses antes de establecerse. Aunque no es posible llevar a cabo un estudio directo de dispersión de esta especie, es razonable asumir que las distancias lejanas de dispersión de las larvas son frecuentes. Mi análisis de frecuencias alélicas de esta especie, confirma que las tasas de flujo génico son altas. En contraste, hay varias especies de salamandras en donde los estudios directos de dispersión muestran que ésta es muy rara y en los cuales los valores de mis estimadores indirectos de Nm son mucho menores que uno.

CONCLUSION

Finalmente, mi conclusión personal es que hay métodos indirectos útiles para estimar la tasa de flujo génico en poblaciones naturales. Estos métodos, combinados con información obtenida de métodos directos, son útiles para determinar si las similitudes genéticas en las poblaciones reales son debidas al flujo génico real o a la dispersión pasada y el rango de expansión.

La aplicación de estos métodos a los datos obtenidos en las poblaciones naturales, muestran que algunas especies no están en equilibrio genético. En lugar de esto, parece que los eventos históricos han ocurrido como una expansión de rango reciente y que la historia actual es responsable principalmente de la distribución espacial actual de las frecuencias génicas. No está claro si esta situación es típica de muchas especies, porque ha habido muy pocos estudios de campo en los cuales se puedan obtener los valores de los estimadores directos e indirectos del nivel de flujo génico.

    Tabla 1
 m(4Nm)  p(1) θ   GST
0.001(0.512)  1.31(0.53) 1.80(0.92) 1.85(0.85)
0.01(5.12)  5.61(0.32) 6.73(0.40) 6.36(0.35)
0.1(51.2) 33.3(0.10) 289.1(0.90) 43.82(0.09)
Estimaciones de 4Nm usando diferentes métodos, como datos simulados para el “modelo de islas” de estructura de población. Para el modelo de alelos infinitos, se corrieron 10 juegos de 10 réplicas. Los números entre paréntesis son los coeficientes estimadores que se discuten en el texto, basándose en los mismos datos: p(1) indica que se usó la frecuencia promedio de alelos privados; u indica que se usó el estimador de FST de Weir y Cockerham (1984); y Gst indica que se usó el estimador de FST de Neri (1973). En todos los casos hubo 100 demos con 128 individuos por demo. Las muestras de 25 individuos se tomaron de 10 demos escogidos al azar.

 

    Tabla 2
 m(4Nm) s  p(1) θ  GST
  0 5.31(0.22)  6.93(0.21)  6.60(0.19)
 0.01(5.12)  +0.01 9.46(0.50) 10.95(0.77) 9.10(0.61)
  -0.01 5.01(0.24) 6.20(0.15) 5.99(0.14)
         
  0 31.689(0.09) 154.53*(0.31)  42.18(0.15)
0.1(512) +0.01 33.70(1.25) 44.18(0.20) 44.18(0.20)
  -0.01 24.26(0.10) 228.68(0.37) 44.00(0.06)
         
  0 0.94(0.24) 1.33(0.31) 1.41(0.31)
0.001(0.512) +0.01 1.57(0.60)  1.45(0.76)  1.52(0.72)
  -0.01 0.48(0.16) 1.00(0.13)  1.07(0.04)
Estimados de 4Nm, usando diferentes métodos con datos simulados para el “modelo de islas” de estructura de población. En todos los casos se corrieron 10 juegos de 10 réplicas. Los números entre paréntesis son los coeficientes de variación de los estimadores de 4Nm. En todos los casos d 5 100, dsam 5 10, N 5 128, Nsam 5 25, y se usó el modelo de alelos infinitos de mutación con u 5 0.0001.
* Se ignoró una estimación negativa de Nm.     
 articulos
 
     
Referencias bibliográficas

Conferencia impartida en la Facultad de Ciencias, UNAM, el 10 de julio de 1989. 

     
       
____________________________________________________________
     

Montgomery Slatkin
Universidad de California en Berkeley, EU.

como citar este artículo

     
R17Articulo01   menu2 índice 17
siguiente
PDF→                                                                           
   
   
Celia María Finazzi      
               
               

INTRODUCCION

El problema de encontrar las raíces de una  ecuación algebraica, o sea, de un polinomio, ha sido objeto de estudio de la humanidad desde tiempos muy remotos.  

Se tiene conocimiento de que alrededor de 1500 años antes de Cristo, egipcios y babilonios resolvieron problemas que corresponden a simples ecuaciones de primer y segundo grado. Los babilonios llegaron a tratar de solucionar problemas correspondientes a las ecuaciones polinomiales de grado tres y también de sistemas de ecuaciones lineales con dos incógnitas. Estos problemas serían hoy simples ejercicios para jóvenes estudiantes de primaria, que los ejecutarían sin mucha dificultad. Por ejemplo en Boyer, 1968, pág. 34, se encuentra un viejo problema tratado por los babilonios: hallar el lado de un cuadrado, si el área, menos el lado, es 14.30. Este problema es, en nuestros días, ejemplificado fácilmente por la fórmula x2 - x = 870, donde x representa el lado del cuadrado,1 fórmula que le sería sencillo determinar a un estudiante de 13 o 14 años. Esta ecuación de segundo grado tiene las siguientes soluciones: x1 = 30 y x2 = 229 (esta última no es adecuada al problema).  

Mientras tanto, como veremos nos adelante, problemas como este y otros, eran tratados de tal manera que hoy, nosotros, los encontraríamos pintorescos.   

En el transcurso de este artículo veremos como se desarrollo en la historia el tratamiento de las ecuaciones polinomiales, en especial las de grado menor o igual a cuatro. Algunas situaciones aparecerán revelando una característica de profunda naturaleza humana: la competencia, que en muchos casos se ha revelado como la impulsora del desarrollo cultural de la humanidad.

EL TEOREMA FUNDAMENTAL DE ALGEBRA, ASPECTOS CONSTRUCTIVOS

Un resultado fundamental en el estudio de los polinomios se establece a continuación: 

T.F.A. “Todo polinomio de coeficientes reales o complejos, tiene por lo menos una raíz, real o compleja”.

El Teorema Fundamental del Álgebra (T.F.A.) es conocido desde tiempos muy antiguos y su evidencia provino de muchos ejemplos. Era tan fuerte, que incluso era usado antes de ser demostrado. En 1746 d’Alembert lo probó por primera vez, aunque su demostración no fue muy rigurosa, y consecuentemente sí muy criticada, pero la idea fue aprovechada por Weirstrass, quien la desarrollo con un poco más de rigor. La primera prueba realmente satisfactoria fue realizada por Gauss en 1799. Este gran matemático hizo otras tres pruebas, la última, puramente de existencia, en 1849. Otros matemáticos, Cauchy y Sturm, también lo demostraron. Una demostración clara se encuentra en Schreier & Spencer, 1951, pág. 238.  

Como consecuencia inmediata del T.F.A. tenemos: 

“Todo polinomio de gado n de coeficientes reales o complejos, tiene n raíces, reales o complejas.”

Sin embargo las demostraciones citadas del T.F.A., nada ayudan en lo que se refiere a sus aspectos constructivos, ya que todas son puramente de existencia; esto es, prueban que las raíces existen, y de alguna manera “construyen” las raíces del polinomio.

Es claro que la humanidad se preocupaba desde tiempos remotos por el problema de resolver una ecuación algebraica, y es claro que, en los primeros tiempos, era utilizada para casos bien simples.

Las primeras soluciones de que se tiene noticia, fueron sin duda, de ensayo y error.

3. ECUACIONES LINEALES

Estas ecuaciones son las correspondientes a los polinomios de primer grado, por tanto de la forma:

ax + b = 0.  

Las informaciones de que disponen los historiadores, registran a los egipcios como el primer pueblo en tratar una ecuación lineal. Entre los papiros de aquel pueblo, el más importante de naturaleza matemática, es sin duda el Papiro de Ahmes, también conocido como el Papiro de Rhind, que se encuentra en el Museo Británico. Fue adquirido en 1858, en una ciudad al margen del Nilo por el escoces Henry Rhind, siendo compilado en 1654 a.C. por Ahmes de quien toma el nombre (Boyler, 1968, pág. 12). Los egipcios no se referían a problemas que involucraran objetos concretos, pero ya se hablaba de “aha”, que son lo que hoy conocemos como incógnitas. Por ejemplo, el problema 24 del Papiro de Ahmes, que pide el valor de “aha” si “aha” y un séptimo de “aha” es 19. En forma moderna escribiríamos:

Fórmula 01

La ecuación presentada por ellos se hace de manera tentativa: un valor arbitrario, o sea, un “falso” es supuesto para “aha” y se realizan las operaciones indicadas al lado izquierdo de la igualdad; el resultado de estas operaciones se compara con el resultado deseado y usando proporciones, se encuentra la solución.  

Presentamos a continuación el procedimiento que usaban los egipcios:  

Sea 7 el falso. Entonces, usando la forma del texto:

Fórmula 02

Tantas veces cuantas necesitemos multiplicar 8 para obtener 19, tantas veces 7 deberá ser multiplicado para dar el resultado deseado.

Fórmula 03

Multiplicando 2, 1/4, 1/8 por 7 se obtiene el resultado deseado

Fórmula 04

La sencillez de este procedimiento, cuando es aplicado a problemas que involucran fracciones, se muestra en el ejemplo que sigue, extraído de un trabajo de Trenchant de 1566:  

Una cisterna se vacía por medio de tres llaves distintas en 2, 3 y 4 horas respectivamente. La pregunta es, cuantas horas son necesarias para vaciar la cisterna si las tres llaves se abren simultáneamente.  

La solución se presenta a continuación:

si el tiempo usado fuese 12 horas
la primera llave vaciaría  6 veces
la segunda llave vaciaría  4 veces
la tercera llave vaciaría  3 veces

Así, en 12 horas, las llaves vaciarían la cisterna 13 veces. Entonces para vaciarla 1 vez se necesitan 12/13 horas, o sea 55 5/13 minutos.  

El método anterior fue conocido por los hindúes y árabes y más tarde fue introducido a Europa con el nombre de “posición falsa”.    

Una variación de este método es la regla de la “doble posición falsa”, según la cual se hacen dos tentativas y se anota el error correspondiente a cada una de ellas. Podemos entender el procedimiento a partir del ejemplo siguiente, transcrito del trabajo “Ground of Arts”, (1542) del matemático ingles Robert Recorde: 

One man said to another,
I think you had this year two thousand
Lambes: so had I said the other
but what with paying the tythe
of them, ant then the several losses
they are mucho abated: for at
one time I lost half as many as
I have now left, and at another time
the third part of so many.
Now guesse
you how many are left.

Un hombre dijo a otro,
creo que este año tuviste 2 millares de carneros:
así fue dijo el segundo; y qué de la paga
de la décima parte del total y luego las cuantiosas
pérdidas con lo que son reducidos,
pues en una ocasión perdí la mitad
de los que ahora tengo y en otra
la tercera parte de dicha cantidad y
la tercera vez un cuarto de ella.
Ahora averigua cuántos quedan.

La solución presentada por Recorde fue:

Después del decimo, sobran 1800

1) Si el total sobrante fuese 12, al principio el hombre tenía 12 + 6 + 4 + 3, o sea, 25; error correspondiente: 1775.

2) Si el total sobrante fuese 24, al principio el hombre tenía 24 + 12 +8 + 6, o sea, 50; error correspondiente: 1750. 

Entonces, él coloca el siguiente diagrama:

Fórmula 05

y la diferencia entre los productos de dos números unidnos se divide por la diferencia entre los errores para obtener el resultado pedido:

Fórmula 06

El procedimiento es exactamente el que conocemos hoy por método de las secantes.  

Es interesante y pintoresco notar que Recorde, en el trabajo anteriormente citado, publica esta regla en forma de verso:

Gesse at this woorke as happe doth leade.
By chaunce to truthe you may procede.
And first woorke by the question,
Although no truthe therein be done.
Suche falsehode is so good a grounde,
That truth by it will soone be founde
From many bate to many mo,
From to fewe take to fewe also.
With to mucho ioyne to fewe againe,
To the fewe adde to many plaine.
In crooswaies multiplye contray kinde,
All truthe by falsehood for to fynde.

Observa este trabajo que al sucede enseña
Quizá a la verdad puedas acceder.
Primero trabaja en lo que el problema muestra,
Aunque ninguna verdad ahí se encuentre.
Tal falsedad es tan buen fundamento,
Que mediante él la verdad pronto se encontrará.
De muchas disputas a muchas más,
De tomar algo a tomar menos.
De mucho unir a poco de nuevo hacerlo,
A demasiado poco añadir lo demasiado pleno.
En formas cruzadas multiplica esencias contrarias,
Y así toda la verdad encontrar por falsedad.

Recorde verdaderamente sorprendía a sus amigos al proponer problemas difíciles que entonces resolvía con esa regla. Es claro que, por lo expuesto, concluimos que las ecuaciones lineales fueren tratadas en los tiempos más remotos por métodos preferentemente aritméticos, en lugar de métodos algebraicos. Conviene recordar aquí lo importante que fue la contribución en este campo de los escritores árabes, los cuales establecieren y aplicaron axiomas de transición de términos y redujeren ecuaciones implícitas a explícitas. Ellos introdujeron, a través de Al Khowarisme (825 d.C.) el nombre de algebra, que hasta hoy se usa.

4. ECUACIONES CUADRATICAS

Las ecuaciones polinomiales de segundo grado fueren resueltas aritméticamente por los egipcios, geométricamente por Euclides y sus seguidores y algebraicamente por los hindúes. El escritor árabe Al Khowarisme desarrolló reglas aritméticas que demostró por métodos geométricos.

El tratamiento aritmético aparece en otro documento matemático dejado por los egipcios: el Papiro de Berlín, que data de 2000 a.C. aproximadamente. Contiene ecuaciones cuadráticas que fueron resueltas usando la regla del falso. Utilizando notación moderna, la explicaríamos así:

Dadas las ecuaciones:

Fórmula 07

En estas condiciones (Fórmula 08)  

Los griegos resolvieron ecuaciones cuadráticas por métodos geométricos. La relación entre estas ecuaciones y áreas se originó con los pitagóricos. En los celebres “Elementos” de Euclides (300 a.C.), aparecen diversos problemas de esta naturaleza. Citaremos un ejemplo para ilustrar:  

Dado un segmento de línea de longitud a, cortarlo en dos segmentos: uno de largo a menos x y otro de largo x, de tal manera que el cuadrado con base en x tenga una área igual a la del rectángulo de lados a y a menos x.  

En forma moderna representamos este problema con la ecuación:

Fórmula 09

A continuación se presenta la solución dada por Euclides:

Figura 01

Dada la línea AB construya un cuadrado ABCD.

— Bisecte AD en E y dibuje EB.
— Extienda AD a través de A hasta F tomando de EF 5 EB.
— En AF construya un cuadrado AFGH y extienda GH para cortar DC en K.
— Entonces el rectángulo HC es igual al cuadrado AG.

Es mucho más fácil probar, aplicando teoremas de área a la figura, que las áreas sombreadas son iguales entre sí, o sea,

Fórmula 10

En la India, las cuadráticas fueren tratadas algebraicamente. Sridhara (1025 d.C.) parece haber sido el primero en establecer el llamado “método hindú” para cuadráticas. Es citado por Bhaskara (1150 d.C.) en la siguiente forma: “Multiplique ambos lados de la ecuación por un número igual a cuatro veces el termine cuadrado y sume a ellos un número igual al cuadrado de la cantidad original por encontrar. Entonces extraiga la raíz”.  

En la simbología moderna este enunciado es simple: dada ax2 + bx + c, tenemos inicialmente 4a2x2 + 4abx = 4ac y entonces 4a2x2 + 4abx + b2 = b2 + 4ac, por tanto (Fórmula 11). La raíz negativa era omitida.  

Los árabes también trabajaron con cuadráticas. Entre ellos Al-Khowarizme (825 d.C.), que tiene demostraciones geométricas para sus dos reglas algebraicas, basadas en modelos griegos. Citaremos una de ellas, correspondiente a la ecuación x2 + px = q, donde p = 10 y q = 39.

(Figura 2)

Al-Khowarizme construye un cuadrado como el de la figura anterior. Entonces, el área de la figura completa (x + 1/2 p)2 es igual a la suma de la parte no sombreada (x2 + px) más la parte sombreada (p2/4). En el caso específico presentado, x2 + 10x = 39 queda:

(Fórmula 12)

Como siempre acostumbraba suceder, aquí también la raíz negativa era omitida.  

Hay también una regla de Omar Khayyam (1100 d.C.) para la ecuación x2 + px = q.  

Más tarde, en 1590 aproximadamente, Vieta realizo avances en los métodos algebraicos. Consiguió reducir una cuadrática general a una cuadrática pura utilizando una hábil sustitución. Su ecuación general es puesta de la siguiente manera:

“a quadr. 1 B2 in A aequantur Z plano”.

En nuestros días esto se traduciría como x2 + 2ax = b. Con la sustitución x = u + z y después z = a/2, la ecuación se transforma en:

(Fórmula 13)

Después de Vieta encontramos soluciones por factorización con Harriot (1631). Entre los métodos más modernos citamos aquél que usa determinantes, introducido por Euler (1750) y Bezout (1775) y mejorado por Sylvester (1840) y Hesse (1844). 

5. CUBICAS: UNA CONTROVERSIA HISTORICA

El caso de las cúbicas, tal vez por presentar mayor dificultad, tiene una historia más interesante.    

Se tiene noticia de que Arquímedes (225 a.C.) trabajó con una cúbica proveniente de un problema de Geometría. Diophantus, un siglo más tarde, enfrentó una cúbica en un problema geométrico. Los árabes también trabajaron con ellas y el poeta algebrista Omar Khayyam (1100 d.C.) clasificó trece casos de cúbicas que él consiguió resolver. En el siglo XIII Fibonacci (1225) fue desafiado en un debate a resolver la ecuación x3 + 2x2 + 10x = 20.

Observamos que fue decisivo el papel de los debates en el progreso de la solución de ecuaciones algebraicas, como veremos más adelante.

En 1397 Gutenberg inventa la imprenta, lo que representa un factor de suma importancia para el progreso de toda la ciencia y la humanidad, inclusive en el campo que ahora tratamos.

Los italianos fueron, sin duda, los que más destacaron en la solución de las cúbicas. Pero la historia no nos da condiciones para responder con seguridad a la pregunta:

¿Quién propuso la solución de la ecuación de tercer grado?

A principies del siglo XVI un matemático de Bolonia, Scipione del Ferro, resolvió cúbicas del tipo x3 + ax = b. Según la costumbre de la época, él no reveló su descubrimiento, excepto a un estudiante, Antonio María Fior.   

Veinte años después, Fior y otro italiano de nombre Tartaglia, realizaron un debate: cada uno de ellos enviaba treinta problemas al otro, y el que resolviese un mayor número de problemas en 50 días sería proclamado vencedor. Ansioso por derrotar a Fior y sabiendo que su oponente tenía el esquema para cierto tipo de cúbica, Tartaglia dedicó su tiempo a la cúbica en la que faltaba el termino de primer grado. Descubierto el esquema, se dedica a la cúbica en la que faltaba el termino de segundo grado. Él mismo cuenta que descubrió la solución menos de dos semanas antes del debate. Equipado con los dos esquemas, uno conocido por Fior y otro no. Tartaglia resolvió todos los problemas que le fueron enviados por Fior en dos horas y derrotó completamente a su oponente.

El historiador Ball cuenta, en su libro (Ball, 1915), que Cardano pidió el esquema a Tartaglia, pero éste se rehusó. Cardano, diciendo a Tartaglia que había un noble interesado en la solución, combinó un encuentro con él en Milán. Cuando Tartaglia llegó, descubrió el engaño, pero fue finalmente persuadido a ofrecer a Cardano su descubrimiento, bajo promesa de guardar el secreto. La solución fue ofrecida en forma de verso:

Quando chel cubo con le cose appresso  
Se aggualia à qualche numero discreto  x3 + bx = c
Trouan dui altri differenti un esso  u - v = c
Dapoi terrai questo por consueto   
Che ’l lor produtto sempre sia eguale  uv = (b/3)3
Al terzo cubo delle cose neto,  
El residuo poi suo generale  
Delli lor lati cubi ben sostratti  
Varra la tua cosa principale  fórmula 14

 

Cuando el cubo con la cosa se ha formado   
se igual a algún número discreto  x3 + bx = c
Encuentra otros dos que en eso difieran.   u - v = c
En adelante considerado esto conocido   
Que su producto sea siempre igual  uv = (b/3)3
Al cubo de la tercera parte de la cosa neta,  
De ahí el residuo en general  
De sus lados cubos bien restados.  
Valdrá tu cosa principal  fórmula 14

y Tartaglia afirmó haber dado toda la teoría a Cardano. Éste admite haber recibido la solución de su oponente, pero sin explicaciones. De cualquier modo, ya era posible resolver x3 + bx = c y x3 + ax2 = c. La reducción del caso general a la primera de las formas no fue considerarla por Tartaglia. El hecho es que Cardona, en 1545, publico su “Ars Magna” y en él, la contribución de Tartaglia; cuando el segundo protestó, Ferrari, un estudiante de Cardano, afirmó que su maestro había recibido la solución de Ferro. Habiendo recibido de Tartaglia el desafío para un duelo, Cardano envió a Ferrari y se sabe que los seguidores de éste eran tan agresivos y sarcásticos, que Tartaglia agradeció el haber salido vivo de ahí.

Desde esa época la solución es conocida bajo el nombre de Cardano.

A continuación presentarnos le solución en su forme moderna:

(Fórmula 15)

Hay dos valores para w1 y por lo tanto seis valores para w2 y w3. Seleccionamos las parejas w2, w3 tales que

(Fórmula 16)

Aunque haya duda en cuanto a quien fue el verdadero autor de la fórmula, es un hecho que Cardano contribuyó mucho al desarrollo de la teoría de las ecuaciones algebraicas.

ECUACIONES DE GRADO MAYOR QUE TRES

La solución de la ecuación de cuarto grado fue encontrada por Ferrari en circunstancias también interesantes. Consta que Cardano, habiendo recibido un problema de Luanne de Tonini da Coi, con la conjetura de que no había solución, no consiguió resolverlo y lo entrego a su discípulo Ferrari. Éste, no obstante su juventud, tuvo éxito donde su maestro falló. Con la publicación de Ars Magna, el proceso se volvió muy conocido. En Tietze, 1965, pág. 213, se encuentra el complicado esquema para la ecuación general de cuarto grado, con simbología moderna.       

Más tarde Euler encontró un método diferente del de Ferrari para reducir una ecuación de cuarto grado a una de tercer grado. Imaginó entonces, conforme publicaciones suyas de 1732 y 1749, que podía reducir ecuaciones de quinto a cuatro grado. Lo mismo supuso Lagrange, pero ambos fallaron.     

Leibnitz no creía que había solución para las ecuaciones generales de grado superior a cuatro, conforme se deduce de sus cartas de 1678 y 1683; él llegó a afirmar que había probado este hecho. Un siglo más tarde Gauss afirmó lo mismo.  

El primer trabajo encaminado a probar, sin mucho rigor, que una ecuación de quinto grade no puede ser resuelta por métodos algebraicos, se debe a Ruffini (1803-1805). En 1826 Abel dio la primera prueba realmente rigurosa.

El gran matemático Niels Henrik Abel tuvo una corta y sufrida existencia. Nació en Noruega el 5 de agosto de 1802 y aún muy joven contrajo tuberculosis, falleciendo a los veintisiete años. Muy tímido y de temperamento melancólico, nunca imaginó haber contribuido tanto al desarrollo de la Matemática, por lo cual comenzó a interesarse a los dieciséis años. En 1821 entró a la Universidad de Christiania y estudió los trabajos de Euler, Lagrange y Legendre. En 1823 llegó a creer que había descubierto la solución para la ecuación de quinto grado, pero luego percibió que estaba en un error. Trató entonces de probar la imposibilidad y su prueba, bastante difícil, fue publicada inicialmente en 1824, en forma de panfleto y posteriormente en una revista de matemática. Abel estudió otros innumerables problemas y estuvo en Berlín, Italia y París. En este último lugar escribió un largo trabajo, pero el manuscrito fue extraviado por el “réferi”, que era Cauchy. Posteriormente éste fue exiliado, y el trabajo cayó en manos de Gergonne, habiendo sido finalmente publicado en 1845. Es un hecho que Abel tuvo problemas hasta de orden financiero para vivir y que, habiendo sido llamado en 1829 para dirigir un gran Instituto Politécnico, murió antes de conocer dicha noticia.

Otro gran matemático que desarrolló profundas teorías que se relacionan con las ecuaciones algebraicas fue Evarsite Galois, nacido el 25 de octubre de 1811 en el sur de París. En 1828, siendo un estudiante de diecisiete años anuncia sus primeros descubrimientos matemáticos. No se interesaba por otros asuntos que no fueran de índole matemática, y en 1829, no consiguió entrar a la Escuela Politécnica, pero logró en el mismo año un lugar en la Escuela Normal, de donde fue expulsado por mezclarse en política y criticar al director. Tres manuscritos suyos fueron rechazados para ser publicados por la Academia de París. Murió en un duelo, el 30 de mayo de 1832, debido a un caso banal de amores. Durante la noche anterior a su muerte, dejó una carta-testamento de sus descubrimientos a su amigo Chevalier. De la famosa Teoría de los Grupos, debido a Galois, se deduce con facilidad el hecho d que las ecuaciones de grado superior a cuatro, no tienen solución que pueda ser expresada por medio de una fórmula algebraica.

7. CONCLUSION

Este trabajo representa un breve relato sobre la historia del desarrollo de las ecuaciones algebraicas. A lo largo de su lectura nos dimos cuenta más de una vez, de hechos reveladores y de características siempre presentes en el hombre: ansia del descubrimiento, profundizaje del conocimiento, destreza y sagacidad, sentimientos de competencia, y por que no decirlo también, de envidia, ambición, egoísmo y megalomanía. Es innegable que tales factores representan, entre otros, motivos determinantes para el desarrollo de las ciencias.

Revisión del texto: León Kushner S.
Traducción de los versos: Concepción Ruíz y Rafael Martínez.

 articulos
 
     
Referencias bibliográficas

Ball, W. W. Rouse, 1915, A Short Account of the History of Mathematics, London.
Boyer, C. B., 1986, A History of Mathematics, John Wiley & Sons, USA.
Sanford, V. A., 1930, 1958, Short History of Mathematics, The Riverside Press, USA.
Schreier, O., Sperner, E., 1951, Introduction to Modern Algebra and Matrix Theory, Chelsea Publishing Company, New York.
Smith, D. E., 1925, 1953, History of Mathematics, vol. II, Dover Publications, New York.
Tietze, H., 1965, Famous Problems of Mathematics, Graylock Press, New York.



     
       
____________________________________________________________
     

Silvia Torres Alamillo
Instituto de Ciencias Matemáticas de São Carlos, Universidad de São Paulo, Brasil.

como citar este artículo

     
Está aquí: Inicio Blog (2) revistas revista ciencias 17
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License