revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
orión        
 
  menu2
PDF    →
            R170B04 

¿Antigravedad?

 
Revolución francesa y Astronomía

 
Colaboración: Julieta Fierro
   
   
     
                     

Por más extraño que parezca, en esta época se están volviendo a cuestionar aspectos relacionados con la fuerza de gravedad, y consecuentemente se están realizando nuevos experimenta al respecto. Uno de los investigadores es el Dr. Efraín Fischbach de la Universidad de Indiana, quien reinterpretó los resultados de un experimento realizado hace medio siglo por el físico húngaro Eotwos, encaminado esencialmente a demostrar que los cuerpos caen en la misma forma, independientemente de su composición química. Este experimento es un refinamiento de aquél otro ya famoso, realizado por Galileo en la Torre de Pisa.                         

Los experimentos llevados a cabo por Fischbach, y por muchos otros grupos de científicos parecen indicar que podría haber una fuerza en la naturaleza, llamada temporalmente “fuerza de hipercarga”, que se opondría a la gravedad.                               

Hasta ahora los físicos trabajan con cuatro fuerzas fundamentales: la fuerte que mantiene unidos a los núcleos atómicos; la débil que es responsable del decaimiento radioactivo; la electromagnética que corresponde a los fenómenos relacionados con la luz y la electricidad, y la gravitacional que es, por mucho, la mas débil de todas, y a la que se responsabiliza del peso de los cuerpos (un pequeño imán levanta un clavo y vence la fuerza gravitacional que ejerce la totalidad de la materia que conforma a la Tierra).

Según los investigadores mencionados, la quinta fuerza es un céntimo mas débil que la fuerza de gravedad, aunque en dirección opuesta a ella, y deja de tener importancia mas allá de algunas decenas de kilómetros. La hipercarga es más importante que elementos químicos cuyos átomos tienen mayor densidad. Repitiendo el experimento de Eotwos, los laboratorios han encontrado que un cuerpo de hierro cae más despacio que uno de aluminio. La hipercarga es el número de protones y neutrones que tiene un átomo. Fischbach argumenta que la quinta fuerza es proporcional a la hipercarga.

 

REVOLUCIÓN FRANCESA Y ASTRONOMÍA

A raíz de los festejos de la Revolución Francesa, valdría la pena recordar cual era el panorama al que se enfrentaban los astrónomos franceses en esos años de grandes cambios.       

Por ejemplo, el edificio del Observatorio de París era arquitectónicamente parecido a la Bastilla y por consiguiente, estuvo en la mira de los revolucionarios, quienes lo saquearon por confundirlo con algún edificio monárquico dedicado a la opresión del pueblo; pero no solo tenían esa confusión, sino que, como los telescopios se parecían a los cañones, muchos de los instrumentos astronómicos fueron seriamente dañados.

En cuanto a la actividad astronómica propiamente dicha, esta se vio seriamente relegada en aras de la modernización.

Los astrónomos de entonces, se dedicaron a definir los nuevos sistemas de medidas que trataron de implementarse durante esas épocas en que dominaba el espíritu cartesiano; así las formas de los estados franceses se volvieron cuadradas; se hicieron semanas de diez días, meses de treinta; se definió la nueva unidad de peso, el kilo, como el peso de un decilitro cúbico de agua destilada.                            

Los astrónomos contribuyeron a los nuevos sistemas de unificación dimensional, por lo que les tocó definir la unidad de longitud que fuera un patrón para Francia. Primero se les ocurrió definir el metro como la longitud de un péndulo que tuviera un periodo de oscilación de un segundo (el periodo de oscilación de un péndulo sólo depende de su longitud, un péndulo corto oscila más rápido que uno largo). Descartaron esta idea pues consideraron que el segundo no era una unidad ideal de medida de tiempo, ya que hay 60 y no 100 segundos en un minuto, y 60 y no 100 minutos en una hora, etc.

En vista de lo anterior los astrónomos franceses, que ya no eran Reales y que se turnaban anualmente el puesto de director del observatorio, decidieron definir el metro como una cienmilésima parte de la circunferencia de la Tierra que pasaba por el meridiano de París. Lalande, Cassini y Messier, entre otros, dedicaron toda su energía a medir la circunferencia para poder hacer la división y así tener el metro patrón, el que no sólo unificó las unidades de medida en Francia sino que, finalmente, hace unos cuantos años, se convirtió en la unidad de medida de todo el mundo.

  articulos

     
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

cuento        
 
  menu2
PDF    →
            R170B08 

El hombre y

la tortuga "Esperanza"

 
 
   
   
     
                     

Érase una vez un hombre que navegaba por las aguas del mar, en eso vio pasar una tortuga y la persiguió hasta la orilla del mar, la tortuga corría pero como era muy lenta la logró alcanzar. Y dijo —la tortuga—, no me mates, sufrimos igual que ti, cuando nos comes, matas y robas nuestros huevecillos para venderlos y así obtener dinero para poder mantener tu familia; cuando necesitas dinero nos matas y vendes nuestra carne.

Date cuenta que somos seres vivos y no un juguete —terminó diciendo la tortuga—.

El hombre entendió y la dejó ir. Esa misma tarde el barco en que viajaba el hombre se hundió, por lo que un feroz tiburón atacó e intentó comerse al hombre; la tortuga que pasaba en esos momentos por ese rumbo, vio lo que estaba sucediendo e inmediatamente se dirigió a ayudar al hombre que un día le había salvado la vida y montándolo en su gran caparazón nadó con mucha prisa, y el tiburón no la pudo alcanzar. Y de este modo pudo salvarlo de una muerte segura. Este hombre al ver lo que la tortuga había hecho por él dedicó el resto de su vida a defender a las tortugas y a tratar de que los hombres no las maten y extingan su especie, pues ellas tienen el mismo derecho de vivir y reproducirse como el hombre, los pájaros y las plantas.

Fue tan grande el amor de este hombre hacia las tortugas marinas, puesto que había comprobado que son los seres más inofensivos que han existido.

A medida que pasaba el tiempo, se daba cuenta de la maldad de los hombres a tal grado que todos los hombres se burlaban, por lo que prefería pasar todo el tiempo en las playas haciendo campañas para el bienestar de las tortugas marinas.

Hasta que se hizo anciano y a punto de morir solo y abandonado por los hombres. Las tortugas al ver esto agitaron las aguas del mar y salieron a la tierra llevándose al anciano a su reino submarino lleno de felicidad y nunca se volvió a saber de ese hombre, pero existen pescadores que afirman que cuando tratan de cazar tortugas marinas en las playas, escuchan la voz del hombre que se los impide y cuando vuelven la cara para ver quién les habla, bajo las aguas del mar observan el rostro triste del anciano.

  articulos

Nombre: Nancy Mayelín Rivera Rivera, Santiago Cuale, Tlaxcala.
Categoría: de 8 a 11 años.

     
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

 

 

 

 

 

 

 

R17Articulo6   menu2 índice 17
siguiente
anterior
PDF
   
   
Antonio Sarmiento
     
               
               

En 1493, un año después del primer viaje de Cristóbal Colón a América, el Papa dividió al mundo no europeo entre las naciones más poderosas de su propio continente. Cien años más tarde, cuando Mercator terminó su Atlas, la dominación europea se había extendido por todo el mundo y este Atlas incorporaba la concepción geográfica del planeta en una época de pleno colonialismo.

Miles de atlas se han publicado desde entonces con diversas diferencias respecto al de Mercator; sin embargo, todos ellos se adhieren al principio de un punto de vista eurocéntrico del mundo: el país y el continente de origen se representan utilizando una escala mayor que la utilizada para los países alejados de dicho país de origen (por lo general, los no-europeos). Si, junto con la edad del colonialismo, la visión del mundo que la sustentaba debe terminar, se necesita entonces una nueva geografía, una que se base en un estatus de igualdad para todos los pueblos.

 
Figura 1. Un ejemplo de los mapas usuales donde se claramente la distorsión a la que se refiere el texto. 

EL PROBLEMA CON LOS MAPAS USUALES

Veamos primero algunos ejemplos de las falsas imágenes que se nos presentan en los mapas usuales; distorsiones que sólo oscurecen las divisiones políticas de un nuevo sistema de control económico, divisiones como la llamada división Norte-Sur o la creadora de tensiones Este-Oeste.

En la porción que se muestra en la figura 1, se ve que el continente europeo ocupa una región aproximadamente igual a la que ocupa América del Sur, sin embargo, esta última tiene una extensión de 17.8 millones de kilómetros cuadrados mientras que Europa tiene tan solo una extensión de 9.7 millones de kilómetros cuadrados, es decir, América del Sur es en realidad casi dos veces más grande que Europa. En la figura 2, la imagen usual muestra a la Unión Soviética ocupando una región mayor que la ocupada por el continente africano, cuando en realidad, África (30 millones de kilómetros cuadrados) es casi una y media veces más grande que la Unión Soviética (22.4 millones de kilómetros cuadrados). De igual manera, Escandinavia (Finlandia, Noruega y Suecia), se nos ha representado durante 400 años (figura 3) de un tamaño similar al de la India que es tres veces más grande (1.1 y 3.3 millones de kilómetros, respectivamente). El caso extremo se muestra en la figura 4: Groenlandia, que tiene tan solo 2.1 millones de kilómetros cuadrados, aparece mayor que la región de 9.5 millones de kilómetros cuadrados que conforma al país de China, una porción de tierra que en realidad es poco más de cuatro veces y media más grande.

La naturaleza de estas distorsiones, y la razón de su existencia, son ahora tan obvias que parece prácticamente imposible que pasaran desapercibidas durante más de cuatrocientos años. La distorsión causada al intentar representar a la superficie (casi-esférica) de la Tierra sobre un papel plano, es más o menos inevitable, pero la distorsión causada por el uso de escalas inconsistentes, que ha adquirido el incuestionable nivel de hábito, no lo es.

Hemos llegado a aceptar como “natural” una representación del mundo que concede espacio desproporcionado a los mapas de gran escala que representan áreas concebidas como importante, mientras otras áreas son consignadas a mapas generales de escala pequeña. De esta manera, nuestra imagen del mundo ha sido condicionada, durante tanto tiempo, que no hemos reconocido dicha distorsión como lo que realmente es: el equivalente a observar mediante una lente de aumento a Europa y a América del Norte mientras el resto del mundo se ojea por el lado equivocado de un telescopio.

No hay algo de “natural” en tal visión del mundo; es el remanente de una manera de pensar que nació aún antes que la época del colonialismo y que fue impulsada por dicha época. Pocas gentes en uso de sus facultades mentales, suscribirían actualmente una visión del mundo de esta clase. Sin embargo, hasta hace pocos años, no existía una alternativa que proveyese una imagen sin distorsiones de este tipo.

UNA ALTERNATIVA

La identificación del problema, como tal, se debe a un historiador alemán, Arno Peters para quien los ejemplos mostrados en las figuras anteriores, significaban una visión errónea e insostenible. La elaboración de un nuevo Mapa Mundi y de un Atlas con las proporciones justas fue desarrollada por un grupo de geógrafos, expertos en computación y artesanos expertos en cartografía (90 personas en total), que en su mayoría, se encontraban trabajando en el Departamento de Geografía de la Universidad de Bristol y en la ciudad de Oxford en Inglaterra. Lo anterior no es más que otro ejemplo, hoy en día, de la dominación europea y del poco interés que la Geografía despierta en la cultura de los países que fueron colonizados.   

 
Figura 2. Otro ejemplo de la distorsión mencionando en el texto. Nótese que el hemisferio sur, la mitad de la tierra, ocupa solamente una tercera parte del mapa. 

Estos nuevos mapas y atlas llevan el nombre del historiador que inicia la corrección de las imágenes usualmente presentadas en los mapas anteriores: Mapas Peters y Atlas Peters. En el Atlas Peters, todos los mapas topográficos han sido trazados con la misma escala: un sexagésimo de la superficie terrestre. Esto significa que todos los mapas topográficos pueden compararse directamente entre sí. El Mapa Mundi esta lleno de sorpresas y para no alargar la espera del lector, se presenta en la figura 5, una copia reducida del mapa que aparecía por primera vez en el año de 1973. Para la mayoría de la gente, rápidamente se volvería aparente el hecho de que sus nociones acerca de los tamaños de diferentes países y regiones son, en la mayoría de los casos, drásticamente equivocadas.  

 
Figura 3. Tercer ejemplo de los mapas que distorsionan al mapamundi dividiéndolo artificialmente en un hemisferio “Norte”, concebido como política y económicamente importante, y un hemisferio “Sur” que carece de relevancia para los países del “Norte” todopoderoso. 

¿Que significa la palabra escala en este contexto? El indicador de escala que aparece en los mapas de referencia usualmente muestra sólo la escala de distancia. Esta permite al usuario calcular el factor necesario para multiplicar distancias y poder así compararlas con distancias en otros mapas del mismo atlas. Éste es un proceso complejo y tedioso que la gran mayoría de los usuarios, de manera entendible, no lleva a cabo. Además, el número de escalas distintas que se usan en un atlas convencional puede ser notablemente grande: la última edición de una atlas de referencia de uso muy extendido contiene mapas en 35 escalas diferentes; el concepto de escala relativa debe volverse considerablemente vago en la mente del usuario. Lo que en general no se menciona, es el hecho de que, debido a la imposibilidad de transferir correctamente la superficie del globo terráqueo a una plano, el indicar de escala en un mapa es únicamente válido para una sola parte del mapa, tal como una línea de latitud.

La distancia es sólo un aspecto de la escala, el área debe también ser considerada y, mientras ni puede haber mapas con una fidelidad absoluta en distancia, si puede haber mapas con fidelidad de área. Los mapas en el Atlas Peters conservan la fidelidad en el área ocupada por cada país o región: un centímetro cuadrado en el mapa equivale a seis mil kilómetros cuadrados en la realidad, una característica que nuca ante se había logrado en mapa o en atlas alguno. Existe, obviamente, un precio que pagar por la introducción de esta innovación. El Atlas Peters no es útil para ciertos propósitos: no está designado como guía para el conductor de vehículos motorizados o para sustituir el mapa de carreteras y caminos; en general, no es de utilidad para problemas de geografía local. Ofrece, por el contrario, una visión global.

LAS VENTAJAS DE LA ALTERNATIVA

La igualdad de escala ofrece muchas otras ventajas adicionales a la comparación directa de regiones o países. La base para la compilación de cualquier mapa es la simplificación de la realidad que los cartógrafos llaman “generalización”. Esta transferencia del carácter real de la superficie terrestre en un sistema de líneas y símbolos, los cuales pueden representarse gráficamente, tiene que adaptarse a la escala empleada. Así, un río o un camino con todas sus vueltas y características, se puede dibujar muy precisamente (es decir, con mucho más detalle) utilizando una escala 1:100000. Los símbolos también varían con la escala y no es difícil encontrarse con que el símbolo que representa una población de 50-10000 habitantes en una escala, también representa una ciudad con 1-5 millones de habitantes en otra escala. La misma elevación sobre el nivel del mar puede encontrarse coloreada de una manera distinta en mapas que tengan una escala diferente. Todas estas dificultades se desvanecen en el Atlas Peters que, debido a su escala única, tiene un solo nivel de generalización y un solo conjunto de símbolos.

 
Figura 4. Último ejemplo de los mapas tradicionales. En todos estos ejemplos hemos notado que alguna región del “Norte” político-económico se presenta claramente privilegiada respecto de alguna otra región en el “Sur” político-económico.

El significado de la coloración de los mapas topográficos también ha sido simplificado enormemente. El color verde representa la vegetación, el color café representa la tierra desnuda, y una combinación de ambos es utilizada para representar vegetación dispersa. Los datos sobre la vegetación global se obtuvieron de fotografías tomadas con satélites en 1985-86 utilizando la Unidad de Monitoreo Remoto del Departamento de Geografía de la Universidad de Bristol, Inglaterra. La resolución de estas imágenes (20 kilómetros cuadrados en cada fotografía) y su conversión a la base de los mapas Peters, hace de ésta la compilación más actualizada de la distribución de vegetación en el mundo.

LA PROYECCION UTILIZADA Y LAS INNOVACIONES

¿Cuál fue la proyección utilizada en la elaboración de estos nuevos mapas y atlas? Toda persona que haya intentado extender sobre un plano la cáscara de una naranja de manera continua y sin que ésta se rompa, habrá entendido la imposibilidad fundamental subyacente en toda labor cartográfica: la fidelidad de la forma, en la distancia y en el ángulo se pierden, por necesidad, al aplanar la superficie de una esfera. Por otro lado, es posible retener otras tres cualidades al hacer este proceso de aplanamiento: fidelidad en el área, fidelidad en los ejes y fidelidad en la posición. La fidelidad en el área hace posible el comparar entre sí varias partes de un mapa en forma directa; la fidelidad en los ejes y en la posición, garantizan relaciones correctas entre los ejes norte-sur y este-oeste mediante el uso de una red rectangular. La proyección utilizada, que también lleva el nombre de Peters, unifica en un solo mapa las tres cualidades mencionadas; de esta manera los tamaños comparativos reales de todos los países en el mundo son claramente visibles. Existe otra parte del problema que el lector ya habrá empezado a preguntarse: ¿y los polos? Los mapas que contienen los polos han sido realizados con la misma escala y manteniendo la fidelidad en el área, pero, para lograr una forma aceptable, se han proyectado sobre el plano utilizando un procedimiento distinto al de los otros mapas en el atlas. La distorsión de la forma que es inevitable en las regiones polares y ecuatorial del Mapamundi, se puede eliminar casi totalmente en los mapas regionales: cada uno de estos mapas se ha re-centrado de manera que la forma es la correcta a lo largo de las latitudes centrales del mapa. La red utilizada para la localización geográfica de un sitio mediante el uso de coordenadas también ha sufrido cambios en esta nueva concepción de la representación cartográfica. El Meridiano Cero tradicional que pasa por Greenwich, fue adoptado mundialmente como tal en 1884; una época en la que la Gran Bretaña era la potencia colonizador más fuerte del mundo europeo y regía sobre poco más de la cuarte parte del globo terráqueo. Una vez terminada la época dorada de este tipo de colonialismo y con el cierre del Observatorio de Greenwich, no existe razón alguna para continuar utilizando este Meridiano cero, salvo tal vez, la tediosa costumbre de hacerlo. La Línea Internacional para el cambio de fecha, que depende de la localización del Meridiano Cero, también necesita corregirse: a lo largo de toda su extensión, esta línea ha sido parcialmente desviada cada vez que en su camino se encuentra con una región habitada de la Tierra. Igualmente, el continuar utilizando la división del globo en 360 grados, en una época de plena decimalización mundial es, al menos, una anomalía.

 
Figura 5. La nueva visión del mundo: un estatus igualitario para todos los países y regiones. La relación entre tamaños, direcciones y localización es tal que cualquiera de estas características en algún lugar es directamente comparable con la misma característica en cualquier otro lugar del mapa mundi. 

Igualmente, es Arno Peter quien también ha propuesto una nueva red para la asignación de coordenadas geográficas a cualquier sitio del globo terráqueo. En esta nueva red, el Meridiano Cero y la Línea Internacional de cambio de fecha coinciden en una sola línea, situada a la mitad del estrecho de Bering, y la Tierra se divide en cien grados decimales Este-Oeste y Norte-Sur. La segunda parte del Atlas Peters enfoca su atención a la presentación de la Tierra como un todo. En 246 mapas individuales sobre un tema particular, el autor ha coleccionado información global acerca de la Tierra y la presenta agrupada bajo 44 títulos de simple y útil consulta.       

Existen, además de las mencionadas, toda una serie de características que hacen del Atlas Peterson una herramienta mucho más fácil de consultar, de interpretar y de utilizar que cualquiera de los altas usuales. He mencionado las características que me parecen más importantes y aquellos aspectos que contrastan fuertemente con esos mapas en que, hace ya varias generaciones, hemos venido aprendiendo la visión geográfica de la colonia y todas sus consecuencias. Como un ejemplo de los mapas regionales encontrado en el Atlas Peters se ofrece el contenido de la figura 6. Este gran logro ha sido posible gracias a la aplicación de las técnicas modernas a la cartografía: la cartografía computarizada hace posible el mantener actualizados los mapas hasta el mismo punto de incorporar los resultados a que han llegado las investigaciones mundiales más recientes. Por otro lado, la mecanización pura puede robarle al mapa su mejor característica: la labor artesanal del cartógrafo. El atlas y los mapas logrados por este equipo combinan las mejores características de ambos procesos: los mapas se han hecho con tanta mecanización como sea necesaria y tanta artesanía como sea posible.

 
Figura 6. Nuestro país en una proporción válida para todo el mapa. Nótese lo erróneo de llamar “El Sureste” a la península de Yucatán y regiones aledañas: Mérida, Isla Mujeres y algunas otras poblaciones, están en realidad más al Norte que la ciudad de México. Acapulco, por otra parte, sí se encuentra al sur del Distrito Federal y no al oeste como aparece en los mapas tradicionales.

Los mapas regionales han sido re-centrados, a partir de la proyección global, utilizando la instalación europea más moderna de computación Scitex en Berna, Suiza, y la base de datos geográficos de la Edgenössische Technische Hochschule; la información obtenida vía satélite sobre la vegetación terrestre ha sido procesada, mediante computadora, para ajustarse a esta base de datos. El resto de la cartografía para los mapas topográficos y los temáticos ha quedado en manos de los tradicionales artesanos cartógrafos en Oxford, Inglaterra.       

Este trabajo fue realizado gracias al apoyo que recibió el autor de la Royal Society del British Council.

 

 articulos
 
     
       
____________________________________________________________
     

Antonio Sarmiento
Astronomy Unit, Queen Mary College, University of London. Instituto de Astronomía, UNAM.

como citar este artículo

     
R17Articulo4   menu2
PDF→                                                                   
   
   
Alain Jaubert
     
               
               

El museo de Historia Natural de Nueva York, imponente y elaborada construcción que bordea Central Park, seguramente no es la obra mas kistch de la ciudad. Sus extraños dioramas son celebres por las escenificaciones de animales disecados en medio de decoraciones hiperrealistas que recrean bosques, sabanas y desiertos del planeta. La visita culmina en la parte correspondiente al desván que cuenta con una magnífica colección de dinosaurios y anquilosaurios, los que despliegan impúdicamente sus negros esqueletos fósiles. Los más modestos se encuentran en vitrinas, los gigantes al aire libre. El tiranosaurio, el más grande de los carnívoros que han vivido en nuestro planeta, se yergue como estrella en este escenario: cola espesa, tronco masivo de varias toneladas, colosales miembros inferiores que contrastan con sus pequeñas y ridículas patas superiores; una cabeza que se menea a siete u ocho metros del suelo, cuyo rictus se encuentra ornado por puntiagudos dientes de quince centímetros de largo.        

Un domingo de 1945, un padre que regresa de la guerra lleva a su hijo al museo: el pequeño se va de espaldas ante el inimaginable esqueleto. Alguien en la sala estornuda; el niño se espanta terriblemente, pero la bestia se mantiene inmóvil. Al salir del museo el niño toma una decisión: será paleontólogo.

Stephen Jay Gould nació en 1941 en una familia de emigrantes instalada en Nueva York. Broma familiar: le ponen por segundo nombre Jay, haciendo alusión al magnate de los ferrocarriles Stephen Jay Gould, uno de los héroes de la conquista del Oeste. El padre de Stephen, un estenógrafo de la Suprema Corte del condado de Queens, es marxista y naturalista aficionado, inclinación, esta última, por la que estimula la vocación de su hijo. Los resultados: brillantes estudios en la Universidad de Colorado, Antioch College y Columbia University. Una tesis sobre caracoles fósiles en las Bermudas y un doctorado en Ciencias Naturales en Columbia, realizado en colaboración con el tan querido Museo de Historia Natural de Nueva York.

A la los treinta años, en 1971, Gould es nombrado profesor de Geología de la Universidad de Harvard, cerca de Boston. Hasta la fecha es profesor, al mismo tiempo, de Panteología, Biología e Historia de la Ciencia. Sobre los muros de su oficina se ven restos de inscripciones medio borradas: “Esponjas y protozoarios”, o bien “Esquema del reino animal”. Una antigua sala del museo, convertida por Gould en una buhardilla de sabio. Estantes de libreros y mesas que conforman todo un laberinto que obliga a dar varias vueltas antes de llegar hasta el escritorio del investigador. En los estantes, colecciones de conchas y filas de libros: Buffon, Darwin, Lyell, Wallace. Libros y revistas amontonados por todas partes. Carteles, anuncios de conferencias de Gould en diferentes ciudades de los Estados Unidos, un viejo cartel del Berliner Esnemble, caricaturas (la de David Levine entre otras). Un amontonamiento sin sentido de pandas de peluche; una lámpara de cristal traslúcido en forma de flamingo rosa. Un Diplodocus verde de plástico, un caracol de fantasía, simios de juguete, pequeños monstruos de ciencia-ficción. Sobre la mesa: un microscopio, un par de tenis, cajas de diapositivas, de galletas, café frío y una botella de champagne. En otra mesa, pilas de manuscritos y cajas llenas de conchas blancas. Fotografías: Gould y uno de sus hijos con Joe Di Maggio, Gould con el Papa. Si a esto le añadimos una media decena de sillones maltrechos y de sillas desvencijadas, la pila del correo cotidiano diseminado entre las pruebas de artículos y de libros por corregir; las cajas llenas con sus dos últimas obras, un traje de beisbol, una mochila lista para cualquier aparato, los montones de casetes de Bach, Mozart y Purcell, todo esto conforma una idea adecuada del universo un tanto insólito en que se mueve Gould. Pero este aparente desorden oculta un gran rigor: las jornadas del profesor son estrictamente contabilizadas, y en una oficina vecina, su secretaria filtra veinte veces por hora las llamadas precedentes del mundo entero.

 
Stephen Jay Gould en el Museo de Zoología Comparada en Harvard. 

“Yo pienso —dice Gould— , que la fama no es tan buena. Tal vez sea buena para la difusión de las ideas científicas. Para mi, la vida se ha vuelto muy difícil, he perdido el anonimato, me cuesta conservar mi tranquilidad y ya no puedo pasear por la calle sin ser abordado por gentes que desean un autógrafo o que quieren exponerme una idea revolucionaria. Ahora bien, antes que cualquier otra cosa, yo soy un científico y obviamente no puedo otorgar a cada persona de los cientos que me lo solicitan, aunque sean los dos o tres minutes que le serían necesarios”.

Las causas de esta celebridad son múltiples. Primero la publicación, en 1972, de un artículo que sacudió la teoría de la evolución y suscitó debates que todavía duran. Después, la publicación en volúmenes de los artículos que Gould entrega cada mes a la revista Natural History; han aparecido cinco libros y varios de ellos han sido premiados. Finalmente, sus numerosas polémicas y tomas de posición que han llamado la atención de la prensa: testigo ante el Congreso acerca del “invierno nuclear”, conferencias en Sudáfrica sobre la historia del racismo, testigo durante el proceso que oponía a los “evolucionistas” y “creacionistas”. Por supuesto que tal actividad, así como los ecos que suscita, han desencadenado una desconfianza (digamos más bien, envidia) entre muchos de sus colegas.

“En un principie trabajé con caracoles —dice Gould—, porque yo quería hacer un estudio estadístico de la evolución. Obviamente no podía hacer este estudio con mi tiranosaurio, ya que no existen más que dos esqueletos completos en el mundo. Pero hay millones de caracoles y recolectando algunos miles de ejemplares se pueden hacer estudios estadísticos serios. Junto con David Woodruff mostramos que las seiscientas especies de Cerion, el caracol terrestre de las Bahamas, censadas cuidadosamente por los biólogos, se podían restringir a algunas solamente, cuya distribución es coherente y ordenada. Nosotros mostramos que un complejo conjunto de caracteres, podía evolucionar independientemente más de una vez y en forma casi igual”.       

“La ‘teoría de los equilibrios puntados’ que propusimos Niles Eldredge, paleontólogo del Museo de Historia Natural de Nueva York, y yo, afirma lo contrario a lo establecido por la ‘línea dura’ del darwinismo, tendencia que reina en la biología contemporánea desde hace cuarenta años”.         

“Según esta línea, se producirían pequeñas variaciones genéticas al azar en las poblaciones locales de determinadas especies. Progresivamente, durante largos periodos, la selección natural eliminaría a los organismos menos adaptados al medio y conservaría aquellos que están mejor adaptados y que terminaran por predominar. Según esta posición, que debo decir que jamás fue la del mismo Darwin, toda transformación importante debe ser interpretada como una adaptación producida por la selección natural, o si se quiere, por la sobrevivencia de la especie mejor adaptarla. Todos los cambios han sido graduales y existirían todas las etapas intermedias entre ancestros y descendientes”.     

“Sin embargo cuando se observan los archivos, es decir, los fósiles, nos damos cuenta de que jamás hay formas intermedias, que la mayoría de las especies tienen un origen brusco y que después son estables durante cinco o diez millones de años”.    

“También observamos que se producen un mayor número de variaciones genéticas del que se pensaba. Ciertos genes pueden existir bajo numerosas formas diferentes y muchas mutaciones no modifican verdaderamente el comportamiento o la forma de los organismos, de tal suerte que estas no cambian las relaciones de tales organismos con el medio, ni su aptitud para sobrevivir. La evolución resulta ser mucho mas aleatoria de lo que pensamos. Finalmente, nosotros postulamos que las nuevas especies aparecen rápidamente entre las pequeñas poblaciones súbitamente aisladas. Rápidamente quiere decir de cinco a diez mil años, lo cual no representa más que un breve instante en la escala del tiempo geológico”.

Stephen Jay Gould ha popularizado misterios evolutivos, tales como los amores de la mantis religiosa o los del pejesapo, los desmesurados cuernos del alce de Irlanda, el florecimiento centenario del bambú, las migraciones de las tortugas marinas, las rayas de la cebra, y sobre todo, el pulgar del panda y el pico del flamingo rosa, los cuales dan el título a dos de sus libros.

“El pulgar del panda es la ilustración de un principio muy importante del darwinismo: en la forma de los organismos se encuentran signos de su historia, y esta historia esta reflejada en las imperfecciones. Por su origen, el panda es carnívoro, desciende del oso; pero actualmente es herbívoro y solo come bambú. Para arrancar las hojas, el panda pasa las ramas del bambú entre el pulgar y el resto de la mano. Sin embargo, el verdadero pulgar de los carnívoros estaba ligado a los otros dedos y carecía de esta posibilidad. ¿Qué es entonces el pulgar del panda? Si examinamos la anatomía de su pata, nos damos cuenta de que el verdadero pulgar existe a un lado de los otros dedos, y que lo que vemos como ‘pulgar’, es de hecho un hueso de la muñeca desviado: el sesamoideo radial, que es corto, carece de articulaciones y no funciona bien. Se trata de un bricolge de la evolución, por decirlo en términos de François Jacob”.

“El alce de Irlanda es un ciervo fósil que tenía cuernos de apariencia monstruosa, ya que algunos llegaban a medir hasta 3.60 m. de largo. Siempre se ha dicho que esos cuernos habían sido la causa de la extinción de esta especie; supuestamente estos animales habrían muerto por el estorbo que representaban sus apéndices, aplastados bajo su peso o atorados entre las ramas. Yo medí todos los animales que pude encontrar en los museos así como las colecciones de trofeos en los castillos, y constaté que mientras más grande era el tamaño del cuerpo, más grande era el de los cuernos. Contrariamente a la idea aceptada, la selección natural favoreció a los portadores de grandes cuernos. Yo pienso que los cuernos no servían para el combate, sino más bien para la seducción de hembras. Si el alce desapareció, es sin duda debido a las variaciones climáticas de la última glaciación y no a causa de sus apéndices”.

“También he escrito acerca del pico del flamingo rosa. El flamingo rosa come con la cabeza hacia abajo, moviendo su pico en el fango de los estanques. Su mandíbula inferior se ha transformado y se parece a la mandíbula inferior de otras aves. La superior, por el contrario, es el verdadero elemento dinámico. Este caso ilustra un principio darwiniano, según el cual los cambios de comportamiento deben ser los primeros y proceder a los cambios de morfología. Es un principio constatado inicialmente por Lamarck, pero Lamarck se equivocó en el mecanismo. Él pensaba que el medio ejercía una influencia directa sobre la herencia, cuando es la selección lo que constituye el mecanismo. La parte inferior del pico del flamingo evolucionó como la parte superior del pico de las otras aves”.     

Pero a Gould, que no carece de malicia, le gusta aplicar los modelos de la evolución a otros sujetos. Se ha interesado, por ejemplo, en la evolución gráfica de Bibendum (el hombre gordo de la publicidad de las llantas Michelin), en la de Mickey Mouse, el personaje de Walt Disney, el cual le ha inspirado bellas reflexiones impresas en El pulgar del panda.        

“Si, me divertí al señalar la evolución de Mickey, porque es un gran ícono de la cultura americana y en su metamorfosis se pueden observar rasgos sorprendentes. Disney inventó a Mickey en 1928. En esa época era prácticamente una rata: cabeza y ojos muy pequeños y hocico muy largo. Era bastante malvado. Poco a poco, Mickey se volvió muy popular y bueno; sus ojos y su cabeza se hicieron más grandes, la nariz más corta. Yo me di cuenta que, de hecho, Mickey se parecía cada ves más a un bebe. Nosotros tenemos un afecto especial por los animales que se parecen a los bebes y nos atraen las formas juveniles. La evolución hacia formas juveniles es un proceso al que llamamos neotenia. Nuestros ancestros tenían formas más cercanas a las de los grandes monos adultos, y se puede pensar que a lo largo de la evolución el desarrollo del hombre se ha vuelto más lento, por lo que su apariencia se ha hecho más juvenil. El hombre se encuentra más cerca del bebé mono. Es por esto que la evolución de Mickey hacia una forma juvenil, es un poco la evolución del hombre en general”.     

El origen, o más bien, los orígenes de la vida, serán sin duda siempre enigmáticos. Sin embargo el tema no deja de obsesionar a un paleontólogo como Gould.       

“La historia de la vida es sumamente apasionante. Las evidencias paleontológicas nos muestran que lo que llamamos la vida, apareció hace al menos tres mil quinientos millones de años. La Tierra no tiene más que cuatro mil quinientos millones de años. Por lo tanto, el origen de la vida se encuentra muy cercano al de la Tierra. Durante casi tres mil millones de años la vida se mantuvo en un estado muy simple; ésta consistía solamente en organismos unicelulares. Hace 600 millones de años se produjo una explosión. Hay que tomar en cuenta que para un geólogo una explosión dura uno o dos millones de años, lapso muy corto comparado con la duración de la Tierra. En un breve periodo la vida multicelular hizo su aparición y de inmediato se diversificó muy rápidamente. Esto constituye un gran misterio. Quizá la evolución de los seres multicelulares fue más rápida”.       

A propósito de los famosos dinosaurios, que son el origen de su vocación, ¿cómo fue que desaparecieron?  

“Los dinosaurios son el centro de atracción en la actualidad. Por cierto, ¡lo tienen bien merecido! Ellos desaparecieron muy rápidamente, hace 65 millones de años, durante el Cretácico, después de 100 millones de años de dominar la Tierra. Con ellos dominaban también el plancton marino y las amenitas. Se han propuesto las hipótesis más disparatadas: pequeños roedores que se comían los huevos de dinosaurio; excesivo calentamiento de los testículos de esas grandes bestias; absorción de plantas alucinógenas hasta alcanzar una sobredosis; impacto de un cometa que desató una gigantesca nube de polvo y que oscureció el cielo, por lo que numerosas especies murieron de frío. Yo me inclino más bien por esta última hipótesis”.

Teoría que Gould retoma en uno de sus artículos mensuales que aparecen en Natural History, un trabajo que él lleva a cabo con paciencia desde hace años y que le permite difundir algunas hipótesis, refutar otras, recordar tal o cual página poco gloriosa de la historia de las ciencias o regresar a la inmensa y abundante obra de Darwin.  

“En francés ustedes dicen vulgarizar, nosotros decimos más bien popularizar. Pero vulgarizar también quiere decir hacer más vulgar. Yo se que en francés el término es más respetable de lo que parece a los ojos de los estadounidenses. Los franceses tienen una larga tradición en este campo. Pienso en Fabre, quien ha escrito con gran belleza acerca de los insectos, o en Rostand, quien ha tratado toda clase de temas de biología”.   

“Dentro de la tradición europea se podría llegar hasta Galileo, quien escribió sus grandes obras en italiano y no en latín, en forma de diálogos muy vivos, que toda la gente un poco letrada podía leer fácilmente. En los Estados Unidos los científicos son poco dados a la divulgación; tienen miedo a la simplificación y a la deformación o a ser absorbidos por la corriente del periodismo. La mayoría de los divulgadores tratan siempre de hacer la ciencia más fácil, yo no. Jamás busco reducir los conceptos. Deje las ideas en toda su complejidad, pero hago que los ejemplos, las demostraciones, las explicaciones, sean perfectamente accesibles. Para mi la ciencia no es diferente de otras actividades humanas. La ciencia es un hecho cultural, y al respecto, es mucho mejor que nos deshagamos de los mitos. Es por ello que en mis ensayos, en mis artículos, hay muchas criticas a científicos, tanto del pasado como del presente”.  

“En primer lugar, hay que cuidarse de tener modelos que pertenecen estrictamente a la ciencia. Por ejemplo, hay que distinguir entre la evolución biológica y la evolución social. En la evolución biológica los linajes separados jamás se vuelven a juntar, mientras que en la evolución cultural las uniones son el motor principal. La evolución social tiene un aire lamarckiano, ya que lo que adquirimos a lo largo de nuestra vida lo podemos transmitir, enseñárselo a nuestros hijos; lo cual no sucede en la evolución biológica”. 

Pero las desviaciones de la ciencia no son solamente algunas oscuras especulaciones metafísicas esparcidas a lo largo de la caótica historia. Han existido abusos monstruosos, locas deducciones, sanguinarias utopías sancionadas por teorías científicas, que proclaman ser la verdad última.  

“En mi libro La falsa medida del hombre trate acerca de las diferentes formas de racismo científico. Por ejemplo, durante el siglo XIX se intentó medir la inteligencia por medio del tamaño del cráneo; en el siglo XX por medio de tests, es la misma historia solo que con otro modelo. No existe base científica para establecer diferencias raciales de este tipo.    

Más aún, no hay un algo unitario que se pueda llamar ‘inteligencia’. Pienso que todos los estudios —los de Broca en Francia, los de Lombroso en Italia, y los de tantos otros en Inglaterra o en Estados Unidos—, no eran fraudes deliberados, sino que los estudios eran llevados a cabo con prejuicios tan fuertes, que lo que se deseaba encontrar se encontraba. Los tests de nuestra época no son la medida de una entidad biológica. Éstos no hacen más que reflejar la habilidad cultural y las diferencias de calidad entre diferentes colegios”.   

Las polémicas acerca del CI (Coeficiente Intelectual), la herencia de la inteligencia y su división social, continuarán seguramente todavía por largo tiempo. Mientras tanto, algunas ideologías más sutiles han aparecido dentro de la investigación científica, cuyas conclusiones no son meaos inquietantes. Gould ha tenido la oportunidad, en varias ocasiones, de reaccionar a las teorías de los “sociobiólogos”.   

“La sociobiología es una teoría ultradarwiniana. Según ella, todos los aspectos del comportamiento humano son adaptaciones biológicas, desde la perspectiva de una evolución darwiniana, concebida como una lucha de la especie por el éxito de la reproducción. Son nuestros genes los que dirigirían el juego, de donde se desprende la agresión, las rivalidades, la lucha sexual. Yo piense que la flexibilidad del comportamiento es tan grande en nuestra especie, que esos comportamientos que los sociobiológos se empecinan en interpretar como inducidos por la supervivencia de los genes, no son en verdad más que los múltiples aspectos culturales de las diferentes sociedades. El jefe de esta escuela, E. O. Wilson, es un famoso especialista en hormigas. Las hormigas son animales muy simples, cuyas acciones son determinadas genéticamente y que casi no tiene flexibilidad en su comportamiento. No se puede extrapolar esto al hombre, el cual tiene una gran diversidad de respuestas de acuerdo a la sociedad”.

Hurgar en los archivos, en los expedientes mal cerrados de la historia de las ciencias, trae a veces sorpresas. Gould ha consagrado varios artículos a un celebre fraude: el hombre de Piltdown. Un cráneo de hombre con los dientes limados, al cual le fue añadida una quijada de gorila, fue teñido con bicromato y depositado en una mina de arena en Inglaterra. Su descubrimiento causó sensación en la víspera de la Primera Guerra Mundial, periodo de intensa rivalidad entre Francia e Inglaterra. El hombre británico de Piltdown, sacaba del escenario a les esqueletos franceses descubiertos en abundancia en diversos sitios famosos. Por medio de un cuidadoso análisis de la correspondencia entre los investigadores, así como de diversos indicios, Gould llegó a sospechar de Theillard de Chardin, el más celebre de los jesuitas después de Ignacio de Loyola.

“Theillard se encontraba en Piltdown. Era estudiante en el colegio de jesuitas que no estaba lejos. Hizo excavaciones con Dawson. No creo que él mismo haya hecho la superchería, pero una gran cantidad de indicios parece mostrar que él fue cómplice. Quizá se trataba de mitificar a Arthur Smith Woodward, curador del departamento de paleontología del Museo Británico, a quien el cráneo fue llevado primero. Theillard tuvo que ir a Francia y después fue movilizado como camillero. Pasaron los años de la guerra. En ese tiempo murió Dawson y el cráneo de Piltdown fue tomado en serio durante cuarenta años por muchas personas. Aunque hay que reconocer que algunos nunca quisieron creer en él. El mismo Theillard, posteriormente, casi no volvió a mencionarlo. Quizás participé en una broma inocente y después, al convertirse en un renombrado paleontólogo, no se atrevió a tocar el punto”.  

Los artículos que Gould dedicó a este asunto causaron fuertes respuestas. De otra dimensión es la polémica con los “creacionistas”. En 1925 un profesor de Tennessee, John Scopes, fue llevado ante el tribunal por haber enseñado la teoría de la evolución. El “proceso del mono”, como fue llamado, terminó con la condena del indecente profesor. Recientemente los “creacionistas” reatacaron en varios estados del Sur, exigiendo que en las escuelas fuesen enseñadas las verdades bíblicas —es decir, que el mundo fue creado por Dios en seis días. Incluso el gobernador de Arkansas firmó un acta de “estricta neutralidad entre las dos concepciones”. El estado de Luisiana lo siguió y una campaña del mismo tipo tuvo lugar en California. Gould, quien había atacado a los creacionistas en un artículo que provocó mucho ruido, publicado en Discovery (mayo de 1981), fue uno de los testigos estelares del proceso de Little Rock, Arkansas, en diciembre de 1981. El juicio final reconoció que el creacionismo era una religión y no una ciencia.  

“Los movimientos creacionistas son muy fuertes en Estados Unidos, y pienso que en Francia no pueden comprender esto”.     

En Estados Unidos existe una pluralidad de religiones. Los fundamentalistas piensan que todas las palabras de la Biblia son estrictamente verdaderas. Eva salió de la costilla de Adán. El mundo tiene seis mil años. Dios hizo el mundo en seis días, y así. Las iglesias fundamentalistas tienen un poder inmenso. Hacen enormes esfuerzos por imponer sus puntos de vista y por tener una legislación que haga que el creacionismo sea enseñado en la misma proporción que la evolución”.  

“No se trata de un debate intelectual, no es más que un problema político. Nosotros logramos convencer en Arkansas, y finalmente, el año pasado, la Suprema Corte de los Estados Unidos decidió cerrar un debate iniciado en la década de los veintes con el proceso Scopes, declarando que la enseñanza del creacionismo en los cursos de ciencias, era contrario a la constitución americana, la que afirma la neta separación entre Iglesia y Estado”.

Un día, para justificar la diversidad de sus crónicas en Natural History, Gould declaro: “Siempre tanto, por medio de leyes generales, las pequeñas cosas de la vida”.

Su método, que le permite ligar la más profunda investigación con el periodismo, la teoría con las cosas de la vida cotidiana, el pasado con las especulaciones sobre el futuro inmediato, lo privado con lo universal, ha hecho de él un hombre que crea opinión. Uno siempre espera que él tome posición respecto a todo; jamás decepciona. De la misma forma, la ciencia no se encuentra separada de otros —campos de la cultura: Shakespeare, Joyce, Dante, se ven asociados a las sabias disgresiones de Gould. Y la actualidad más terrible es siempre un campo de exploración fecunda. Acerca del SIDA dice:

“El desarrollo de un microorganismo es una cosa natural. No hay ningún mensaje en su extensión. La ciencia nos ha enseñado que el SIDA actúa de acuerdo a un mecanismo que nosotros podemos descubrir”.  

Afectado en el intestino por un cáncer particularmente agresivo, Gould peleó y ganó. Es lo que aconseja hacer con el SIDA:   

“La victoria no esta determinada por ningún principio de progreso, eslogan o tecnología, por lo que debemos pelear a muerte y ser vigilantes. No hay mensaje alguno, solo mecanismo”.    

Todas estas luchas, estas investigaciones podrían ser vistas, a fin de cuentas, como una viva ilustración del darwinismo.

“No creo que Darwin será refutado. Encontraremos una mejor teoría que será un darwinismo más profundo, como Einstein engloba hoy a Newton. Pero el fondo, la idea central del darwinismo, es uno de los grandes motores de la ciencia. Mientras tanto, yo creo que hay que continuar enseñándolo”.

 articulos
 
     
Referencias bibliográficas

Entrevista aparecida en la resista LIRE. No. 151, 1989. Traducción Cesar Carrillo T.



     
       
____________________________________________________________
     

Alain Jaubert

como citar este artículo

     

 

orión        
 
  menu2
PDF    →
            R170B04 

Estrellas enanas cafés

Colaboración: Julieta Fierro
   
   
     
                     

Las estrellas, que no son más que soles vistos a gran distancia, poseen masas muy variadas: las hay cientos de veces más masivas que el Sol y de hasta una sexta parte de la masa de éste.    

La diferencia entre una estrella y un planeta, es que la primera produce luz propia mientras que el planeta brilla por reflexión. Para poder emitir luz, la estrella requiere de una masa mínima, por debajo de la cual no logra realizar reacciones termonucleares en su centro y por consiguiente no logra encenderse. Júpiter, por ejemplo, que es 80 veces menos masivo que el Sol, está justamente en la frontera entre ser un planeta y una estrella. Probablemente recién formado brillaba con luz propia, pero debido a su masa tan baja, su presión y temperatura centrales no son lo suficientemente elevadas para seguir desencadenando las reacciones nucleares que lo harían brillar.

La evidencia a favor de que Júpiter fue estrella es indirecta. De las cuatro grandes lunas de Júpiter, la más cercana, Io, esta desprovista de una gruesa capa de hielo y es más pequeña que las demás. Se cree que si Júpiter llegó a ser estrella durante unos cuantos miles de años pudo haber evaporado la capa de hielo de Io.

Cuando se realizan conteos estelares, se encuentra que existen muy pocas estrellas masivas y muchas estrellas poco masivas: hay cientos de estrellas de la masa del Sol por cada estrella muy masiva. Asimismo, existen cientos de estrellas menos masivas que el Sol por cada estrella como nuestro astro. De continuar esta tendencia se esperaría que hubiera miles de cuerpos parecidos a Júpiter por cada Sol; pero desde luego éstos no son brillantes y por consiguiente son muy difíciles de detectar.

Se cree que existen cuerpos celestes que tienen masas de una decima de la masa del Sol y se les denomina estrellas enanas cafés. Se piensa que de haber brillado, solamente lo habrían hecho durante unos cuantos miles de años, como Júpiter, pero que deberían de ser muy abundantes.

Sin embargo, la búsqueda de estrellas enanas cafés ha resultado infructuosa hasta el momento. Entre más brillantes, cercanos, abundantes y de vida larga sean los cuerpos celestes, son más fáciles de descubrir. Las enanas cafés son débiles y brillan muy poco, aún cuando se considera que deberían ser muy abundantes.

Principalmente se han buscado enanas cafés en la vecindad de estrellas con planetas como el Sol, que tiene muchos cuerpos asociados (planetas, lunas, asteroides, cometas, anillos). Sin embargo, estas búsquedas han resultado infructuosas.

Recientemente el Dr. Forest, de la Universidad de Arizona, reportó haber encontrado enanas cafés que todavía están en etapa luminosa, en las llamadas nubes del Toro, que son regiones de reciente formación estelar. Es decir, él piensa haber descubierto cuerpos del tamaño de Júpiter que todavía son brillantes. El Dr. Forest buscó estrellas muy rojas de campo, en lugar de buscar estrellas enanas cafés asociadas a estrellas de tipo solar. De ser cierto el descubrimiento del Dr. Forest, finalmente se habrán descubierto algunas de las cientos de miles de millones de estrellas faltantes.

  articulos

     
_____________________________________________________________
     
Julieta Fierro      
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

R17Articulo2   menu2 índice 17
siguiente
anterior
PDF→                                                                       
   
   
Montgomery Slatkin      
               
               

El objetivo general de la genética es entender el papel que las diferentes fuerzas tienen en la evolución de caracteres fenotípicos. Las principales fuerzas son la selección natural, la deriva génica, la mutación, la recombinación y el flujo génico. Recientemente, los biólogos moleculares han descubierto nuevas fuerzas de evolución génica tales como la transposición y la conversión génica. Sin embargo, aún no se sabe si estas fuerzas son importantes en la evolución de caracteres observables o no.

En esta ocasión voy a centrarme en el flujo génico como una fuerza evolutiva. Siempre que hay movimiento de genes de una parte del área de distribución de una especie a otra hay flujo génico. Un tipo de flujo génico opera cuando individuos de una población se mueven a otra. Este es el tipo de flujo génico que ocurre en una especie con poblaciones estables que persisten durante largos periodos de tiempo. Existen otros tipos de flujo génico que ocurren cuando se establecen poblaciones nuevas. En muchas especies, incluyendo malezas y especies parasitas, las poblaciones no persisten durante largos periodos de tiempo; por el contrario, hay una extinción constante de poblaciones y una colonización por nuevas poblaciones. El flujo génico puede ocurrir durante la colonización por nuevas poblaciones, porque los genes de una población que ha colonizado recientemente pueden ser una mezcla de los genes de otras dos poblaciones o más. Durante la expansión geográfica de una especie también hay flujo génico. Tanto la colonización como la expansión de los rangos de distribución de las especies, so motivo de estudio para los ecólogos, más que para los biólogos evolucionistas. Es por lo que estas dos formas de flujo génico son ignoradas ocasionalmente.

CONSECUENCIAS GENETICIAS DEL FLUJO GENICO

El flujo génico tiende a reducir las diferencias genéticas entre poblaciones locales. Qué tanto se reducen las diferencias génicas entre las poblaciones, depende de la fuerzas que están actuando para causar diferenciación entre las poblaciones locales. La selección natural que favorece la adaptación local en diferentes condiciones ambientales locales, va a tender a actuar en favor de alelos diferentes en un locus genético, si dichos alelos causan adaptaciones locales. Si no existe flujo génico, habrán diferentes alelos en diferentes localidades. J. B. S. Haldane fue el primero en preguntarse cuanto flujo génico era necesario para prevenir la evolución de adaptaciones locales. Este autor examina el siguiente ejemplo que ilustra el resultado principal: supongamos que en una determinada población un alelo de un locus particular tiene una adecuación de 1 1 s en relación a otro alelo, pero que en cada generación una fracción m de esta población es sustituida por inmigrantes de una población en la que el alelo desventajoso se encuentra fijo. Haldane demostró que la frecuencia en equilibrio del alelo desventajoso es aproximadamente 1 2 m / s si m , s y 0 si m . s. En otras palabras, solamente en los casos en que la tasa de inmigrantes sea menor a la intensidad de selección podrán haber adaptaciones locales. Se ha obtenido el mismo resultado con modelos más realistas y generales.

En la ausencia de flujo génico, la deriva génica conducirá también a diferencias locales en las frecuencias alélicas. En 1931, Sewall Wright propuso un modelo simple del balance entre el flujo génico y la deriva génica. Este autor asumió la existencia de un gran número de poblaciones locales, cada una de ellas con N individuos, y asumió que en cada generación una fracción m de individuos eran reemplazados por un conjunto de individuos, escogidos al azar del resto de las poblaciones. Este es el famoso “modelo de islas” para la estructura poblacional. Se le conoce con ese nombre, porque se puede considerar que cada población se encuentra en una isla de un gran archipiélago: Wright demostró que la varianza entre las poblaciones para la frecuencia de un alelo, σp2, es aproximadamente:

(Fórmula 17)

donde p es la frecuencia alélica promedio en la población. Si 4Nm es mucho mayor que uno, σp2 es pequeña, lo que implica que hay poca diferencia genética entre las poblaciones. Si 4Nm es mucho menor que uno, σp2 es casi p(1 - p), lo que implica que la frecuencia alélica en la población es uno o cero.    

Como hemos visto, el flujo génico interactúa de manera diferente con la selección natural que con la deriva génica. En el caso de la selección natural el resultado depende del cociente s / m, y en el caso de la deriva génica el resultado depende del producto Nm. Por esta diferencia, es imposible decir si el flujo génico es importante o no en una especie particular. La respuesta dependerá de que otras fuerzas evolutivas se consideran. Dada una tasa de inmigración m los alelos de loci fuertemente seleccionados a favor (valores altos de s), tendrán altas frecuencias, aún si las tasas de flujo génico son elevadas, mientras que en las mismas poblaciones, las frecuencias de alelos de loci neutrales o de aquellos con coeficiente de selección bajo, estarán determinadas primordialmente por el flujo génico de otras poblaciones.

EL FLUJO GENICO COMO FUERZA EVOLUTIVA

La dificultad teórica de decidir la importancia relativa del flujo génico en cada especie, no ha impedido que los biólogos evolucionistas argumenten acerca de la importancia global del flujo génico. Como en la mayoría de las áreas de la biología evolutiva, también en este tema existen dos opiniones extremas. La primera de ella es que el flujo génico es una fuerza importante en casi todas las especies. Ernest Mayr, en su libro Especies animales y Evolución (1963), sostiene que el flujo génico entre las poblaciones de una misma especie, provoca que éstas estén generalmente ligadas entre si y conformen una sola unidad evolutiva. Mayr argumentaba que la interrupción del flujo génico es el primer paso hacia la formación de especies distintas, lo que constituye la teoría de “especiación alopátrica”. En este sentido, Mayr continuaba la tradición de Darwin, quien enfatiza la importancia del aislamiento para la formación de nuevas variedades y de nuevas especies. En libros posteriores, Mayr ha cambiado de opinión, pero aún se pronuncia a favor del flujo génico.

La visión contraria sostiene que el flujo génico no es importante para determinar las frecuencias génicas de la mayoría de las poblaciones, en casi todas de las especies. En 1969 Paul Ehrlich y Peter Raven publicaron un artículo trascendente en Science, en el que se manifestaban en contra de lo que en aquel tiempo era la visión ortodoxa de Mayr. Ehrlich y Raven afirmaban que la mayoría de los trabajos de campo demostraban que era poco frecuente que los individuos se dispersaran distancias largas, demasiado raro como para que el flujo génico causado por la dispersión fuera importante. El ejemplo de la mariposa Euphydryas editha, que Ehrlich ha estudiado extensivamente, fue uno de los que utilizaron en su artículo. Ehrlich estudio varias poblaciones de esta mariposa y encontró que, aún cuando las mariposas tenían la capacidad de volar a grandes distancias, raramente se movían de una población a otra que se encontraba a solamente 100 m de distancia. Además, encontró que las épocas reproductivas eran distintas entre las poblaciones y esto impedía que las mariposas que lograban llegar a otras poblaciones se reprodujeran. Con base en estas observaciones Ehrlich concluyó que en esta especie, que se encuentra en gran parte del Suroeste de los Estados Unidos, el flujo génico no podría ser importante en lo absoluto.

La pregunta de qué tan importante es el flujo génico en las poblaciones naturales es interesante en sí misma. Es importante también para entender el papel potencial de otras fuerzas evolutivas. Si las poblaciones no están ligadas entre sí por flujo génico, entonces es necesario recurrir a explicaciones alternativas, para poder entender la similitud morfológica de poblaciones de la misma especie, en diferentes regiones geográficas. Si en efecto, el flujo génico no está operando en las poblaciones de la mariposa, tal como argumenta Ehrlich, entonces ¿que fuerzas están determinando que las mariposas de diferentes poblaciones sean tan parecidas? ¿Acaso la selección natural favorece el mismo fenotipo en diferentes localidades o existen “restricciones de desarrollo” que impiden el cambio morfológico bajo diferentes circunstancias?

METODOS PARA ESTIMAR EL FLUJO GENICO

Existen dos formas generales para estimar el flujo génico en poblaciones naturales: métodos indirectos y métodos directos. Los métodos directos implican observaciones detalladas de la especie. En algunas especies es posible observar el movimiento de adultos individuales o de semillas, o es posible marcar individuos y recapturarlos después de que ha ocurrido la dispersión. Ehrlich pudo marcar a los individuos y después encontrar la fracción de ellos que se había movido entre poblaciones. En otras especies es posible introducir algún alelo raro, como un carácter dominante que se expresa en un carácter claramente observable, como un color raro, y luego se puede seguir el movimiento de este alelo por la población. Técnicas moleculares modernas, tales como la secuenciación de ADN y las huellas genéticas, permiten la asignación de paternidad en algunas especies, y por lo tanto, permiten calcular las distancias de dispersión de la progenie.

Por otro lado, un método indirecto es aquel que utiliza observaciones de las frecuencias alélicas u otras características medibles de las especies para deducir qué cantidad de flujo génico debe haber ocurrido para producir los patrones espaciales observados. Los métodos indirectos dependen de modelos matemáticos que predicen qué patrones se observarían en las diferentes tasas de flujo génico. Wright introdujo uno de estos métodos basándose en su modelo de islas. Wright definió FST como la cantidad de consanguinidad causada por las diferencias en las frecuencia génicas  entre las poblaciones y encontró que en un solo locus:

(Fórmula 18)

donde, como en la fórmula anterior, p y sp2 son la media y la varianza de las frecuencias alélicas entre poblaciones. Como mencioné anteriormente, Wright había predicho el valor de σp2 en equilibrio para el modelo de islas, de tal manera que pudo predecir el valor de FST que se esperaría para un locus neutral:

(Fórmula 19)

Un método indirecto para estimar Nm, se puede derivar calculando FST para una especie a partir del promedio y la varianza de las frecuencias alélicas y después resolviendo esta ecuación para encontrar:

(Fórmula 20)

Hay que notar que este método no estima el producto de Nm. Por el momento no hay ningún método indirecto para calcular m por separado.

El procedimiento para utilizar este método es simple. Un estudio de campo para una especie nos proporciona una tabla de frecuencia alélicas para varios loci, generalmente estudiados por medio de electroforesis Después se estima un valor de FST con el cual se pueda estimar Nm. Hay diferentes formas de estimar FST a partir de este tipo de tablas, pero generalmente todos los estimados deben dar valores muy similares de Nm. Los dos estadísticos utilizados más comúnmente son el estadístico Gst de Nei y el estadístico de Weir y Cockerham.

Yo he desarrollado otro método indirecto que se basa en las frecuencias de alelos raros. Tiene propiedades muy similares al FST de Wright, y por lo tanto, los voy a analizar conjuntamente. Para que estos métodos sean precisos deben proporcionar estimaciones de Nm también precisas para diversas condiciones. Las poblaciones hacen caso omiso de las suposiciones de los matemáticos y por lo tanto no se ajustan a los modelos idealizados que se proponen: no se encuentran en islas que permitan el flujo génico a tasas iguales entre todos los pares de islas; no son todas del mismo tamaño ni permanecen siempre del mismo tamaño. Más aún, es muy poco probable que todos aquellos loci que se puedan muestrear sean completamente neutrales. Para que cualquier método indirecto proporcione estimaciones precisas de Nm no debe ser demasiado sensible a desviaciones de los supuestos en los cuales esta basado.

METODOS INDIRECTOS DE Nm

En los últimos años me he dedicado a investigar si es posible obtener estimaciones precisas de Nm a partir de valores de FST y de los alelos raros. Mi enfoque para resolver este problema se basa en el uso de simulaciones de flujo génico, deriva génica, mutaciones y selección natural. Utilizo estos modelos de simulación para derivar datos hipotéticos, a los cuales se les pueden aplicar diferentes métodos indirectos de estimación de flujo génico. De esta forma puedo evaluar la validez de los diferentes métodos, porque conozco el tamaño real de las poblaciones y las tasas de migración que han generado las frecuencias alélicas. No voy a describir todo este trabajo con detalle, pero voy a presentar algunos de los resultados que he obtenido.      

La primera pregunta que me hice es si estos métodos son precisos cuando las poblaciones satisfacen las suposiciones a partir de las cuales fueron derivados. Simulé poblaciones asumiendo una estructura de islas en la que cada población tenía N individuos. Asumí que en cada generación una fracción m de cada población era sustituida por individuos escogidos al azar del resto de las poblaciones. En cada generación, cada gene tenía una probabilidad m de mutar. También partí de que todos los alelos eran neutrales. Posteriormente asumí que 25 individuos se escogían de 10 de las poblaciones escogidas al azar y que se les aplicaban diferentes métodos indirectos para estimar Nm. Estos tamaños de muestra son los que generalmente se utilizaban en estudios de campo.     

Se muestran algunos resultados en la Tabla 1. En esta tabla se han utilizado tres métodos diferentes. Utilicé dos métodos para estimar FST, la Gst de Neri y Weir y la u de Cockerham, y utilicé mi método que usa las frecuencias de los alelos que se encuentran sólo en una de las poblaciones que se muestrean, p(1). Si el valor de Nm está cerca de uno, cualquiera de estos métodos proporciona estimaciones precisas de Nm. Para valores de Nm muy pequeños, los tres métodos sobreestiman a Nm por un factor de 2. Para valores muy grandes de Nm mi método y el de Gst tienden a subestimar un poco a Nm, mientras que a u lo sobreestima mucho.   

Estos resultados muestran que el uso de estos métodos indirectos presenta problemas estadísticos no anticipados, pero funciona bien para parámetros de mucho interés. Indican de manera bastante precisa si el flujo génico es más fuerte o más débil que la deriva génica, aunque la precisión disminuye a medida que la diferencia en la magnitud de las fuerzas se hace más grande.

La siguiente pregunta es si los estimadores indirectos se vuelven menos precisos cuando la selección natural actúa sobre estos loci. Para responder a esta pregunta asumí en mis simulaciones, que cada heterocigoto tenía una adecuación relativa de 1 1 s con respecto a todos los homócigos. Se muestran algunos resultados en la Tabla 2. Si s es positiva, la selección tiene un efecto muy pequeño y si es negativa hay una tendencia a sobreestimar a Nm. Por lo tanto, si sólo se utiliza alguno de estos métodos, se pueden obtener estimaciones sesgadas de Nm, en el caso en que haya habido presiones de selección. Sin embargo, para que dicho sesgo fuese importante todos los loci muestreados deberían ser afectados por selección en la misma dirección; y esto es muy poco probable. Por la misma razón la selección que varía geográficamente y que produce clinas en la frecuencia alélica, es poco importante como fuente de sesgo.

La tercera pregunta se refiere al efecto de algún tipo de estructuración geográfica en la colección de poblaciones locales. El modelo de islas presenta el extremo de flujo génico a larga distancia. Los individuos nacidos en cada una de las poblaciones pueden llegar a otra cualquiera con la misma probabilidad. En el extremo contrario, supongamos que las poblaciones locales se encuentran en un arreglo bidimensional en que el flujo génico ocurre solamente entre las poblaciones adyacentes. Este es el modelo de migración de “stepping stone”, que representa el extremo inferior de las distancias de migración. Yo utilicé este modelo de migración en mis simulaciones para averiguar cómo las estimaciones de Nm dependen de los valores de Nm y de las localidades muestreadas. Asumí que se muestreaban 9 poblaciones de un arreglo cuadrado con k poblaciones entre las parejas de poblaciones más cercanas de las muestreadas.

La Figura 1 muestra cómo los estimados de Nm dependen de k para cada valor particular de Nm. Encontré que cuando k es grande, se obtienen estimaciones precisas, pero la Nm se tiende a sobreestimar cuando k es pequeña. La conclusión es que se tiende a sobreestimar a Nm cuando se consideran únicamente poblaciones cercanas.

METODOS DIRECTOS E INDIRECTOS   

Tanto los métodos directos para estimar el flujo génico, como los indirectos, tienen ventajas y desventajas. Los métodos directos tienen la ventaja de observar la dispersión y saber bajo qué condiciones ecológicas opera. Estos métodos tienen la desventaja de estar restringidos, tanto en tiempo, como en espacio. El área geográfica en la cual se puede observar la dispersión, es generalmente una fracción pequeña del rango de distribución de las especies. Los individuos que se dispersan fuera de dicha área no son considerados. Generalmente se estudia la dispersión únicamente para una o dos temporadas reproductivas, pero la dispersión a larga distancia puede ocurrir esporádicamente y no ser detectada por estudios de corto plazo. Además, los métodos directos únicamente se llevan a cabo durante épocas consideradas como típicas o normales para una especie. Sin embargo, pueden ocurrir dispersiones a larga distancia, únicamente durante épocas excepcionales, tales como huracanes, grandes tormentas e incendios.

Los métodos indirectos tienen la ventaja de que en ellos las estimaciones de flujo génico de las tasas promedio son para muchos años, no solamente para una o dos generaciones. Por lo tanto estiman la tasa promedio de dispersión y no la tasa durante un periodo particular. Tienen la desventaja de que dependen de modelos matemáticos que no se pueden probar independientemente. Yo creo que no es correcto decir que un tipo de método es mejor que otro. Cada uno de ellos proporciona diferente tipo de información, y la comparación de resultados al aplicar ambos métodos puede proporcionar alguna visión acerca de las especies que se estudian.

APLICACIONES

Voy a discutir brevemente un ejemplo de una especie a la cual se le aplicaron ambos métodos (directo e indirecto). Es la especie que ya he mencionado: la mariposa de Ehrlich. Sus estudios directos han mostrado convincentemente que la dispersión entre poblaciones es en realidad muy rara. Él también ha usado electroforesis para estimar las frecuencias alélicas de varios loci de la población de esta especie, por toda California. Yo he calculado el FST de estos datos y encontré que es aproximadamente 3.7. Este valor es muy grande para ser consistente con las observaciones de Ehrlich.   

La diferencia entre las conclusiones del método directo e indirecto es importante, yo pienso, ya que nos dice algo muy útil acerca de esta especie. En el momento actual no hay esencialmente flujo génico. Sin embargo, hubo flujo génico en un pasado muy cercano, ya que su efecto todavía esta presente. La explicación más probable de esto es que la especie ha pasado por un rango de expansión reciente durante algunos años, probablemente durante alguno de los periodos en los que el valle de California tenía una mayor precipitación.    

Algunas otras especies muestran diferencias entre los métodos directos e indirectos. Dobzhansky y Wright llevaron a cabo un estudie directo de dispersión con la mosca de la fruta, Drosophila pseudoobscura, en el oeste de los Estados Unidos y encontraron que la dispersión ocurrió a través de unos cientos de metros; sin embargo, la especie es genéticamente uniforme en un rango de cientos de kilómetros.

No todas las especies, muestran estas diferencias. El mejillón Mytilus edulis, tiene larvas que pueden flotar en el océano por varios meses antes de establecerse. Aunque no es posible llevar a cabo un estudio directo de dispersión de esta especie, es razonable asumir que las distancias lejanas de dispersión de las larvas son frecuentes. Mi análisis de frecuencias alélicas de esta especie, confirma que las tasas de flujo génico son altas. En contraste, hay varias especies de salamandras en donde los estudios directos de dispersión muestran que ésta es muy rara y en los cuales los valores de mis estimadores indirectos de Nm son mucho menores que uno.

CONCLUSION

Finalmente, mi conclusión personal es que hay métodos indirectos útiles para estimar la tasa de flujo génico en poblaciones naturales. Estos métodos, combinados con información obtenida de métodos directos, son útiles para determinar si las similitudes genéticas en las poblaciones reales son debidas al flujo génico real o a la dispersión pasada y el rango de expansión.

La aplicación de estos métodos a los datos obtenidos en las poblaciones naturales, muestran que algunas especies no están en equilibrio genético. En lugar de esto, parece que los eventos históricos han ocurrido como una expansión de rango reciente y que la historia actual es responsable principalmente de la distribución espacial actual de las frecuencias génicas. No está claro si esta situación es típica de muchas especies, porque ha habido muy pocos estudios de campo en los cuales se puedan obtener los valores de los estimadores directos e indirectos del nivel de flujo génico.

    Tabla 1
 m(4Nm)  p(1) θ   GST
0.001(0.512)  1.31(0.53) 1.80(0.92) 1.85(0.85)
0.01(5.12)  5.61(0.32) 6.73(0.40) 6.36(0.35)
0.1(51.2) 33.3(0.10) 289.1(0.90) 43.82(0.09)
Estimaciones de 4Nm usando diferentes métodos, como datos simulados para el “modelo de islas” de estructura de población. Para el modelo de alelos infinitos, se corrieron 10 juegos de 10 réplicas. Los números entre paréntesis son los coeficientes estimadores que se discuten en el texto, basándose en los mismos datos: p(1) indica que se usó la frecuencia promedio de alelos privados; u indica que se usó el estimador de FST de Weir y Cockerham (1984); y Gst indica que se usó el estimador de FST de Neri (1973). En todos los casos hubo 100 demos con 128 individuos por demo. Las muestras de 25 individuos se tomaron de 10 demos escogidos al azar.

 

    Tabla 2
 m(4Nm) s  p(1) θ  GST
  0 5.31(0.22)  6.93(0.21)  6.60(0.19)
 0.01(5.12)  +0.01 9.46(0.50) 10.95(0.77) 9.10(0.61)
  -0.01 5.01(0.24) 6.20(0.15) 5.99(0.14)
         
  0 31.689(0.09) 154.53*(0.31)  42.18(0.15)
0.1(512) +0.01 33.70(1.25) 44.18(0.20) 44.18(0.20)
  -0.01 24.26(0.10) 228.68(0.37) 44.00(0.06)
         
  0 0.94(0.24) 1.33(0.31) 1.41(0.31)
0.001(0.512) +0.01 1.57(0.60)  1.45(0.76)  1.52(0.72)
  -0.01 0.48(0.16) 1.00(0.13)  1.07(0.04)
Estimados de 4Nm, usando diferentes métodos con datos simulados para el “modelo de islas” de estructura de población. En todos los casos se corrieron 10 juegos de 10 réplicas. Los números entre paréntesis son los coeficientes de variación de los estimadores de 4Nm. En todos los casos d 5 100, dsam 5 10, N 5 128, Nsam 5 25, y se usó el modelo de alelos infinitos de mutación con u 5 0.0001.
* Se ignoró una estimación negativa de Nm.     
 articulos
 
     
Referencias bibliográficas

Conferencia impartida en la Facultad de Ciencias, UNAM, el 10 de julio de 1989. 

     
       
____________________________________________________________
     

Montgomery Slatkin
Universidad de California en Berkeley, EU.

como citar este artículo

     
R17Articulo5   menu2
PDF→                                                                       
   
   
Luis E. Acevedo Gómez
     
               
               

INTRODUCCION

Hasta hoy, los riesgos de una guerra nuclear han sido calculados convencionalmente por media del número de muertes humanas en ambas lados del conflicto al final de la batalla, tomando en cuenta ejércitos y no combatientes. Los términos “aceptable” y “no aceptable”, significando ciertos millones de bajas humanas, han sido usados para establecer juicios justificados en favor de la necesidad de fabricación de nuevos y más precisos sistemas de armas. Hoy las cosas son diferentes. Dejemos a un lado el hecho de que en un holocausto nuclear (uso de todas las armas) de, digamos, 5000 megatones, morirían alrededor de 1000 millones de seres humanos debido a la onda de choque, al calor y a la radiación. Dejemos a un lado el hecho de que más de 1000 millones adicionales morirían luego debido a los efectos retardados sobre sistemas de soporte de vida y lluvia radiactiva.              

Algo adicional pasaría al mismo tiempo, por lo que el ser humano debería sentirse igualmente desgraciado que por la pérdida de su propia vida. El elaborado, coherente y bellamente organizado ecosistema de la Tierra (biosfera, naturaleza) sería mortalmente afectado. Algunas de sus partes persistirían y la vida en el planeta continuaría; pero quizá sólo a un nivel comparable con la que existía aquí hace un millón de años cuando los procariontes (criaturas como las bacterias de hoy en día) se unían en arreglos simbióticos e “inventaron” las células nucleadas de las cuales nosotros somos descendientes.

Hasta hace poco se había tendido a considerar el problema de una guerra nuclear como concerniente sólo a los adversarios que poseen las armas nucleares. El control de armamentos y las negociaciones interminables dirigidas hacia la reducción de explosivos nucleares eran vistas como responsabilidad sólo de las naciones en confrontación. Hoy ya todo esto ha cambiado. No existe nación en la Tierra que se encuentre libre de la amenaza de destrucción si dos naciones, o grupos de naciones, se involucran en un intercambio de misiles nucleares. Si la Unión Soviética y los Estados Unidos, junto con sus respectivos aliados, empezaran a enviar sus misiles más allá de un mínimo, aún no determinado, los países neutrales sufrirían los mismos efectos a largo plazo, las mismas muertes lentas de los participantes directos. Aún países situados en el hemisferio sur tendrían que preocuparse en la misma medida que, por ejemplo. Alemania Occidental, si un intercambio a gran escala sucediera en el norte.         

Hasta hoy en día se habían considerado los conflictos con armas nucleares como un esfuerzo entre adversarios por establecer dominio sobre territorios o ideologías. Con los nuevos descubrimientos es claro que cualquier territorio ganado se convertiría, a la larga, en territorio estéril, y cualquier ideología se desvanecería en la muerte de la civilización y la pérdida permanente de la memoria humana.        

La continua existencia y creación de armas nucleares, la proliferación contemplada de dichas armas en otras naciones que hoy carecen de ellas, y los esfuerzos detenidos e inútiles, de deshacerse de este peligro para la vida del planeta corresponden a otro orden de problemas diferentes al que parecía unos años atrás. Ya no es un asunto político propio de la sabiduría y consideración de unos pocos hombres de estado y militares, sino un dilema global que envuelve a toda la humanidad.             

Ya no existen alternativas que elegir, ni tampoco tiempo para discutir el asunto. Simplemente debemos deshacernos de una vez y para siempre de todas las armas que en realidad no son armas sino instrumentos de malevolencia pura. Según la situación, esté en peligro mucho más que la humanidad misma. Se esta arriesgando de una manera seria el concepto completo de vida. Esperamos que la humanidad entera, habiendo aprendido los hechos, pueda darse cuenta de lo que se deba hacer con todas las armas nucleares.

 EFECTOS DIRECTOS DE LAS ARMAS NUCLEARES

Los efectos directos debido a explosiones nucleares dependen de:

1. El diseño del artefacto nuclear.
2. La geografía exacta del lugar atacado.
3. Los materiales y métodos de construcción empleados en el lugar atacado.
4. Las condiciones climáticas (en especial la humedad en la atmósfera).   

Por tales razones esta discusión es esencialmente una generalización que esta sujeta a un dominio sustancial de variación e incertidumbre.

La energía de una explosión nuclear es liberada en un número de diferentes maneras:

1. La onda de choque, similar a la de una explosión química pero mucho más grande.
2. Radiación nuclear directa.
3. Radiación térmica directa, mucha de la cual es luz visible.
4. El pulso electromagnético.
5. La creación de una variedad de partículas radioactivas que son enviadas al aire en la explosión y se conoce como lluvia radiactiva cuando regresa a la tierra.  

La distribución de la energía en las formas anteriores depende del tamaño y diseño de la bomba, pero es posible una descripción general.   

Para hacer la descripción general sería bueno, ante todo, discutir el principio que interviene en el origen de la gran cantidad de energía liberada en una explosión nuclear. De acuerdo a la famosa ecuación desarrollada por Einstein

E = mc2

se relaciona el concepto de masa-energía, el cual establece que no podemos hablar de una de ellas independientemente de la otra. En otras palabras, a la masa se le asocia una cantidad de energía y viceversa. De dicha ecuación podemos conocer la cantidad de energía necesaria para crear una partícula de masa m, la cual es recuperable si podemos revertir el proceso.

La diferencia entre una explosión química y una explosión nuclear radica en que en la primera, la energía liberada proviene de la energía contenida en el enlace químico, mientras que en la segunda proviene de la energía necesaria para mantener el núcleo atómico ligado.

Hay dos tipos de reacciones nucleares de las cuales podemos derivar energía. Éstas son la fisión y la fusión. En la fisión se obtiene energía debido a la liberación de partículas energéticas al dividirse un núcleo atómico. En la fusión se obtiene energía debido a la liberación de partículas energéticas, pero esta vez por la unión de dos o mas núcleos atómicos. En el Sol ocurren procesos de fusión y son los responsables de radiar gran cantidad de energía por tanto tiempo. En el diseño de artefactos nucleares se utiliza uno solo o ambos de los principios mencionados.

ONDA DE CHOQUE

La energía generada por una explosión nuclear aumenta la temperatura a aproximadamente 107°C en un espacio esférico de un metro de diámetro. Como la liberación de la energía ocurre en una fracción de segundo, ésta misma no tiene tiempo para disiparse. Entonces se ejerce una fuerza tremenda en el aire adyacente a la esfera que empieza a expandirse a una gran velocidad. El mismo aire ejerce, entonces, una presión sobre el material de la bomba creando un equilibrio de fuerza que hace que este material se expanda a velocidad constante. Por lo tanto, el aire va a ser empujado a velocidad constante.

Como la velocidad del material de la bomba es mayor que la velocidad del sonido, el aire que se concentra en esta superficie se comprime creando lo que se conoce como la onda de choque. Como la materia es empujada hacia afuera de la explosión, la densidad detrás de la esfera de la onda de choque baja. Lo creado es un pulso como el que aparece en la figura 1 donde se puede deducir que lo que se experimenta es un golpe debido a la compresión, seguido de una descompresión. Los componentes dañinos a humanos y a edificios de la onda de choque son dos:

1. El pulso de la onda de choque.
2. Los vientos violentos que siguen después que pasa el pulso.  

Como medida del posible daño se utiliza el concepto de sobrepresión (presión sobre la presión atmosférica). El pulso de sobrepresión se mide en libras/pulgada2 (psi).

Para entrar en una discusión más cuantitativa es necesario establecer la diferencia entre una explosión aérea y una superficial. Una explosión aérea es aquella en la que la bola de fuego creada en la explosión no toca el suelo. Una explosión superficial es una en que la bola de luego sí toca el suelo. Según el daño que se quiera causar en el lugar atacado, se escoge una de estas dos alternativas. El área cubierta en una explosión aérea es mayor que en una superficial, por lo tanto, si se quiere arrasar con un área considerable, se hace detonar la bomba a una altura óptima más allá de la cual el daño no es tan grande. En cambio si se quiere destruir alguna instalación subterránea, como silos de misiles u otras, se utiliza una explosión superficial.

El análisis de efectos de la onda de choque se simplifica mediante el uso de una ley de escaleo (scaling) hidrodinámica. Para explosiones nucleares a cierto valor de sobrepresión dado se tiene que

D α Y1/3

Donde D es cierta distancia desde el centro de la explosión y Y se conoce como la explosividad de la bomba. En los estudios realizados se ha medido D en millas y Y en megatones. Un megatón es el poder explosivo contenido en un millón de toneladas de trinitrotolueno (TNT). De esta forma, la sobrepresión P es función sólo de un parámetro Z definido como

Fómula 22

Para explosiones de hasta el rango de megatones se ha usado el método de ajuste de cuadrados mínimos para ajustar los valores obtenidos en ensayos nucleares, y se ha obtenido que para explosiones superficiales la sobrepresión P esta dada por

P= 39.12 Z1.98 psi

y para explosiones aéreas

P= 111.5  Z3 + 28.8 Z3/2 psi

La aparición de dos términos en esta última ecuación se debe a que cuando la onda de choque originada por una explosión aérea toca el suelo, ésta se refleja. Debido a que el pulso reflejado pasa por una región donde ya ha pasado el pulso primario, y por lo tanto la densidad y temperatura son mayores que la del ambiente, este pulso reflejado se propaga más rápido que el primario. Entonces el frente reflejado alcanza al primario y se crea un frente de aproximadamente el doble de intensidad del pulso primario. Este nuevo frente se conoce como frente de Mach, y la región en la que éste fenómeno ocurre se conoce como la región de reflexión de Mach. En la región de reflexión ordinaria el pulso reflejado llega a un punto luego que el frente primario ha pasado y se experimentan dos máximos de sobrepresión.

Con las relaciones obtenidas para P, en ambos casos se tiene para expansiones superficiales

Fórmula 25

Donde R es la distancia terrestre del centro de la explosión en la cual se siente una sobrepresión P debido a una explosión de explosividad Y. Para explosiones aéreas

Fórmula 26

Donde H es la altura de la detonación.

La velocidad del pulso de la onda de choque está dada por

Fórmula 27

Donde P0 es la presión atmosférica, P la sobrepresión y C0 la velocidad del sonido en el ambiente. La velocidad de los vientos está dada por

Fórmula 28

La mayor parte del daño causado a ciudades por explosiones de alto megatonaje es debido a la onda de choque. Ésta produce cambios súbitos en la presión del aire (presión estática) que puede derrumbar edificios y provocar vientos huracanados (presión dinámica) que causan colisiones entre objetos sueltos entre los cuales se encuentran las personas. Por ejemplo, para una explosión aérea de un megatón a 4 millas (6 km) de distancia, la sobrepresión es de aproximadamente 5 psi la cual ejercería una fuerza de más de 180 toneladas sobre la pared de una casa típica de dos niveles y causaría vientos de 160 millas por hora (255 km/hr). Aunque una sobrepresión de 5 psi no mataría a una persona, un viento de 160 mph causaría colisiones fatales entre personas y objetos cercanos. La mayor parte de las muertes serían causadas por el derrumbe de edificios ocupados. Para tener una idea de los daños se incluyen estimados de vulnerabilidad de población para distintos valores de P en la tabla 1. En la tabla 2 se exponen los valores de velocidad del viento para distintos valores de P.

 
 TABLA 1.- Vulnerabilidad de Población en varias zonas de Sobrepresión. los principios usados en la construcción de esta tabla son relativamente conservadores.

RADIACION NUCLEAR DIRECTA

Las armas nucleares infligen radiación ionizante sobre personas, animales y plantas en dos formas distinta. La radiación directa ocurre en el momento de la explosión; puede ser intensa pero su alcance es limitado. Por otro lado, la lluvia radiactiva está constituida por partículas que se vuelven radiactivas debido a los efectos de la explosión, y por lo tanto son distribuidas a varias distancias desde el punto de la detonación. Para armas nucleares de alta explosividad el alcance de la radiación directa es menor que el de la onda de choque o el del calor. Sin embargo, para el caso de armas más pequeñas, la radiación directa puede ser el efecto letal con mayor alcance. La radiación directa hizo un daño sustancial a los residentes de Hiroshima y Nagasaki.

La respuesta de un organismo a la radiación ionizante es sujeto de una gran incertidumbre científica y de una profunda controversia. Para entender los efectos de las armas nucleares se debe distinguir entre efectos a corto plazo y efectos a largo plazo, pero aún así se deben aclarar ciertos conceptos de dosimetría de radiación.

El paso de partículas cargadas, tales como rayos a, b, g y x a través de la materia (incluyendo el cuerpo humano) pueden ionizar átomos y moléculas y causar daño considerable. Para cuantificar la cantidad o dosis de radiación que pasa a través de la materia se utiliza el concepto de rad. Un rad es la cantidad de radiación que deposita una cantidad de energía de 10–2 Joules por cada Kg de material absorbente. Sin embargo, esta unidad de medida no es la más representativa del daño biológico producido por la radiación, debido a que dosis iguales de diferentes tipos de radiación producen diferente cantidad de daño. Se define, pues, la efectividad biológica relativa (RBE) o el factor de calidad (QF) de cierto tipo de radiación como el número de rads de radiación X o de radiación gama que produce el mismo daño biológico que un rad de la radiación dada.

Tabla 2. Valores de velocidad del viento a distintos valores de sobrepresión
 P (psi)  u (mph)  u (km/hr)
200 2 078  3 325
 150  1 777  2 843
 100  1 415  2 264
50   934  1 494
30   669  1 070
20  502    803
10   294    470
5   163   261
2    70   112

En la tabla 3 aparecen valores de factor de calidad para distintos tipos de radiación.

Tabla 3. QF para distintos tipos de radiación
Tipo de radiación  QF
rayos x y γ  ≈ 1
b (electrones)  ≈ 1
protones rápidos     1
neutrones rápidos  ≈ 3
neutrones lentos  hasta 10
particulas α  hasta 20

Definimos entonces la cantidad conocida como rem (rad equivalent man) como

rem = rad x QF,   

y por definición un rem de cualquier tipo de radiación produce aproximadamente el mismo daño biológico.

Una dosis de 600 rems por un periodo corto de tiempo (6 a 7 días) tiene 90% de probabilidad de causar enfermedad fatal causando la muerte en una semana. Entre la región 300-600 rems no se conoce el comportamiento de la curva de razón de muertes, pero se estima que una dosis de 450 rems por un corto tiempo causa la muerte a la mitad de la gente expuesta a ella. La otra mitad se enfermarían pero se recuperarían con el tiempo. Una dosis de 300 rems mataría el 10% de las personas expuestas. Una dosis de entre 250-450 rems causaría serias enfermedades de los que la gente se podría recuperar, pero estas enfermedades harían a la gente altamente susceptible a otras enfermedades e infecciones. Una dosis de entre 50-200 rems causaría náuseas y disminuiría la resistencia a otras enfermedades. Una dosis de 50 reina no causaría efectos a corto plazo.

Los efectos debidos a dosis bajas son a largo plazo y se miden estadísticamente. Si una población numerosa se expone a 50 rems de radiación, entre 0.4 y 2.5% de ellos contraería cáncer luego de varios años. También habrían efectos genéticos serios sobre una fracción de los expuestos. Dosis más bajas de 50 rems producen efectos menores. Se ha estimado, a grosso modo, que la distancia (en millas) a la cual una persona no protegida recibe una dosis D (en rems), debidos a una bomba de hidrógeno de explosividad Y (MT), esta dada por

Fórmula 29

RADIACION TERMICA DIRECTA

Aproximadamente 35% de la energía de una explosión nuclear se libera en forma de radiación térmica. Los efectos son análogos a los efectos debido a un destello de dos segundos de duración de una enorme lámpara solar. Como esta radiación viaja a casi la velocidad de la luz, ésta precede a la onda de choque por varios segundos, así como el relámpago precede al trueno.

Para calcular el daño causado por la radiación térmica, se considera esta como una bola de fuego y su daño se estima hallando la energía por unidad de área medida a cierta distancia de la explosión. Si no existe atenuación atmosférica, la energía térmica (E total) a una distancia D de la explosión, puede ser considerada como esparcida uniformemente sobre la superficie de una esfera de área igual 4p2D. La energía recibida por unidad de área de la esfera es, pues

Fórmula 30

Cuando se considera la absorción de calor por las partículas de la atmosfera y además la dispersión de la radiación, existe un factor de atenuación, y la ecuación se representa:

Fórmula 31

donde T, la transmitancia, es la fracción de radiación que se transmite y depende de la visibilidad, la absorción y la distancia. La energía total (E total) puede representarse como una fracción de la explosividad total de la bomba

ETotal = f Y

y por lo tanto

Fórmula 32

Utilizando el he o de que un megatón (1MT) equivale a una energía de 1015 calorías, y suponiendo una visibilidad de 40 millas (64 Km)1

Fórmula 33

donde Y está en MT y D en millas. Para una explosión superficial f es aproximadamente 0.18, y para una explosión aérea f es aproximadamente 0.35. Entonces para explosiones superficiales y aéreas respectivamente se tiene

Fórmula 34

y

Fórmula 35

donde R es la distancia a que ocurre cierta energía por unidad de área (Q) y H es la altura de la detonación de la explosión aérea.

El efecto dañino de la radiación térmica en la gente es de dos tipos: uno causado por la radiación incidente directamente sobre la piel y el otro por el contacto con un fuego iniciado por la radiación. La gravedad del primero depende de la duración de la exposición y la pigmentación de la persona. Entre 5 y 6 cal/cm2 recibidas por 10 segundos producirían quemaduras de segundo grado. Entre 8 y 10 cal/cm2 causarían quemaduras de tercer grado. Para una bomba de un megatón esta exposición se experimentaría a aproximadamente 8 millas de la detonación. La combustión de ropa, cortinas y otras tetas requiere de entre 20-25 cal/cm2, lo que ocurriría a aproximadamente 5 millas de la explosión. Quemaduras de tercer grado sobre el 24% del cuerpo, o de segundo grado sobre el 30% del cuerpo, producen un trauma serio y sería fatal a menos que se atienda con servicio medico especializado.

Por otro lado la luz visible produce ceguera temporal a las personas que miran en dirección de la explosión, y total o permanente si se enfoca la explosión a través de la pupila directamente a la retina, independientemente de la distancia a que se encuentre la persona del centro de la explosión. En una explosión que ocurra durante la noche el daño sería mayor debido a que la pupila se encuentra más abierta por la cantidad de luz en el ambiente.

La radiación termal debido a una explosión nuclear podría encender material combustible. Los fuegos de más probable propagación son causados por radiación térmica, la cual pasaría a través de ventanas e incendiaría camas y muebles dentro de las casas. Otra posible fuente de fuegos que causaría más daño en zonas urbanas sería el daño producido por la onda de choque tanto a circuitos eléctricos como a líneas de gas en edificios y casas.

El peligro de los fuegos mencionados anteriormente aumentaría en caso de que el fuego se propagara sobre un área mayor a la inicial. Los fuegos masivos podrían clasificarse en dos grupos:

1. Tormenta de fuego, en la cual vientos violentos entrantes a la zona de fuego crean temperaturas extremadamente altas, pero evitan la propagación del fuego hacia afuera.
2. Conflagración, en la cual el fuego se propaga a lo largo de un frente. Este último tipo de fuego dependería de la geografía del área, de la velocidad y dirección del viento, así como de los detalles de construcción de los edificios.

En una tormenta de fuego moriría, posiblemente, la gente en el área del fuego debido al calor, y de asfixia la gente en los refugios. La conflagración se propaga lo suficientemente lento como para que la gente pueda escapar, sin embargo podría matar a los heridos imposibilitados de caminar.

PULSO ELECTROMAGNETICO (PEM)

El pulso electromagnético es una onda electromagnética similar a las ondas de radio, que resulta de reacciones secundarias, las cuales ocurren cuando la radiación gamma nuclear es absorbida por el aire o el suelo. Difiere de las ondas de radios comunes en dos aspectos. Primero, crea campos eléctricos de mayor intensidad. Mientras una onda de radio produce una diferencia de potencial de aproximadamente una milésima de voltio cuando mucho en una antena, el PEM podría producir una diferencia de potencial de miles de voltios. Segundo, es un pulso sencillo que desaparece completamente en una fracción de segundos. Esto significa que éste es similar a la señal eléctrica del relámpago, pero la subida en voltaje es típicamente cien veces más rápida, por lo que mucho del equipo diseñado para proteger las instalaciones eléctricas de un relámpago trabajaría muy lento para proteger el equipo del PEM.       

Una explosión superficial produciría un PEM del orden de 104 voltios/metro a cortas distancias (dentro el alcance de los 10 psi de sobrepresión) y del orden de 103V/m a mayores distancias (región de 1 psi). Las explosiones aéreas producen menos PEM, sin embargo, explosiones de gran altura (sobre 19 millas, 30 Km) producen un PEM de gran intensidad con alcance de cientos o miles de millas.

No existe evidencia de que el PEM produzca daño físico a los humanos. El daño debido al PEM es mas bien sobre sistemas eléctricos o electrónicos, particularmente aquellos que están conectados a cables largos como líneas eléctricas o antenas. Las estaciones de radio son vulnerables no solo por la perdida de energía eléctrica, sino también por el daño a componentes electrónicos conectados a las antenas.

LLUVIA RADIACTIVA  

La radiación de importancia en las explosiones nucleares es de neutrones, rayos gamma, y en menor grado, partículas beta. La penetración de los rayos gamma y neutrones en el tejido animal es del orden de 20 cm, justo el alcance que causa el máximo daño al organismo. Si la penetración fuera de algunos milímetros o menos, la radiación sería absorbida en la superficie de la piel y no llegaría a los órganos vitales; si fuera de varios metros o más, mucha de la radiación atravesaría el cuerpo sin interactuar. Los rayos beta tienen una penetración de pocos milímetros y pueden causar efectos dolorosos en la piel si caen sobre ella. Las partículas radioactivas que emiten rayos gamma y beta (núcleos radioactivos creados por la fisión de la explosión) pueden causar daño serio si son inhalados o si penetran en la cadena alimenticia.   

Esencialmente todos los neutrones y mucha de la radiación gamma se producen en reacciones de fusión y fisión durante la misma explosión. La captura de neutrones por los residuos de la bomba y por el aire, tierra y/o agua alrededor produce radiación gamma adicional y una gran variedad de radioisótopos.       

Si la explosión es aérea y la bola de fuego no toca tierra, esta no es vaporizada y los fragmentos de fisión se elevan a la atmósfera. El material que se eleva se condensa en partículas pequeñas y éstas, se distribuyen, luego de un tiempo apreciable, sobre un área grande. En el caso de bombas de alta explosividad (más de un megatón), el material radiactivo se eleva a la estratósfera y es distribuido sobre una fracción alta de la superficie terrestre. El daño que pueda producir este material depende del tiempo de decaimiento o vida media del isótopo.    

Si la explosión es superficial, parte de la tierra es vaporizada y mezclada con los residuos de la bomba. Este material se eleva con el aire caliente. Al subir se enfría y se solidifica en partículas de gran variedad de tamaño. El tiempo que permanecen suspendidas en el aire depende de su tamaño. Las partículas más pesadas caen primero. Mientras permanecen en el aire son empujadas por el viento, en lo que descienden.     

Cuando se construye una bomba de hidrógeno para que produzca la máxima explosión posible, alrededor del 50% de su energía es debida a la fisión de uranio. Es posible eliminar la mayor parte del uranio en el diseño de dichas bombas, y aunque esto reduce el tamaño de la explosión, puede eliminar casi toda la lluvia radioactiva. Este artefacto se conoce como una bomba “limpia”.

Aunque la intensidad de radiación de cada núcleo radiactivo decae exponencialmente a razones diferentes, la mezcla de los diferentes isótopos produce radiación que esta dada aproximadamente por la relación.

Fórmula 36

donde I0 es la intensidad al tiempo t0. Esta ley produce una disminución de 0.1 en la intensidad, cada vez que t aumente por un factor de 7. Alrededor del 80% de la dosis se recibe el primer día, 90% la primera semana y el restante 10% se distribuye en un tiempo largo. Esta relación de decaimiento se cumple antes de un tiempo de seis meses después de la explosión. Luego de éste la radioactividad decrece más rápidamente.    

La cantidad de radiación recibida en un punto en el suelo se describe en términos de la razón a la cual un ser humano recibiría una dosis de radiación de rayos gamma, si estuviese situado en el punto. La distribución de radiación recibida se podría idealizar asumiendo una cierta velocidad constante del viento en una sola dirección y descartando la posibilidad de lluvia (agua). Siendo así, los patrones de distribución de la lluvia radioactiva tendrían forma más o menos elíptica, desplazada en la dirección del viento desde el centro de la explosión. En dichos patrones elípticos se pueden marcar contornos de dosis que las personas expuestas recibirían en cierto tiempo dado.

El área Af afectada por un contorno de radiación es el área cubierta por una dosis de intensidad D o mayor, para una bomba de explosividad Y. Esta se puede aproximar por la formula

Fórmula 37

Las constantes C, a, y b dependen de factores tales como el viento, el terreno, el por ciento de fisión de la bomba y la altura de la detonación; así también, en menor grado en la explosividad Y. Asumiendo una velocidad de viento de 15 mph (24 km/hr), terreno plano, 50% fisión, explosión superficial, y Y del orden de 1 MT las constantes son:

α = 0.032 MT/rem

β = 5.8 x 10-5 MT/rem

C = 1.6 x 105 millas2 rem/MT.

Con estos valores tenemos que

Fórmula 38

para el alcance amplio de valores entre Y/D igual a β y Y/D igual a α.

Por ejemplo el área Af sobre la cual el máximo daño biológico debido a una explosión de 1 MT excede 100 rems es

Fórmula 39

La tabla 4, resume los efectos médicos de la radiación en los humanos, en función de la dosis letal recibida.

SINERGISMOS-EFECTOS COMBINADOS

La discusión hasta aquí expuesta ha estado basada en los efectos de una explosión nuclear, considerando cada efecto por separado. Sin embargo, la realidad es que los daños debido a dos o más de los efectos anteriormente discutidos pueden ocurrir, aunque no existen métodos aceptados de calcular el efecto y la probabilidad de dichos daños. Lo que los datos tienden a sugerir es que los efectos aislados no son muy imprecisos en cuanto a muertes inmediatas, pero que las muertes que ocurran al cabo de un tiempo desde la explosión pueden deberse a los efectos combinados. Podríamos considerar tres casos:

1. Radiación nuclear combinada con radiación térmica. Las quemaduras graves exponen el sistema sanguínea a una tensión considerable y a menudo causan anemia. En experimentos con animales de laboratorio se ha comprobado que la exposición de una víctima de quemaduras a más de 100 rems de radiación, bloquearía la capacidad de la sangre para recuperarse de las quemaduras. Por lo tanto, una dosis subletal de radiación haría imposible la recuperación de quemaduras que, sin radiación, no causarían la muerte.

2. Radiación nuclear combinada con lesiones mecánicas. Las lesiones mecánicas, efectos indirectos de la onda de cheque, pueden ser de varios tipos. Objetos que vuelen pueden causar heridas sangrantes, huesos rotos, conmoción y heridas internas. Existe evidencia de que todo este tipo de lesiones se agravan si la persona ha sido expuesta a 300 rems e más de radiación, especialmente si la persona no es tratada medicamente. El daño en la sangre debido a la radiación hace a la víctima más susceptible a una pérdida de sangre e infecciones. El número de muertes inmediatas y no inmediatas aumentaría al considerar este sinergismo.

3. Radiación térmica combinada con lesiones mecánicas. La combinación de estos dos efectos expone al cuerpo a una tensión considerable, y haría insoportable padecer ambos, aún cuando cada uno por separado fuera tolerable.

Aparte de estos podríamos considerar el posible sinergismo entre lesiones y daño al medie ambiente. Por ejemplo, una posible sanidad (debida a la pérdida de luz eléctrica y agua) podría complicar los efectos de cualquier tipo de lesión.

Dosis (rems)  Síntomas  Tratamiento Pronóstico
 0-100 cambios en la sangre detectables (sobre los 25 rems) no requerido excelente
 100-200 vómitos, jaqueca, somnolencia, leucopemia moderada (pérdida de leucocitos) vigilancia hematológica recuperación total en pocas semanas
 200-600 leucopemia severa, hemorragias internas, ulceraciones, pérdida de cabello (sobre los 300 rems), infecciones trasfusión sanguínea, antibióticos, hospitalización probabilidad de muerte, 0% a extremo inferior, 90% al extremo superior
600-1 000 lo mismo que antes, pero más severo considerar transplante de la médula ósea probabilidad de muerte entre 90 y 100%. Larga convalescencia para los sobrevivientes
1 000- 5 000 diarreas, fiebre, desbalance electrolítico mantener balance electrolítico muerte entre 2 y 14 días
sobre 5 000  convulsiones escalifríos, ataxia (irregularidades en el funcionamiento del sistema nervioso) proporcionar sedantes muerte entre 1 y 2 días
Tabla 4. Efectos médicos de la radiación en los seres humanos

ESCENARIO DE ATAQUE NUCLEAR

Puerto Rico es una isla situada en el Caribe y es la de menor extensión territorial de las Antillas Mayores. Desde 1493, año en que fue descubierta por Cristóbal Colón, paso a ser colonia de España. En 1898 le fue concedida la Carta Autonómica por les reyes de España, la cual cedía los poderes al pueblo de Puerto Rico para establecer su propio gobierno. Sin embargo, esta situación fue aprovechada por Estados Unidos, y en el mismo año la isla fue invadida por el ejercite de dicha nación, estableciéndose en la isla un gobierno militar. Desde entonces la isla pasó a ser colonia de Estados Unidas, hasta que en el año de 1952 se creo el Estado Libre Asociado de Puerto Rico, sistema de gobierno que sigue prevaleciendo hasta nuestros días. Siendo territorio de los Estados Unidos, el pueblo de Puerto Rico está comprometido a tomar parte activa en las fuerzas armadas del Sistema de Defensa de los E. U. Hoy en día la situación es tal, que el Departamento de Defensa de los E.U. tiene diseñada alrededor de toda la isla una red de bases militares, así como facilidades de comunicaciones, lo que forma parte del sistema estratégico de defensa. Una de estas instalaciones es la Base de Roosevelt Roads. Dicha base se encuentra situada en la zona este de la isla Puerto Rico. La base naval Roosevelt Roads es el cuartel general de las fuerzas navales del Caribe del ejercito de Estados Unidos, cuartel general Fleet Air Caribbean, y contiene el Caribbean Atlantic Fleet Weapons Training Facility (AFWTF). Es la base naval de mayor extensión territorial del ejercito de Estados Unidos y parte de una red de facilidades de comunicaciones y de operaciones de aviones, submarinos y barcos del sistema estratégico nuclear, que dicho ejército tiene esparcido por todo el territorio puertorriqueño.

Como ejemplo de los efectos debido a una explosión nuclear a continuación se incluye el cálculo de muertes inmediatas debido a la onda de choque, radiación térmica y la lluvia radiactiva producidas por una explosión nuclear sobre esta base militar.

Podemos observar un mapa de la isla de Puerto Rico que incluye la isla de Mona al oeste de la principal y al este las islas de Culebra (arriba) y Vieques (abajo). La isla principal: tiene una forma más o menos rectangular con un largo de aproximadamente 1000 milla (160 km) y un ancho de 35 millas (56 km). (Figura 2).

Figura 2. Efectos inmediatos aproximados debidos a la onda de choque; radiación térmica de una explosión superficial de 1 Megatón sobre Roosevelt Roads
 
DESCRIPCION DE LOS EFECTOS MECANICOS Y TERMICOS
Círculo    Radio (mi)    Sobrepresión (PSI)    Vientos (mph)    Calor (cal/cm2)    Grado de quemaduras
1    1.40    20    502    30.92    —
2    1.99    10    294    15.35    —
3    2.83    5    163    7.52    Segundo
4    4.49    2    70    3.02    Primer
5    6.37    1    35    1.50    —
DAÑOS INMEDIATOS CAUSADOS
Círculo    Daños
1    Los edificios de concreto reforzado son destruidos. La inmensa mayoría de las personas muere.
2    Los edificios comerciales colapsan. Las personas expuestas sufren quemaduras graves; si no mueren.
3    Las casas de madera y cemento son destruidas o dañadas seriamente. Las personas expuestas sufren quemaduras serias. Combustión espontánea de la ropa y otros combustibles.
4    Daño moderado a los hogares (grietas, vidrios rotos, paredes interiores debilitadas, techos destruidos). Probablemente el área comprendida dentro de esta región es completamente quemada.
5    Daño ligero a estructuras comerciales. Daño moderado a las residencias.
Nota: Cada círculo indica el alcance medio de los efectos mencionados. Los efectos actuales en una región determinada, pueden variar considerablemente en función de las condiciones del tiempo, el diseño específico de los edificios, del grado de exposición de las personas y de las irregularidades en la explosión de la bomba termonuclear.

NATURALEZA Y CONDICIONES DEL ATAQUE

Tipo de bomba-termonuclear de 50% fisión y 50% fusión.
Explosividad (Y) un megatón.
Modalidad del ataque-ataque sencillo con una sola bomba.
Epicentro de la explosión-Base Naval Roosevelt Roads.
Altura de la explosión (H) 2200 pies (680 m) (explosión superficial).
Tiempo-día típico de verano con visibilidad de 40 millas (64 Km).    

 Efecto

Área afectada

mi2         km2

 Muertes
 onda de choque 25  64   44,333
 radiación térmica 190  486
 lluvia radioactiva 350  896  161,717
Tabla 5. Muertes causadas por los efectos de la onda de choque, radiación térmica y lluvia radioactiva

CRITERIOS UTILIZADOS EN EL CALCULO DE MUERTES

Para el caso de la onda de choque se supone que el número de personas que sobreviven a dicho efecto dentro del área donde la sobrepresión excede 5 psi, es igual al número de personas que muere en las áreas donde la sobrepresión es menor a 5 psi, y por lo tanto el número de muertes debido a la onda de choque es la población que se encuentra dentro del contorno circular correspondiente a 5 psi. En el caso de la radiación térmica y de lluvia radioactiva se usa un criterio similar. Se cuenta la población que se encuentra en un contorno circular de calor de 7 cal/cm2 y también dentro del contorno correspondiente a una radiación de 450 rems para cada caso por separado.

SUPOSICIONES

1. Se supone una velocidad horizontal constante del viento de 15 mph hacia el oeste.

2. En el computo de dispersión y transporte de sustancias radiactivas se descartan los posibles efectos de la lluvia, el gradiente vertical del viento, las variaciones en la dirección del viento y otros factores secundarios.

3. Se supone que el 50% de persones potencialmente expuestas a dosis de radiación letales (mayores de 600 rems) logran evitar dicha exposición (esto es un factor de protección de 0.5).

4. Se ignoran posibles sinergismos.

Figura 3. Efectos debido a la lluvia radioactiva en una explosión superficial de 1 MT sobre Roosevelt Roads. El epicentro se encuentra en el punto marcado con una cruz. Se pueden observar los contornos de radiación al cabo de 18 horas de la explosión, dentro de los cuales la radiación es mayor a la indicada. La velocidad y dirección del viento es según se indica
 

METODO UTILIZADO PARA EL CALCULO DE FATALIDADES

Conociendo el área afectada por cada uno de los efectos a considerar se multiplica dicha cantidad por la densidad poblacional en el área afectada. Para el caso de la lluvia radioactiva, además, se multiplica por el factor de protección de 0.5.

RESULTADOS

Los resultados se resumen en la tabla 5. La ilustración de los daños debido a los efectos considerados se observa en las figuras 2 y 3. La figura 2 es un modelo computarizado realizado para ilustrar los efectos producidos por la onda de choque y la radiación térmica. La figura 3 es el diagrama idealizado de la distribución de radiación para este escenario.    

Vale la pena mencionar que el número de muertes calculado es relativamente bajo para este ataque nuclear. La razón para ello es que el área cubierta por los tres efectos considerados corresponde más bien a una región rural lejana de los centros urbanos de alta densidad poblacional. Un trabajo realizado en torno a los efectos originados por la onda de choque y la radiación térmica de explosiones sobre distintos posibles blancos alrededor de la isla, indica que en una explosión aérea de 1 MT sobre un receptor radial naval de comunicaciones del ejercito de E.U., situado en Sabana Seca, a unas 6 millas al oeste del núcleo urbano de la ciudad capital de San Juan, morirían de inmediato alrededor de 900000 personas debido sólo a esos dos efectos. Esta cantidad es casi una tercera parte de la población total de la isla de Puerto Rico.

 

 articulos
 1 El factor de atenuación para esta visibilidad con una distancia del orden del alcance de la bola de fuego es de aproximadamente 0.8.
     
       
       
____________________________________________________________
     

Luis E. Acevedo Gómez
Estudiante de Física, Facultad de Ciencias, UNAM.

como citar este artículo

     
del herbario        
 
  menu2
PDF    →
            R170B01 

La planta llamada Ginseng

 

Las Esporas de Lycopodium clavatum y el condón

Jaime Jiménez
   
   
     
                     

 La planta llamada Ginseng

La palabra ginseng proviene de la palabra china “yin-shen”  que significa “imagen de hombre”, debido a la semejanza de la raíz a una figura humana. De acuerdo a la tradición china, la planta puede ayudar a superar la debilidad humana, incluso ocasionada por la vejez, ya que aumenta la juventud, el vigor y la longevidad; por la semejanza de la planta (raíz) a la figura humana, esta debe servir para el cuerpo humano (lo semejante cura lo semejante). Así, las raíces más viejas alcanzan mayores precios, pues tienen una mayor conformación, y supuestamente, tienen mejores características. Tal vez por la extendida fama de la hierba, Lineo describió al género de la planta con el nombre de Panax (Panax ginseng, es el nombre científico de la especie), palabra derivada del griego “panakeia” (en español panacea), que significa remedio universal.      

Los primeros emperadores chinos creían que la planta aumentaba la fertilidad, prolongando la edad y evitaba la fatiga física y mental. Era tan apreciada que incluso se podía utilizar para pagar los impuestos al gobierno. En el siglo XVII los europeos enviaron muestras de esta planta a su continente como mercancía y con la intención de cultivarlas (cosa que nunca lograron).

Es interesante señalar que existe un ginseng americano (Panax quinquetoliuos) con poblaciones silvestres importantes en Canadá y Estados Unidos. A raíz del conocimiento de los usos chinos, la Compañía (Francesa) de las Indias fue la primera en exportar ginseng a Oriente y Europa. Posteriormente, hubo otros exportadores; incluso hay un informe que indica que en 1789 Daniel Boone colectó y exportó esta planta.     

La insaciable demanda China de la planta provocó que las poblaciones naturales de las especies peligraran en varios países como Canadá, Corea, Nepal y la propia China. Ello determina que se desarrollaran plantaciones en Oriente y en Estados Unidos.

En la década de 1970, algunos simposia y reportes de investigación realizados en Corea del Sur, señalan que la hierba estimula la síntesis de proteínas, disminuye el colesterol y el azúcar de la sangre, regula la tasa metabólica y evita o disminuye el estrés. Además, los coreanos reivindican el uso externo en shampo, jabón, lociones capilares, y suponen que los caballos de carrera tienen mejor actuación si lo ingieren como alimento (ojo, aficionados al hipódromo). Algunos investigadores soviéticos, búlgaros, japoneses y suecos aseguran que el ginseng es útil para tratar el estrés; en particular, el Comité ginseng de la Academia de Ciencias de la URSS, ha llevado a cabo extensas investigaciones, señalando que los cosmonautas y atletas lo consumen para disminuir la fatiga. Los alemanes (RFA) han desarrollado cremas faciales, aspirinas y preparados vitamínicos.

Muchos investigadores estadounidenses ven con escepticismo el mencionado valor curativo del ginseng, e incluso, la oficina encargada de controlar el uso de alimentos y drogas no aprueba su utilización medica. Además existen antecedentes de demandas judiciales en contra de vendedores del producto (en E.U. no esta prohibida su venta), pues algunos compradores aseguran que el tratamiento con la planta no les sirvió para su enfermedad o no les estimuló la sexualidad. Algunos médicos atribuyen al ginseng problemas relacionados con la presión alta, malestares menstruales, diarrea y erupciones cutáneas.

A pesar de estos señalamientos, en Estados Unidos es común encontrar extractos líquidos, cápsulas, goma, dulces, cigarros elaborados con la hierba, productos, todos ellos, recomendados por sus vendedores para reumatismo, anemia, insomnio o como afrodisiaco. También existe un coctel llamado “Ginseng Rush” y algunas compañías producen cosméticos, jabones, colonias, perfume y shampúes.

Curiosamente Estados Unidos es un productor importante, pero al mismo tiempo compra ginseng en Oriente para venderlo a México, Reino Unidos, Hong Kong y Canadá.

El uso del ginseng en México es relativamente reciente y puede adquirirse en tiendas naturistas o en algunos almacenes (en shampo o en cosméticos). Pero falta conocer la opinión de los usuarios y de los médicos, para saber si las virtudes, varias veces descritas, son ciertas. Sobre todo habría que comparar su efectividad con las innumerables plantas mexicanas de uso tradicional o con los inmejorables chiqueadores mexicanos.

 

LAS ESPORAS DE LYCOPODIUM CLAVATUM Y EL CONDON

Uno de los pilares en la prevención del SIDA es el uso del condón, pues se ha comprobado que impide el contacto de los fluidos corporales; esto ha propiciado una gran reactivación en la fabricación de tales aditamentos, con una diversidad de estilos y presentaciones realmente loable. Dentro de la gama de posibilidades que existe, hay un condón que no lleva líquido lubricante y que tiene como elemento antiadherente esporas de Lycodium clavatum L., que ya antes fueron utilizadas en guantes quirúrgicos, en polvos cosméticos, como absorbente en shampúes, como antiadherente en moldes de algunos metales, en cápsulas y también en supositorios.

El problema de estas esporas es que causan reacciones alérgicas que van desde dermatitis hasta asma, dependiendo del tipo de contacto que se haya tenido con ellas. Así se pueden presentar reacciones en los obreros que preparan píldoras y supositorios; en los obreros metalúrgicos que preparan los moldes con antiadherente; en la gente de teatro por el uso constante de polvos cosméticos y en los usuarios de shampúes y de píldoras. Otros problemas se han detectado cuando las esporas de Lycopodium entran en contacto con heridas en general (por el uso de guantes quirúrgicos) o del ano (por el uso de supositorios), es el desarrollo de granulomas —grupos de células epitelialoides, células gigantes multinucleadas, linfocitos y fibroplastos, con pareas de necrosis— que simulan enfermedades neoplásticas, como cáncer o granulomas infectivos, provocados por bacterias como tuberculosis o sífilis. Afortunadamente estos granulomas no son letales y pueden ser extirpados sin problemas.

Ahora bien, aunque no sería conveniente opinar sobre los diferentes gustos y prácticas en el uso de este tipo de preservativo, sí queda claro que sólo hay dos alternativas: usar otro tipo de condón o afrontar algunas de las posibles molestias que provoca el condón.

  articulos
       
_____________________________________________________________
     

 Referencias Bibliográficas

Carlson, A. W., 1986, Ginseng: America’s Botanical Drug Connection to the Orient, Econ. Bot., 40(2):233-249.                                                                                                        Balick, M. J., and J. M. Beitel, 1988, Lycopodium spores found in condom dusting agent, Nature, 332:591.

     
_____________________________________________________________
 
     
Jaime Jiménez                                                                                                                    Herbario, Facultad de Ciencias, UNAM.
 
como citar este artículo    →
 [En línea]
     

 

 

R17Articulo8   menu2
PDF→                                                                
   
   
José Ramón Eguíbar
     
               
               

I. LA FASE PRE- CIENTÍFICA

Las culturas antiguas de Oriente, en general manifestaron una aceptación de la sexualidad humana mucho mayor que la de las culturas occidentales. Es por esto que las obras orientales sobre temas eróticos, son mucha más explícitas que las de su contraparte occidental.

Así, nos encontramos que la obra más antigua que trata sobre temas sexuales, y que ha sido conservada hasta nuestros días, es el Kama Sutra de Vatsyana. Este libro data del siglo VI de nuestra era y en él se describen diversas técnicas de estimulación erótica básicamente consistentes en mordisquear, presionar y/o rascar, las distintas zonas erógenas. Por otra parte, también se describen las distintas posiciones que se pueden adoptar durante la realización del acto sexual. El Kama, o la sexualidad, es una de los tres fines que la cultura india atribuye a la vida y, como tal, conforma una parte importante de la existencia del hombre, junto al dhatma o perfección religiosa y el artha o la adquisición de la riqueza.

La influencia de sus concepciones acerca de la sexualidad queda magistralmente: plasmada, con una sorprendente riqueza estética, en los templos de Khajuaro, en dónde se representan parejas de amantes, llamadas los mithunas, que se encuentran en todas las posturas eróticas imaginables.

Sin embargo las expresiones artísticas de la sexualidad son comunes a todas las culturas antiguas, incluyendo las precolombinas de América. Pero es, en la Grecia antigua donde la figura humana alcanza quizás la perfección de la expresión estética, como puede observarse en diversas piezas de alfarería, jóvenes mancebos desnudos en absoluta armonía, muchos de ellos en francas posiciones relacionadas con la esfera sexual; este se debe: a que el sexo estaba considerado dentro de una filosofía “naturalista”, en la que se le veía como un placer que debía gozarse (McCary, 1976).

En algunas manifestaciones de las culturas de la América precolombina, también se encuentran parejas durante la copula así como representaciones fálicas, que tienen distintas acepciones dentro del pensamiento mágico-animista.

Cuando los espartanos conquistaron a los griegos, la rígida autodisciplina de la filosofía de los vencedores se impuso en todas las concepciones griegas, incluso, está claro, la vida sexual. Este hecho agregado a la actitud espiritualista de las otras culturas clásicas (Egipto y Mesopotamia), sentaron las bases para el desarrollo de una opresión de la expresión sexual en el mundo occidental. Este carácter de rigidez física y mental, aunado a una profunda visión espiritual del mundo, alcanza su máxima expresión durante la edad media, bajo el predominio de la iglesia católica.

Bajo esta filosofía la cópula solo debe perseguir un fin reproductivo y de ninguna manera puede estar relacionado con el placer. Esta concepción propició que se formara una sólida cultura patriarcal, rígida en sus expresiones y totalmente dominada en todos sus aspectos por el catolicismo.

Este mismo esquema fue posteriormente transmitido a América durante la conquista, lo que lo convirtió en el modelo prevaleciente en la mayor parte de la superficie terrestre por varios milenios.

De hecho, no es sino hasta el siglo XX, cuando la sexualidad empieza a despertar un cierto interés científico. Durante el presente milenio se han generado al menos tres grandes movimientos, pioneros en el campo de la sexología: primero en el terreno del desarrollo psicológico, con la obra psicoanalítica de Sigmund Freud. Después el gran movimiento sociológico generado a partir de las obras de Alfred Kinsey y sus colaboradores (1948, 1953). Por último, los estudios fisiológicos de William Masters y Virginia Johnson, durante la década de los años setenta. Sin embargo, habría que agregar un último sisma producido en 1982, ante la aparición del libro acerca del punto G y otros descubrimientos recientes sobre la sexualidad humana escrito por Ladas, Whipple y Perry (1982). En lo que resta del presente ensayo se intentará describir someramente en que han consistido estos descubrimientos y la influencia que han ejercido en nuestra visión de la sexualidad humana.

II. SIGMUND FREUD Y SU VISION DEL DESARROLLO PSICOSEXUAL EN EL HOMBRE

Como ya se mencionó, el primer acercamiento al análisis de la expresión sexual en el adulto, la estableció Sigmund Freud al determinar las distintas etapas psicosexuales del desarrollo. Así en la teoría freudiana se establecen divisiones en el desarrollo psicosexual del individuo, basándose en los grandes cambios que acaecen en éste: al convertirse de infante en niño, de niño en adolescente y finalmente, en adulto. Para cada etapa se definen los deseos primordiales que se tienen y la forma de satisfacerlos; así las distintas formas de placer y las áreas físicas de satisfacción son definidas y constituyen los elementos fundamentales en las descripciones de Freud.

La teoría psicoanalítica es la corriente de pensamiento formada a partir de la teoría de Freud sobre la formación de la personalidad, se basa primordialmente en las diferencias biológicas que existen en el desarrollo de la personalidad entre ambos sexos. Con esto Freud, introduce un concepto realmente revolucionario en su época, cabe destacar que las ideas victorianas del siglo anterior persistían en el momento de publicar sus ideas. Las dos primeras etapas fueron definidas considerando a los infantes como entes con tendencias bisexuales y se caracterizan, primero, por una atención desmedida por la boca y áreas aledañas; después, la región perineal y el control de los esfínteres son los sitios de evocación de los deseos y placeres en el infante. Ambas etapas se ubican durante los tres primeros años de vida.

Posteriormente, entre los 3 y los 7 años de edad, se presenta la etapa fálica; durante ese tiempo se desarrolla en el muchacho el complejo de Edipo, como resultado de sentimientos simultáneos de amor sexual hacia su madre y, consecuentemente, la rivalidad hostil hacia su padre. Es también en esta época, cuando el muchacho descubre que la mujer no tiene pene y supone que, en alguna forma, ella ha perdido ese órgano, que para él constituye una importante fuente de placer. Su culpabilidad, por esto relacionada con sus fantasías sexuales hacia su madre y los deseos hostiles hacia su padre, llevan al muchacho a desarrollar una ansiedad de castración. Tal situación produce que abandone sus escarceos masturbatorios y entre en la etapa latente, que va desde los 7 años hasta la pubertad. En esta última etapa el muchacho se identifica con su padre y no continua su rivalidad con este a causa de la madre.

Por su parte la mujer descubre durante la etapa fálica su falta de pene; ha observado el placer que el muchacho obtiene de su órgano genital, el cual es muy visible y manejable, suscitándose, lo que se conoce como la envidia del pene. Culpa a su madre por no tenerlo y substituye como objeto primario de amor, el materno por el paterno. En esa época establece una seria competencia con su madre, es decir, un fenómeno edípico adaptado a la niña. En el desarrollo normal, la mujer entra en el periodo latente por miedo a perder el amor materno. Por ello se identifica con su madre de una manera similar a como el muchacho lo hace con su padre.

El desarrollo psicosexual culmina con la etapa genital en la cual se canaliza la energía libidinal al área genital. Es en este momento cuando hombres y mujeres establecen sus diferentes identidades sexuales y empiezan a buscar los medios para satisfacer sus necesidades eróticas e interpersonales. Sin embargo, la envidia de pene en la mujer persiste como un sentimiento de inferioridad y una predisposición a los celos; su permanente envidia del pene o “dotación superior” se convierte en la mujer madura en el deseo tener un niño, que particularmente traiga el pene envidiado (Freud, 1933).

Los enfoques clásicos del desarrollo psicosexual en hombres y mujeres han sido severamente criticados, no sólo por algunos de los sucesores de la teoría psicoanalítica sino también, por autores de otras teorías. No cabe duda, sin embargo, que Freud fue el primero en tratar de comprender cómo se establecen los roles masculino y femenino en nuestra sociedad. De hecho, las observaciones se adaptan a una posición patriarcal, falocéntrica y con un enfoque decididamente masculino, con un claro resabio de la idea victoriana de la supremacía masculina. Esta idea estaba muy acorde con el desarrollo capitalista que se daba en ese momento. De hecho, uno de sus principales seguidores, Wilhelm Reich, estableció un nuevo enfoque de la psicología femenina, basando sus concepciones en una fuerte tendencia socialista. Sus argumentos destacaban la opresión que sufren las mujeres en las sociedades capitalistas occidentales, y que éste era el factor principal en la formación del carácter desarrollado por las mujeres, fundamentalmente pasivo durante la cópula. Reich afirmaba, que el bienestar del individuo depende de su capacidad orgásmica y que la pasividad femenina se establece como un producto social patológico que la sociedad capitalista impone a las mujeres, ya que los intereses económicos llevan al establecimiento de un orden patriarcal que subordina la libertad sexual. Por otra parte, coincidía con Freud en una de sus concepciones básicas, referente a que las sensaciones placenteras en la mujer previenen de la vagina y no del clítoris, apoyando la teoría de la sexualidad femenina de la transferencia clitórico-vaginal. Se considera que la orientación psicológica debe estar guiada hacia la vagina como la fuente de las sensaciones orgásmicas; cualquier desviación de esta “orientación sexual normal”, era considerada por los psicoanalistas como una desviación del psique femenino adulto normal, ya que las mujeres que tenían sensaciones placenteras clitorideas eran consideradas infantiles, pues el clítoris representa una fijación infantil. Además, consideraban que estas mujeres tenían una personalidad histérica debido a que la fijación clitoridea era uno de los rasgos característicos de tal personalidad. Este último punto de vista constituye la piedra angular sobre la que se ha movido el análisis de la respuesta sexual femenina normal. El debate acerca de si es la vagina o el clítoris el centro primario de las sensaciones placenteras ha permanecido muy activo dentro del análisis científico de la “respuesta sexual femenina normal”, llevada a cabo en este siglo.

III. EL USO DE ENTREVISTAS COMO FUENTE DE CONOCIMIENTOS DE LA CONDUCTA SEXAUAL HUMANA

En la Universidad de Indiana en los Estados Unidos el trabajo de Alfred Kinsey y sus colaboradores introdujo los métodos cuantitativos y estadísticos en la evaluación de una ciencia tan íntima como lo es la sexología, a través del uso de cuestionarios y entrevistas. La titánica obra de Kinsey y su grupo abarcó alrededor de 17000 cuestionarios aplicados en sujetos de ambas sexos, de los cuales unos 7000 fueron analizados por el propio Kinsey. La disciplina y el gran espíritu de conocimiento que tenía este investigador, provocó que sus principales colaboradores (Pomeroy y Martin), adquirieran una excepcional capacidad de adaptación hacia los requerimientos del sujeto en turno a la hora de estar efectuando las entrevistas, para que así los datos obtenidos fueran lo más fidedignos posibles.

Al final de la década de los cuarenta y principios de los cincuenta sus estudios consignaron la gran variedad de expresiones de la conducta sexual de hombres y mujeres de su país. Demostró que la gente tenía diferentes formas de disfrutar el sexo a través de la masturbación, el homosexualismo, el intercurso anal, las fantasías sexuales y, especialmente el sexo extramarital. Estos estudios indudablemente, fueron más allá de lo que la sociedad americana estaba dispuesta a reconocer públicamente, ya que sus resultados echaban por tierra las viejas ideas victorianas. Es por esto, sin duda, que los estudios de Kinsey provocaron ataques airados acerca de la exactitud y el carácter representativo de sus datos.

Sin embargo, debe reconocerse que sus estudios mostraron la enorme variabilidad en el comportamiento sexual humano, la frecuencia en que se presentan sus distintas variedades y las diferencias de éstas con respecto a la edad, raza, nivel socioeconómico, creencias religiosas, etc. A manera de ejemplo, cabe mencionar que dichos estudios establecieron que la masturbación era una práctica frecuente en la población joven y que después de los 18 años más del 90% de la población masculina se había masturbado con fines placenteros. Esta conducta también se presenta en mujeres aunque con una frecuencia menor (alrededor del 70%); también se observó que el estado marital, si bien disminuía la frecuencia de esta práctica, no conllevaba su total abandono. Es  decir, sus resultados contravenían los valores sanamente aceptados, absurdos en su mayoría, de que la masturbación ocasiona debilitamiento mental o algunas  otras deficiencias orgánicas tales como la pérdida de la medula espinal. Los estudios de Kinsey sin embargo, no mostraban ninguna relación entre inteligencia y masturbación. En sus tablas los distintos grados de escolaridad no tenían correlación con la frecuencia de masturbación, la que oscilaba entre 1 y 5 veces por semana, con distribuciones muy semejantes en los distintos grupos etarios. Lo que sí pudo establecer fue que las prácticas religiosas ortodoxas llevaban a una disminución en la frecuencia de masturbación, respecto a actitudes religiosas más laxas que tenían un menor impacto en la sexualidad.

Por otra parte, en el Instituto Kinsey se realizó un estudio de cuáles eran las zonas más sensibles al estímulo sexual en la mujer. Se sometieron a prueba más de 800 mujeres en las cuales se tocaban 16 puntos entre los que figuraban el clítoris, los labios mayores y menores, la entrada y las paredes de la vagina, así come el cuello del útero o matriz. Tratando de ser lo mas estrictos e impersonales, los ginecólogos encargados del estudio concluyeron que el clítoris era de las zonas probadas, la más sensible al estímulo sexual. Cabe destacar que para las pruebas utilizaron un artilugio parecido al rabillo de una Q. A pesar de esta última observación, las conclusiones a las cuales llegaban se encontraban en franca contrapartida al punto de vista freudiano de la sexualidad, lo que acentuaba más el debate antes mencionado.

En cuanto a la eficiencia de las entrevistas como vehículo para obtener información sobre el comportamiento sexual, a finales de la década de los setenta Shere Hite y su equipo publicaron un par de libros similares a los de Kinsey. En este último estudio, los cuestionarios se distribuyeron por correo a una gran masa de población; las contestaciones se realizaban en un régimen de anonimato y regresaban a la fundación Hite para ser analizadas. Las conclusiones finales eran más o menos similares al trabajo de Kinsey. Además, estos estudios permitieron establecer la evolución de las prácticas sexuales tras dos décadas de cambio social.

IV. LAS FASE CIENTIFICA DEL ANALISIS DE LA RESPUESTA SEXUAL HUMANA

El trabajo de William Masters y Virginia Johnson en el Departamento de Ginecología y Obstetricia de la Escuela de Medicina de la Universidad de Washington, iniciado en 1954 y publicado a principios de los años setenta revolucionó el cómo y el por qué de los estudios sobre la fisiología de la respuesta sexual. Sus estudios pasaron de las medidas indirectas y deductivas de los trabajos previos, a observaciones objetivas bajo condiciones controladas en el laboratorio.

Sus estudios se realizaron con 312 hombres y 382 mujeres. Además se observaron 32 parejas a lo largo de periodos variables de tiempo, con el fin de esclarecer los límites de dispersión de las respuestas obtenidas. Sus datos se basan en un total de 10000 ciclos de respuesta sexual, 7500 de ellos en mujeres y 2500 en hombres. Sus estudios los llevaron a establecer un ciclo básico de respuesta sexual en hombres y mujeres; el ciclo consta de cuatro fases: la de excitación, la de meseta, la orgásmica y la de resolución. Estas fases se presentan ante un estímulo sexual efectivo que puede obtenerse, tanto por masturbación, como por intercurso, ya sea éste artificial o natural. Por razones descriptivas las explicaré someramente, por separado para el caso de la mujer y para el del hombre.

1) La fase de excitación en la mujer se caracteriza por presentar: erección de los pezones, tumefacción (congestión) de la areola y aumento discreto del tamaño de las senos; también aparece un enrojecimiento (rubicundez) en la parte alta del abdomen, que se extiende rápidamente al tórax y a los senos, se separan los labios mayores, y se da un engrosamiento y una expansión de los labios menores, lo que aumenta en 1 cm el tamaño vaginal; el clítoris se hincha por vasodilatación, haciéndose prominente, aparece la lubricación vaginal y el útero se eleva ligeramente. Asociado a estos cambios en los órganos genitales, se presenta un aumento en la tensión muscular (llamado también tono muscular o miotonía), en la frecuencia cardiaca y en la presión arterial, según sea el nivel de tensión sexual desarrollada.

2) La fase de meseta se caracteriza por el aumento de la turgencia del pezón y por la irrigación areolar, así como porque el enrojecimiento se extiende al cuello y a la cara (puede abarcar casi la totalidad de la superficie del cuerpo), los labios mayores se dilatan a su máxima capacidad mientras que los menores cambian de color a un rojo vinoso (la llamada piel sexual); el tercio exterior de la vagina se ensancha y el orificio vaginal se estrecha, lo que se conoce como plataforma orgásmica. También se ensancha el fondo de la vagina y el útero se eleva, traccionando la parte superior de la vagina, remedando la forma de una tienda de campaña mientras que las glándulas de Bartholin secretan unas gotas de líquido y el clítoris se retrae. La tensión sexual acumulada aumenta al doble la frecuencia cardíaca y se eleva la presión arterial en promedio unos 30 mm de Hg. De la misma manera aumenta la profundidad de la respiración (hiperventilación) y se presenta un aumento del tono muscular, acompañado por contracciones espásticas, es decir, contracciones intensas de la cara, del abdomen y del tórax.

3) La fase orgásmica se caracteriza por una serie de contracciones rítmicas de la plataforma orgásmica (vulva y vagina), así como de los músculos de la pelvis y del útero; en un orgasmo intenso pueden darse alrededor de 8 a 12 contracciones y en uno más leve de 3 a 5. También se presentan de 3 a 5 contracciones del esfínter anal y en el 20% de los casos, la uretra se contrae rítmicamente. El tono muscular llega a su tope y se presentan además contracciones involuntarias en distintas partes del cuerpo. El ritmo cardíaco y respiratorio llegan a su máximo (110 a 180 en el primero, y 40 veces por minuto en el segundo) y la presión arterial se eleva entre un 60 y un 80%, con respecto a los niveles previos de la actividad sexual.

4) La fase de resolución se caracteriza por un retorno gradual de todas las variables que se modificaron durante las fases anteriores. Es decir, la presión arterial, las frecuencias cardiaca y respiratoria, el tono muscular y los órganos reproductores regresan a su estadio inicial. Existe además una sensación de calor generalizado y una sudoración leve en la espalda, los muslos, el tórax, la frente y el labio superior. Esta última respuesta presenta diversos grados de manifestación, según la intensidad de la sensación orgásmica experimentada y el grado de actividad física desarrollada para alcanzarla. Así, la abertura del orificio externo del útero dura entre 20 y 30 minutos para regresar después a su posición de reposo y descender del cuello uterino al depósito seminal que se forma en el fondo de la vagina. Estas últimas reacciones propician que el semen tenga acceso a los órganos sexuales internos de la mujer, paso fundamental para una probable fecundación del óvulo.

Por lo que respecta al hombre se presentan las siguientes características para cada una de las fases:

1) En la fase de excitación, se manifiesta un grado variable de erección y congestión de las tetillas, hay una rápida aparición de la erección del pene, con engrosamiento y aplanamiento de la piel del escroto, lo que ocasiona que las bolsas escrotales se retraigan y se eleven parcialmente al testículo. Al igual que en la mujer, existe un aumento de la tensión muscular, de la frecuencia cardiaca y de la presión arterial, según sea la tensión sexual desarrollada; sin embargo no se presenta el enrojecimiento de la piel (rubicundez).

2) En la fase de meseta puede existir erección y turgencia del pezón, hay rubicundez en la parte superior del abdomen que se extiende gradualmente al tórax, el cuello y a la cara, llegando, ocasionalmente, a los hombros y los brazos. Aumenta el tamaño del glande y hay un discreto cambio en su coloración; también se da un aumento del 50% del tamaño testicular, con elevación del mismo. Las glándulas de Cowper producen su secreción mucoide, que sale por el orificio uretral. Aumenta el tono muscular voluntario e involuntario, con contracciones espásticas en la cara, el abdomen, el tórax, y además se producen contracciones voluntarias del recto, para aumentar la tensión sexual desarrollada. La presión arterial, las frecuencias cardiaca y respiratoria, siguen un patrón similar al presentado por las mujeres.

3) La fase orgásmica se caracteriza por contracciones involuntarias de los órganos sexuales secundarios: conductos deferentes, vesículas seminales, próstata y uretra, lo que lleva a la expulsión del fluido seminal (eyaculación). Se desarrolla totalmente la rubicundez y se presentan contracciones involuntarias del esfínter anal, mientras que aumenta el tono muscular (tensión basal de los músculos), y se provocan contracciones involuntarias y espásticas en diferentes grupos musculares. Se presenta además el llamado “espasmo carpopedal” que consiste en posición de garra. El resto de las respuestas son similares a las que se presentan en la mujer.

4) Durante la fase de resolución, hay una involución de la erección del pezón, una rápida desaparición de la rubicundez, en sentido inverso al de su aparición, pérdida de la erección de pene y de la tensión del escroto; asimismo el testículo desciende y recupera su tamaño normal, mientras que disminuyen la presión arterial y las frecuencias cardiaca y respiratoria, hasta alcanzar sus niveles basales y aparece una sudoración ligera en las plantas de los pies y en la palma de las manos, sudoración que, ocasionalmente, se presenta en el tronco, la cabeza y el cuello. El hombre, a diferencia de la mujer, desarrolla un periodo refractario, que se prolonga hasta que se regresa a la fase de excitación. En otras palabras la mujer, puede pasar de la fase orgásmica, a una fase de meseta y nuevamente a una fase orgásmica. Esta situación Master y Johnson no se la conceden al hombre, ya que en éste se presenta el periodo refractario.

Las descripciones relatadas, muestran que las respuestas sexuales son básicamente iguales en ambos sexos. Por otra parte, Master y Johnson concluyeron que, a pesar de la diferente técnica de estimulación utilizada, masturbatoria o coital, el órgano encargado en la mujer de generar la respuesta orgásmica es el clítoris. Ya sea que éste se estimule directamente, o bien que sea traccionado por los labios menores que le rodean durante la cópula. Es decir, se apoyaba la conclusión a la cual había llegado el grupo de Kinsey, con respecto a que el clítoris es el encargado de mediar las respuestas placenteras en la mujer.

El valor que tuvieron estos hallazgos para el entendimiento racional de la sexualidad, tuvo un impacto dramático en la visión de la sexualidad de nuestros días. Quizás deba recordarse que dichas descripciones se realizaron cuando el movimiento hippie se encontraba en efervescencia, y la filosofía juvenil de paz y amor se imponían al igual que la frase “haz el amor y no la guerra”. A esto se aunaba el hecho de que en ese momento salían a la venta las primeras píldoras anticonceptivas; esta cadena de situaciones contribuyó al desarrollo de una visión más liberal de las relaciones sexuales, que caracterizó a la década de los setenta. Por otra parte, se generaron nuevos prototipos de sensualidad, de placer y de sexualidad humana.

V. EL PUNTO G

Los patrones antes descritos, como la “respuesta sexual normal”, fueron muy discutidos en 1982, durante la reunión de la Asociación para el Estudio Científico de la Sexualidad, cuando Alice y Harold Ladas mostraron los resultados de un estudio, efectuado a través de cuestionarios anónimos, dirigidos a un grupo de mujeres analistas bioenergéticas (corriente neofreudiana), y que se enfocaban a la expresión de su sexualidad. Los resultados de dicha encuentras mostraron que las discrepancias teóricas más significativas, guardaban relación con la importancia del clítoris. En sesiones previas de la asociación bioenergética, donde ya había sido tratado el tema, las mujeres de esta agrupación no habían mostrado sus verdaderas ideas acerca del clítoris, ya que muy probablemente podrían haber sido consideradas inmaduras por sus colegas masculinos. El estudio presentado en esa ocasión, tuvo la virtud de haberse efectuado sólo bajo presencia de mujeres, lo que facilitó una expresión plena de sus verdaderas sensaciones placenteras y de su impacto en el desarrollo integral de la sexualidad femenina. El estudio mostró, que las mujeres, en vez de abandonar el clítoris como centro del placer en favor de la vagina, preferían añadir la respuesta vaginal a la obtenida a través de la estimulación clitoridea. De esta manera apoyaban tanto a las visiones neofreudianas, que sostenían que la vagina es el ente placentero en la mujer adulta, como a la visión de Masters y Johnson que afirmaba que el clítoris es el centro de la experiencia sexual. Es decir, todavía en los albores de la presente década no era claro cuál es el órgano responsable de mediar la respuesta sexual femenina. Después de presentar sus conclusiones, Ladas entró en contacto con los trabajos de John Perry y Beverly Whipple, quienes presentaban, en esa misma reunión científica, un trabajo acerca de la existencia, en la pared anterior de la vagina, de un punto extremadamente sensible a la presión fuerte. A este punto lo bautizaron como el punto G, en honor al Dr. Ernest Gräfenberg, el primer médico moderno que lo describió. En dicho estudio mostraban que la estimulación del punto G producía una experiencia placentera, diferente a la obtenida con estimulación clitoridea; además afirmó que dicho punto da origen a experiencias multiorgásmicas y que, en una alta proporción de mujeres probadas, se produce, a través de la uretra, una emisión de un líquido blanquecino de características totalmente distintas a las de la orina. A este último fenómeno lo denominaron: eyaculación femenina. En otras palabras, los autores, proponían la posibilidad de experimentar dos tipos de sensaciones orgásmicas: una vulvar, que depende del clítoris, y otro evocado por la estimulación vaginal en el punto G, que fue denominado uterino, ya que es en este órgano donde se centran las respuestas eróticas, como una sensación de empuje hacia abajo. Un poco después se estableció que en el hombre también se pueden evocar dos tipos de respuestas orgásmicas diferentes. Por una parte, el orgasmo y eyaculación obtenida a partir de la estimulación peneana, en especial del glande y su corona (las porciones más alejadas de la base del pene); y por la otra, la obtenida a través de la estimulación prostática, que corresponde al punto G masculino. Esta última evoca una sensación placentera, con características diferentes al orgasmo peneano, ya que se presentan una serie de contracciones intensas en los músculos del periné (que se encuentran entre las piernas), acompañado de una eyaculación que fluye continuamente y no en chorros como en el orgasmo obtenido a través de estimulación del pene.

CONCLUSION

El debate de las últimas décadas parece, hasta el momento, haber tenido un buen final, ya que se presentan ambas respuestas sexuales y forman parte de la “respuesta sexual normal”, tanto de hombres como de mujeres. Sin embargo, se debe hacer hincapié en que las investigaciones relacionadas con la sexología humana se encuentran aún en desarrollo y que, además, no presentan el ritmo necesario, debido, primordialmente, a obstáculos de muy distinta índole. Es por esto que quizás los resultados que se obtengan en un futuro inmediato nos ayuden a comprender más cabalmente nuestra sexualidad, y por ende, nuestro comportamiento en una de las esferas que mayor influencia tienen en nuestra conducta individual y social.

Quisiera agradecer a Hortensia González y Humberto Arce por su dedicado apoyo para el presente trabajo. A Criss, a Iván y a Adriana.

 articulos
 
     

 Refrerencias Bibliográficas

Fadiman, J., y Frager, R., (1979), Teorías de la personalidad, Ed. Harla, Harper & Row Latinoamericana, México.
Freud, S., (1948-1953), Obras completas, vols. I, II y III, Ed. Biblioteca Nueva, Madrid, España.
Kinsey, A. C., Pomeroy, W. B., y Martin, C. E., (1984), Sexual behavior in the human male, Ed. Saunders Company, Philadelphia, USA.
Kinsey, A. C., Pomeroy W. B., y Martin, C. E., (1953), Sexual behavior on the human female, Ed. Saunders Company, Philadelphia.
Ladas, A. K., Whipple, B., y Perry, J. D., (1982), The G spot and other recent discoveries about human sexuality, Ed. Dell Publishing Co., New York, USA.
Masters, W. H., y Johnson, V. E., (1978), Respuesta sexual humana, Ed. Intermédica, Buenos Aires, Argentina.
McCary, L., (1976), Sexología humana, Ed. El Manual Moderno, México.

     
____________________________________________________________
     

Jóse Ramón Eguíbar
Departamento de Ciencias Fisiológicas, Instituto de Ciencias, Universidad Autónoma de Puebla.

como citar este artículo

     
R17Articulo01   menu2 índice 17
siguiente
PDF→                                                                           
   
   
Celia María Finazzi      
               
               

INTRODUCCION

El problema de encontrar las raíces de una  ecuación algebraica, o sea, de un polinomio, ha sido objeto de estudio de la humanidad desde tiempos muy remotos.  

Se tiene conocimiento de que alrededor de 1500 años antes de Cristo, egipcios y babilonios resolvieron problemas que corresponden a simples ecuaciones de primer y segundo grado. Los babilonios llegaron a tratar de solucionar problemas correspondientes a las ecuaciones polinomiales de grado tres y también de sistemas de ecuaciones lineales con dos incógnitas. Estos problemas serían hoy simples ejercicios para jóvenes estudiantes de primaria, que los ejecutarían sin mucha dificultad. Por ejemplo en Boyer, 1968, pág. 34, se encuentra un viejo problema tratado por los babilonios: hallar el lado de un cuadrado, si el área, menos el lado, es 14.30. Este problema es, en nuestros días, ejemplificado fácilmente por la fórmula x2 - x = 870, donde x representa el lado del cuadrado,1 fórmula que le sería sencillo determinar a un estudiante de 13 o 14 años. Esta ecuación de segundo grado tiene las siguientes soluciones: x1 = 30 y x2 = 229 (esta última no es adecuada al problema).  

Mientras tanto, como veremos nos adelante, problemas como este y otros, eran tratados de tal manera que hoy, nosotros, los encontraríamos pintorescos.   

En el transcurso de este artículo veremos como se desarrollo en la historia el tratamiento de las ecuaciones polinomiales, en especial las de grado menor o igual a cuatro. Algunas situaciones aparecerán revelando una característica de profunda naturaleza humana: la competencia, que en muchos casos se ha revelado como la impulsora del desarrollo cultural de la humanidad.

EL TEOREMA FUNDAMENTAL DE ALGEBRA, ASPECTOS CONSTRUCTIVOS

Un resultado fundamental en el estudio de los polinomios se establece a continuación: 

T.F.A. “Todo polinomio de coeficientes reales o complejos, tiene por lo menos una raíz, real o compleja”.

El Teorema Fundamental del Álgebra (T.F.A.) es conocido desde tiempos muy antiguos y su evidencia provino de muchos ejemplos. Era tan fuerte, que incluso era usado antes de ser demostrado. En 1746 d’Alembert lo probó por primera vez, aunque su demostración no fue muy rigurosa, y consecuentemente sí muy criticada, pero la idea fue aprovechada por Weirstrass, quien la desarrollo con un poco más de rigor. La primera prueba realmente satisfactoria fue realizada por Gauss en 1799. Este gran matemático hizo otras tres pruebas, la última, puramente de existencia, en 1849. Otros matemáticos, Cauchy y Sturm, también lo demostraron. Una demostración clara se encuentra en Schreier & Spencer, 1951, pág. 238.  

Como consecuencia inmediata del T.F.A. tenemos: 

“Todo polinomio de gado n de coeficientes reales o complejos, tiene n raíces, reales o complejas.”

Sin embargo las demostraciones citadas del T.F.A., nada ayudan en lo que se refiere a sus aspectos constructivos, ya que todas son puramente de existencia; esto es, prueban que las raíces existen, y de alguna manera “construyen” las raíces del polinomio.

Es claro que la humanidad se preocupaba desde tiempos remotos por el problema de resolver una ecuación algebraica, y es claro que, en los primeros tiempos, era utilizada para casos bien simples.

Las primeras soluciones de que se tiene noticia, fueron sin duda, de ensayo y error.

3. ECUACIONES LINEALES

Estas ecuaciones son las correspondientes a los polinomios de primer grado, por tanto de la forma:

ax + b = 0.  

Las informaciones de que disponen los historiadores, registran a los egipcios como el primer pueblo en tratar una ecuación lineal. Entre los papiros de aquel pueblo, el más importante de naturaleza matemática, es sin duda el Papiro de Ahmes, también conocido como el Papiro de Rhind, que se encuentra en el Museo Británico. Fue adquirido en 1858, en una ciudad al margen del Nilo por el escoces Henry Rhind, siendo compilado en 1654 a.C. por Ahmes de quien toma el nombre (Boyler, 1968, pág. 12). Los egipcios no se referían a problemas que involucraran objetos concretos, pero ya se hablaba de “aha”, que son lo que hoy conocemos como incógnitas. Por ejemplo, el problema 24 del Papiro de Ahmes, que pide el valor de “aha” si “aha” y un séptimo de “aha” es 19. En forma moderna escribiríamos:

Fórmula 01

La ecuación presentada por ellos se hace de manera tentativa: un valor arbitrario, o sea, un “falso” es supuesto para “aha” y se realizan las operaciones indicadas al lado izquierdo de la igualdad; el resultado de estas operaciones se compara con el resultado deseado y usando proporciones, se encuentra la solución.  

Presentamos a continuación el procedimiento que usaban los egipcios:  

Sea 7 el falso. Entonces, usando la forma del texto:

Fórmula 02

Tantas veces cuantas necesitemos multiplicar 8 para obtener 19, tantas veces 7 deberá ser multiplicado para dar el resultado deseado.

Fórmula 03

Multiplicando 2, 1/4, 1/8 por 7 se obtiene el resultado deseado

Fórmula 04

La sencillez de este procedimiento, cuando es aplicado a problemas que involucran fracciones, se muestra en el ejemplo que sigue, extraído de un trabajo de Trenchant de 1566:  

Una cisterna se vacía por medio de tres llaves distintas en 2, 3 y 4 horas respectivamente. La pregunta es, cuantas horas son necesarias para vaciar la cisterna si las tres llaves se abren simultáneamente.  

La solución se presenta a continuación:

si el tiempo usado fuese 12 horas
la primera llave vaciaría  6 veces
la segunda llave vaciaría  4 veces
la tercera llave vaciaría  3 veces

Así, en 12 horas, las llaves vaciarían la cisterna 13 veces. Entonces para vaciarla 1 vez se necesitan 12/13 horas, o sea 55 5/13 minutos.  

El método anterior fue conocido por los hindúes y árabes y más tarde fue introducido a Europa con el nombre de “posición falsa”.    

Una variación de este método es la regla de la “doble posición falsa”, según la cual se hacen dos tentativas y se anota el error correspondiente a cada una de ellas. Podemos entender el procedimiento a partir del ejemplo siguiente, transcrito del trabajo “Ground of Arts”, (1542) del matemático ingles Robert Recorde: 

One man said to another,
I think you had this year two thousand
Lambes: so had I said the other
but what with paying the tythe
of them, ant then the several losses
they are mucho abated: for at
one time I lost half as many as
I have now left, and at another time
the third part of so many.
Now guesse
you how many are left.

Un hombre dijo a otro,
creo que este año tuviste 2 millares de carneros:
así fue dijo el segundo; y qué de la paga
de la décima parte del total y luego las cuantiosas
pérdidas con lo que son reducidos,
pues en una ocasión perdí la mitad
de los que ahora tengo y en otra
la tercera parte de dicha cantidad y
la tercera vez un cuarto de ella.
Ahora averigua cuántos quedan.

La solución presentada por Recorde fue:

Después del decimo, sobran 1800

1) Si el total sobrante fuese 12, al principio el hombre tenía 12 + 6 + 4 + 3, o sea, 25; error correspondiente: 1775.

2) Si el total sobrante fuese 24, al principio el hombre tenía 24 + 12 +8 + 6, o sea, 50; error correspondiente: 1750. 

Entonces, él coloca el siguiente diagrama:

Fórmula 05

y la diferencia entre los productos de dos números unidnos se divide por la diferencia entre los errores para obtener el resultado pedido:

Fórmula 06

El procedimiento es exactamente el que conocemos hoy por método de las secantes.  

Es interesante y pintoresco notar que Recorde, en el trabajo anteriormente citado, publica esta regla en forma de verso:

Gesse at this woorke as happe doth leade.
By chaunce to truthe you may procede.
And first woorke by the question,
Although no truthe therein be done.
Suche falsehode is so good a grounde,
That truth by it will soone be founde
From many bate to many mo,
From to fewe take to fewe also.
With to mucho ioyne to fewe againe,
To the fewe adde to many plaine.
In crooswaies multiplye contray kinde,
All truthe by falsehood for to fynde.

Observa este trabajo que al sucede enseña
Quizá a la verdad puedas acceder.
Primero trabaja en lo que el problema muestra,
Aunque ninguna verdad ahí se encuentre.
Tal falsedad es tan buen fundamento,
Que mediante él la verdad pronto se encontrará.
De muchas disputas a muchas más,
De tomar algo a tomar menos.
De mucho unir a poco de nuevo hacerlo,
A demasiado poco añadir lo demasiado pleno.
En formas cruzadas multiplica esencias contrarias,
Y así toda la verdad encontrar por falsedad.

Recorde verdaderamente sorprendía a sus amigos al proponer problemas difíciles que entonces resolvía con esa regla. Es claro que, por lo expuesto, concluimos que las ecuaciones lineales fueren tratadas en los tiempos más remotos por métodos preferentemente aritméticos, en lugar de métodos algebraicos. Conviene recordar aquí lo importante que fue la contribución en este campo de los escritores árabes, los cuales establecieren y aplicaron axiomas de transición de términos y redujeren ecuaciones implícitas a explícitas. Ellos introdujeron, a través de Al Khowarisme (825 d.C.) el nombre de algebra, que hasta hoy se usa.

4. ECUACIONES CUADRATICAS

Las ecuaciones polinomiales de segundo grado fueren resueltas aritméticamente por los egipcios, geométricamente por Euclides y sus seguidores y algebraicamente por los hindúes. El escritor árabe Al Khowarisme desarrolló reglas aritméticas que demostró por métodos geométricos.

El tratamiento aritmético aparece en otro documento matemático dejado por los egipcios: el Papiro de Berlín, que data de 2000 a.C. aproximadamente. Contiene ecuaciones cuadráticas que fueron resueltas usando la regla del falso. Utilizando notación moderna, la explicaríamos así:

Dadas las ecuaciones:

Fórmula 07

En estas condiciones (Fórmula 08)  

Los griegos resolvieron ecuaciones cuadráticas por métodos geométricos. La relación entre estas ecuaciones y áreas se originó con los pitagóricos. En los celebres “Elementos” de Euclides (300 a.C.), aparecen diversos problemas de esta naturaleza. Citaremos un ejemplo para ilustrar:  

Dado un segmento de línea de longitud a, cortarlo en dos segmentos: uno de largo a menos x y otro de largo x, de tal manera que el cuadrado con base en x tenga una área igual a la del rectángulo de lados a y a menos x.  

En forma moderna representamos este problema con la ecuación:

Fórmula 09

A continuación se presenta la solución dada por Euclides:

Figura 01

Dada la línea AB construya un cuadrado ABCD.

— Bisecte AD en E y dibuje EB.
— Extienda AD a través de A hasta F tomando de EF 5 EB.
— En AF construya un cuadrado AFGH y extienda GH para cortar DC en K.
— Entonces el rectángulo HC es igual al cuadrado AG.

Es mucho más fácil probar, aplicando teoremas de área a la figura, que las áreas sombreadas son iguales entre sí, o sea,

Fórmula 10

En la India, las cuadráticas fueren tratadas algebraicamente. Sridhara (1025 d.C.) parece haber sido el primero en establecer el llamado “método hindú” para cuadráticas. Es citado por Bhaskara (1150 d.C.) en la siguiente forma: “Multiplique ambos lados de la ecuación por un número igual a cuatro veces el termine cuadrado y sume a ellos un número igual al cuadrado de la cantidad original por encontrar. Entonces extraiga la raíz”.  

En la simbología moderna este enunciado es simple: dada ax2 + bx + c, tenemos inicialmente 4a2x2 + 4abx = 4ac y entonces 4a2x2 + 4abx + b2 = b2 + 4ac, por tanto (Fórmula 11). La raíz negativa era omitida.  

Los árabes también trabajaron con cuadráticas. Entre ellos Al-Khowarizme (825 d.C.), que tiene demostraciones geométricas para sus dos reglas algebraicas, basadas en modelos griegos. Citaremos una de ellas, correspondiente a la ecuación x2 + px = q, donde p = 10 y q = 39.

(Figura 2)

Al-Khowarizme construye un cuadrado como el de la figura anterior. Entonces, el área de la figura completa (x + 1/2 p)2 es igual a la suma de la parte no sombreada (x2 + px) más la parte sombreada (p2/4). En el caso específico presentado, x2 + 10x = 39 queda:

(Fórmula 12)

Como siempre acostumbraba suceder, aquí también la raíz negativa era omitida.  

Hay también una regla de Omar Khayyam (1100 d.C.) para la ecuación x2 + px = q.  

Más tarde, en 1590 aproximadamente, Vieta realizo avances en los métodos algebraicos. Consiguió reducir una cuadrática general a una cuadrática pura utilizando una hábil sustitución. Su ecuación general es puesta de la siguiente manera:

“a quadr. 1 B2 in A aequantur Z plano”.

En nuestros días esto se traduciría como x2 + 2ax = b. Con la sustitución x = u + z y después z = a/2, la ecuación se transforma en:

(Fórmula 13)

Después de Vieta encontramos soluciones por factorización con Harriot (1631). Entre los métodos más modernos citamos aquél que usa determinantes, introducido por Euler (1750) y Bezout (1775) y mejorado por Sylvester (1840) y Hesse (1844). 

5. CUBICAS: UNA CONTROVERSIA HISTORICA

El caso de las cúbicas, tal vez por presentar mayor dificultad, tiene una historia más interesante.    

Se tiene noticia de que Arquímedes (225 a.C.) trabajó con una cúbica proveniente de un problema de Geometría. Diophantus, un siglo más tarde, enfrentó una cúbica en un problema geométrico. Los árabes también trabajaron con ellas y el poeta algebrista Omar Khayyam (1100 d.C.) clasificó trece casos de cúbicas que él consiguió resolver. En el siglo XIII Fibonacci (1225) fue desafiado en un debate a resolver la ecuación x3 + 2x2 + 10x = 20.

Observamos que fue decisivo el papel de los debates en el progreso de la solución de ecuaciones algebraicas, como veremos más adelante.

En 1397 Gutenberg inventa la imprenta, lo que representa un factor de suma importancia para el progreso de toda la ciencia y la humanidad, inclusive en el campo que ahora tratamos.

Los italianos fueron, sin duda, los que más destacaron en la solución de las cúbicas. Pero la historia no nos da condiciones para responder con seguridad a la pregunta:

¿Quién propuso la solución de la ecuación de tercer grado?

A principies del siglo XVI un matemático de Bolonia, Scipione del Ferro, resolvió cúbicas del tipo x3 + ax = b. Según la costumbre de la época, él no reveló su descubrimiento, excepto a un estudiante, Antonio María Fior.   

Veinte años después, Fior y otro italiano de nombre Tartaglia, realizaron un debate: cada uno de ellos enviaba treinta problemas al otro, y el que resolviese un mayor número de problemas en 50 días sería proclamado vencedor. Ansioso por derrotar a Fior y sabiendo que su oponente tenía el esquema para cierto tipo de cúbica, Tartaglia dedicó su tiempo a la cúbica en la que faltaba el termino de primer grado. Descubierto el esquema, se dedica a la cúbica en la que faltaba el termino de segundo grado. Él mismo cuenta que descubrió la solución menos de dos semanas antes del debate. Equipado con los dos esquemas, uno conocido por Fior y otro no. Tartaglia resolvió todos los problemas que le fueron enviados por Fior en dos horas y derrotó completamente a su oponente.

El historiador Ball cuenta, en su libro (Ball, 1915), que Cardano pidió el esquema a Tartaglia, pero éste se rehusó. Cardano, diciendo a Tartaglia que había un noble interesado en la solución, combinó un encuentro con él en Milán. Cuando Tartaglia llegó, descubrió el engaño, pero fue finalmente persuadido a ofrecer a Cardano su descubrimiento, bajo promesa de guardar el secreto. La solución fue ofrecida en forma de verso:

Quando chel cubo con le cose appresso  
Se aggualia à qualche numero discreto  x3 + bx = c
Trouan dui altri differenti un esso  u - v = c
Dapoi terrai questo por consueto   
Che ’l lor produtto sempre sia eguale  uv = (b/3)3
Al terzo cubo delle cose neto,  
El residuo poi suo generale  
Delli lor lati cubi ben sostratti  
Varra la tua cosa principale  fórmula 14

 

Cuando el cubo con la cosa se ha formado   
se igual a algún número discreto  x3 + bx = c
Encuentra otros dos que en eso difieran.   u - v = c
En adelante considerado esto conocido   
Que su producto sea siempre igual  uv = (b/3)3
Al cubo de la tercera parte de la cosa neta,  
De ahí el residuo en general  
De sus lados cubos bien restados.  
Valdrá tu cosa principal  fórmula 14

y Tartaglia afirmó haber dado toda la teoría a Cardano. Éste admite haber recibido la solución de su oponente, pero sin explicaciones. De cualquier modo, ya era posible resolver x3 + bx = c y x3 + ax2 = c. La reducción del caso general a la primera de las formas no fue considerarla por Tartaglia. El hecho es que Cardona, en 1545, publico su “Ars Magna” y en él, la contribución de Tartaglia; cuando el segundo protestó, Ferrari, un estudiante de Cardano, afirmó que su maestro había recibido la solución de Ferro. Habiendo recibido de Tartaglia el desafío para un duelo, Cardano envió a Ferrari y se sabe que los seguidores de éste eran tan agresivos y sarcásticos, que Tartaglia agradeció el haber salido vivo de ahí.

Desde esa época la solución es conocida bajo el nombre de Cardano.

A continuación presentarnos le solución en su forme moderna:

(Fórmula 15)

Hay dos valores para w1 y por lo tanto seis valores para w2 y w3. Seleccionamos las parejas w2, w3 tales que

(Fórmula 16)

Aunque haya duda en cuanto a quien fue el verdadero autor de la fórmula, es un hecho que Cardano contribuyó mucho al desarrollo de la teoría de las ecuaciones algebraicas.

ECUACIONES DE GRADO MAYOR QUE TRES

La solución de la ecuación de cuarto grado fue encontrada por Ferrari en circunstancias también interesantes. Consta que Cardano, habiendo recibido un problema de Luanne de Tonini da Coi, con la conjetura de que no había solución, no consiguió resolverlo y lo entrego a su discípulo Ferrari. Éste, no obstante su juventud, tuvo éxito donde su maestro falló. Con la publicación de Ars Magna, el proceso se volvió muy conocido. En Tietze, 1965, pág. 213, se encuentra el complicado esquema para la ecuación general de cuarto grado, con simbología moderna.       

Más tarde Euler encontró un método diferente del de Ferrari para reducir una ecuación de cuarto grado a una de tercer grado. Imaginó entonces, conforme publicaciones suyas de 1732 y 1749, que podía reducir ecuaciones de quinto a cuatro grado. Lo mismo supuso Lagrange, pero ambos fallaron.     

Leibnitz no creía que había solución para las ecuaciones generales de grado superior a cuatro, conforme se deduce de sus cartas de 1678 y 1683; él llegó a afirmar que había probado este hecho. Un siglo más tarde Gauss afirmó lo mismo.  

El primer trabajo encaminado a probar, sin mucho rigor, que una ecuación de quinto grade no puede ser resuelta por métodos algebraicos, se debe a Ruffini (1803-1805). En 1826 Abel dio la primera prueba realmente rigurosa.

El gran matemático Niels Henrik Abel tuvo una corta y sufrida existencia. Nació en Noruega el 5 de agosto de 1802 y aún muy joven contrajo tuberculosis, falleciendo a los veintisiete años. Muy tímido y de temperamento melancólico, nunca imaginó haber contribuido tanto al desarrollo de la Matemática, por lo cual comenzó a interesarse a los dieciséis años. En 1821 entró a la Universidad de Christiania y estudió los trabajos de Euler, Lagrange y Legendre. En 1823 llegó a creer que había descubierto la solución para la ecuación de quinto grado, pero luego percibió que estaba en un error. Trató entonces de probar la imposibilidad y su prueba, bastante difícil, fue publicada inicialmente en 1824, en forma de panfleto y posteriormente en una revista de matemática. Abel estudió otros innumerables problemas y estuvo en Berlín, Italia y París. En este último lugar escribió un largo trabajo, pero el manuscrito fue extraviado por el “réferi”, que era Cauchy. Posteriormente éste fue exiliado, y el trabajo cayó en manos de Gergonne, habiendo sido finalmente publicado en 1845. Es un hecho que Abel tuvo problemas hasta de orden financiero para vivir y que, habiendo sido llamado en 1829 para dirigir un gran Instituto Politécnico, murió antes de conocer dicha noticia.

Otro gran matemático que desarrolló profundas teorías que se relacionan con las ecuaciones algebraicas fue Evarsite Galois, nacido el 25 de octubre de 1811 en el sur de París. En 1828, siendo un estudiante de diecisiete años anuncia sus primeros descubrimientos matemáticos. No se interesaba por otros asuntos que no fueran de índole matemática, y en 1829, no consiguió entrar a la Escuela Politécnica, pero logró en el mismo año un lugar en la Escuela Normal, de donde fue expulsado por mezclarse en política y criticar al director. Tres manuscritos suyos fueron rechazados para ser publicados por la Academia de París. Murió en un duelo, el 30 de mayo de 1832, debido a un caso banal de amores. Durante la noche anterior a su muerte, dejó una carta-testamento de sus descubrimientos a su amigo Chevalier. De la famosa Teoría de los Grupos, debido a Galois, se deduce con facilidad el hecho d que las ecuaciones de grado superior a cuatro, no tienen solución que pueda ser expresada por medio de una fórmula algebraica.

7. CONCLUSION

Este trabajo representa un breve relato sobre la historia del desarrollo de las ecuaciones algebraicas. A lo largo de su lectura nos dimos cuenta más de una vez, de hechos reveladores y de características siempre presentes en el hombre: ansia del descubrimiento, profundizaje del conocimiento, destreza y sagacidad, sentimientos de competencia, y por que no decirlo también, de envidia, ambición, egoísmo y megalomanía. Es innegable que tales factores representan, entre otros, motivos determinantes para el desarrollo de las ciencias.

Revisión del texto: León Kushner S.
Traducción de los versos: Concepción Ruíz y Rafael Martínez.

 articulos
 
     
Referencias bibliográficas

Ball, W. W. Rouse, 1915, A Short Account of the History of Mathematics, London.
Boyer, C. B., 1986, A History of Mathematics, John Wiley & Sons, USA.
Sanford, V. A., 1930, 1958, Short History of Mathematics, The Riverside Press, USA.
Schreier, O., Sperner, E., 1951, Introduction to Modern Algebra and Matrix Theory, Chelsea Publishing Company, New York.
Smith, D. E., 1925, 1953, History of Mathematics, vol. II, Dover Publications, New York.
Tietze, H., 1965, Famous Problems of Mathematics, Graylock Press, New York.



     
       
____________________________________________________________
     

Silvia Torres Alamillo
Instituto de Ciencias Matemáticas de São Carlos, Universidad de São Paulo, Brasil.

como citar este artículo

     
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 17