revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
cuento        
 
  menu2
PDF    →
            R170B07 

La tortuga y el pescador

 
   
   
     
                     

Una vez, a las orillas del mar, un pescador esperaba que las tortugas salieran a desovar, pero después de un rato se durmió.

Las tortugas desovaron y regresaron al mar, el pescador iba a sacar los huevos de la arena, cuando escuchó una voz que decía… ¿Por qué lo haces? Vio por todos lados pero no vio nada. ¿Por qué lo haces? —volvió a escuchar.

Hasta que vio algo que no podía creer, una tortuga era la que estaba hablando y le volvió a preguntar ¿por qué lo haces? El pescador no salía de su asombro.

Y le dijo:  

— ¿Quién eres? Le preguntó.
— Yo soy un tortuga a la que persigues.
— Yo no persigo tortugas, le contestó, yo sólo vendo los huevos pero no las persigo ni las mato.
— Pero sacas los huevos y los vendes.
— Sí, yo lo hago porque tengo que subsistir.
— Sí, pero nosotros tenemos que sobrevivir.
— Tienes razón pero tengo que llevar dinero a mi casa para comer.
— Pero nosotras algún día nos extinguiremos para siempre; si siguen robando nuestro huevos y matando a mis hermanos.
—Pero tu tan solo eres un animal, yo soy una gente y tengo que darle de comer a mis hijos.
— Pero yo también tengo que sobrevivir, el que sea un animal no te da derecho a extinguir mi vida y la de mis hermanas, los de tu especie envenenan nuestras aguas con desechos y basura y también terminan con otras especies como las ballenas. Para explicártelo mejor ven sígueme.

Lo llevó a una especie de poza rodeada de piedras en sus aguas transparentes, empezó el reflejo de una tierra muy diferente, tenía grandes animales con cuello largo y chico, entre ellos había una tortuga un poco diferente a las de ahora, la tortuga le dijo:

— Como ves las tortugas habitamos la Tierra mucho antes que ustedes, pero ahora ustedes nos están acabando.
— Ya entiendo.
— Por favor pescador, protege a mí y a mis hermanas, ayuda a que no contaminen el mar.
— Sí, tu también mereces vivir en este mundo, tenemos que compartirlo, animales y vegetales.   

De repente, un ruido de una ola lo despertó, había estado soñando, pero en la arena, había como pisadas paralelas que iban hacia el mar, el pescador ya no robaría huevos de tortuga, arreglaría un viejo bote, y pescaría en alta mar. En el mar una tortuga que nadaba lo observaba satisfecha.

Nombre: Noé González Ortíz, Cuernacava, Morelos.
Categoría: 12 a 14 años.

  articulos

     
_____________________________________________________________
     

Nota: A principios de julio de 1989 tuvo lugar en el Departamento de Biología de la Facultad de Ciencias de la UNAM, el “Sexto Encuentro Interuniversitario sobre tortugas marinas”. Dentro del marco de este evento, se convocó a un concurso de cuentos para niños. El tema: la extinción de la tortuga marina.

Se abrieron dos categorías, de 8 a 11 años y de 12 a 14 años. Se recibieron 84 cuentos en total; de éstos, se premiaron cuatro en cada categoría y se otorgaron cuatro menciones especiales. Presentamos dos de los cuentos premiados y en el próximo número publicaremos otros más.

     
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

del herbario        
 
  menu2
PDF    →
            R170B01 

La planta llamada Ginseng

 

Las Esporas de Lycopodium clavatum y el condón

Jaime Jiménez
   
   
     
                     

 La planta llamada Ginseng

La palabra ginseng proviene de la palabra china “yin-shen”  que significa “imagen de hombre”, debido a la semejanza de la raíz a una figura humana. De acuerdo a la tradición china, la planta puede ayudar a superar la debilidad humana, incluso ocasionada por la vejez, ya que aumenta la juventud, el vigor y la longevidad; por la semejanza de la planta (raíz) a la figura humana, esta debe servir para el cuerpo humano (lo semejante cura lo semejante). Así, las raíces más viejas alcanzan mayores precios, pues tienen una mayor conformación, y supuestamente, tienen mejores características. Tal vez por la extendida fama de la hierba, Lineo describió al género de la planta con el nombre de Panax (Panax ginseng, es el nombre científico de la especie), palabra derivada del griego “panakeia” (en español panacea), que significa remedio universal.      

Los primeros emperadores chinos creían que la planta aumentaba la fertilidad, prolongando la edad y evitaba la fatiga física y mental. Era tan apreciada que incluso se podía utilizar para pagar los impuestos al gobierno. En el siglo XVII los europeos enviaron muestras de esta planta a su continente como mercancía y con la intención de cultivarlas (cosa que nunca lograron).

Es interesante señalar que existe un ginseng americano (Panax quinquetoliuos) con poblaciones silvestres importantes en Canadá y Estados Unidos. A raíz del conocimiento de los usos chinos, la Compañía (Francesa) de las Indias fue la primera en exportar ginseng a Oriente y Europa. Posteriormente, hubo otros exportadores; incluso hay un informe que indica que en 1789 Daniel Boone colectó y exportó esta planta.     

La insaciable demanda China de la planta provocó que las poblaciones naturales de las especies peligraran en varios países como Canadá, Corea, Nepal y la propia China. Ello determina que se desarrollaran plantaciones en Oriente y en Estados Unidos.

En la década de 1970, algunos simposia y reportes de investigación realizados en Corea del Sur, señalan que la hierba estimula la síntesis de proteínas, disminuye el colesterol y el azúcar de la sangre, regula la tasa metabólica y evita o disminuye el estrés. Además, los coreanos reivindican el uso externo en shampo, jabón, lociones capilares, y suponen que los caballos de carrera tienen mejor actuación si lo ingieren como alimento (ojo, aficionados al hipódromo). Algunos investigadores soviéticos, búlgaros, japoneses y suecos aseguran que el ginseng es útil para tratar el estrés; en particular, el Comité ginseng de la Academia de Ciencias de la URSS, ha llevado a cabo extensas investigaciones, señalando que los cosmonautas y atletas lo consumen para disminuir la fatiga. Los alemanes (RFA) han desarrollado cremas faciales, aspirinas y preparados vitamínicos.

Muchos investigadores estadounidenses ven con escepticismo el mencionado valor curativo del ginseng, e incluso, la oficina encargada de controlar el uso de alimentos y drogas no aprueba su utilización medica. Además existen antecedentes de demandas judiciales en contra de vendedores del producto (en E.U. no esta prohibida su venta), pues algunos compradores aseguran que el tratamiento con la planta no les sirvió para su enfermedad o no les estimuló la sexualidad. Algunos médicos atribuyen al ginseng problemas relacionados con la presión alta, malestares menstruales, diarrea y erupciones cutáneas.

A pesar de estos señalamientos, en Estados Unidos es común encontrar extractos líquidos, cápsulas, goma, dulces, cigarros elaborados con la hierba, productos, todos ellos, recomendados por sus vendedores para reumatismo, anemia, insomnio o como afrodisiaco. También existe un coctel llamado “Ginseng Rush” y algunas compañías producen cosméticos, jabones, colonias, perfume y shampúes.

Curiosamente Estados Unidos es un productor importante, pero al mismo tiempo compra ginseng en Oriente para venderlo a México, Reino Unidos, Hong Kong y Canadá.

El uso del ginseng en México es relativamente reciente y puede adquirirse en tiendas naturistas o en algunos almacenes (en shampo o en cosméticos). Pero falta conocer la opinión de los usuarios y de los médicos, para saber si las virtudes, varias veces descritas, son ciertas. Sobre todo habría que comparar su efectividad con las innumerables plantas mexicanas de uso tradicional o con los inmejorables chiqueadores mexicanos.

 

LAS ESPORAS DE LYCOPODIUM CLAVATUM Y EL CONDON

Uno de los pilares en la prevención del SIDA es el uso del condón, pues se ha comprobado que impide el contacto de los fluidos corporales; esto ha propiciado una gran reactivación en la fabricación de tales aditamentos, con una diversidad de estilos y presentaciones realmente loable. Dentro de la gama de posibilidades que existe, hay un condón que no lleva líquido lubricante y que tiene como elemento antiadherente esporas de Lycodium clavatum L., que ya antes fueron utilizadas en guantes quirúrgicos, en polvos cosméticos, como absorbente en shampúes, como antiadherente en moldes de algunos metales, en cápsulas y también en supositorios.

El problema de estas esporas es que causan reacciones alérgicas que van desde dermatitis hasta asma, dependiendo del tipo de contacto que se haya tenido con ellas. Así se pueden presentar reacciones en los obreros que preparan píldoras y supositorios; en los obreros metalúrgicos que preparan los moldes con antiadherente; en la gente de teatro por el uso constante de polvos cosméticos y en los usuarios de shampúes y de píldoras. Otros problemas se han detectado cuando las esporas de Lycopodium entran en contacto con heridas en general (por el uso de guantes quirúrgicos) o del ano (por el uso de supositorios), es el desarrollo de granulomas —grupos de células epitelialoides, células gigantes multinucleadas, linfocitos y fibroplastos, con pareas de necrosis— que simulan enfermedades neoplásticas, como cáncer o granulomas infectivos, provocados por bacterias como tuberculosis o sífilis. Afortunadamente estos granulomas no son letales y pueden ser extirpados sin problemas.

Ahora bien, aunque no sería conveniente opinar sobre los diferentes gustos y prácticas en el uso de este tipo de preservativo, sí queda claro que sólo hay dos alternativas: usar otro tipo de condón o afrontar algunas de las posibles molestias que provoca el condón.

  articulos
       
_____________________________________________________________
     

 Referencias Bibliográficas

Carlson, A. W., 1986, Ginseng: America’s Botanical Drug Connection to the Orient, Econ. Bot., 40(2):233-249.                                                                                                        Balick, M. J., and J. M. Beitel, 1988, Lycopodium spores found in condom dusting agent, Nature, 332:591.

     
_____________________________________________________________
 
     
Jaime Jiménez                                                                                                                    Herbario, Facultad de Ciencias, UNAM.
 
como citar este artículo    →
 [En línea]
     

 

 

 

orión        
 
  menu2
PDF    →
            R170B04 

Estrellas enanas cafés

Colaboración: Julieta Fierro
   
   
     
                     

Las estrellas, que no son más que soles vistos a gran distancia, poseen masas muy variadas: las hay cientos de veces más masivas que el Sol y de hasta una sexta parte de la masa de éste.    

La diferencia entre una estrella y un planeta, es que la primera produce luz propia mientras que el planeta brilla por reflexión. Para poder emitir luz, la estrella requiere de una masa mínima, por debajo de la cual no logra realizar reacciones termonucleares en su centro y por consiguiente no logra encenderse. Júpiter, por ejemplo, que es 80 veces menos masivo que el Sol, está justamente en la frontera entre ser un planeta y una estrella. Probablemente recién formado brillaba con luz propia, pero debido a su masa tan baja, su presión y temperatura centrales no son lo suficientemente elevadas para seguir desencadenando las reacciones nucleares que lo harían brillar.

La evidencia a favor de que Júpiter fue estrella es indirecta. De las cuatro grandes lunas de Júpiter, la más cercana, Io, esta desprovista de una gruesa capa de hielo y es más pequeña que las demás. Se cree que si Júpiter llegó a ser estrella durante unos cuantos miles de años pudo haber evaporado la capa de hielo de Io.

Cuando se realizan conteos estelares, se encuentra que existen muy pocas estrellas masivas y muchas estrellas poco masivas: hay cientos de estrellas de la masa del Sol por cada estrella muy masiva. Asimismo, existen cientos de estrellas menos masivas que el Sol por cada estrella como nuestro astro. De continuar esta tendencia se esperaría que hubiera miles de cuerpos parecidos a Júpiter por cada Sol; pero desde luego éstos no son brillantes y por consiguiente son muy difíciles de detectar.

Se cree que existen cuerpos celestes que tienen masas de una decima de la masa del Sol y se les denomina estrellas enanas cafés. Se piensa que de haber brillado, solamente lo habrían hecho durante unos cuantos miles de años, como Júpiter, pero que deberían de ser muy abundantes.

Sin embargo, la búsqueda de estrellas enanas cafés ha resultado infructuosa hasta el momento. Entre más brillantes, cercanos, abundantes y de vida larga sean los cuerpos celestes, son más fáciles de descubrir. Las enanas cafés son débiles y brillan muy poco, aún cuando se considera que deberían ser muy abundantes.

Principalmente se han buscado enanas cafés en la vecindad de estrellas con planetas como el Sol, que tiene muchos cuerpos asociados (planetas, lunas, asteroides, cometas, anillos). Sin embargo, estas búsquedas han resultado infructuosas.

Recientemente el Dr. Forest, de la Universidad de Arizona, reportó haber encontrado enanas cafés que todavía están en etapa luminosa, en las llamadas nubes del Toro, que son regiones de reciente formación estelar. Es decir, él piensa haber descubierto cuerpos del tamaño de Júpiter que todavía son brillantes. El Dr. Forest buscó estrellas muy rojas de campo, en lugar de buscar estrellas enanas cafés asociadas a estrellas de tipo solar. De ser cierto el descubrimiento del Dr. Forest, finalmente se habrán descubierto algunas de las cientos de miles de millones de estrellas faltantes.

  articulos

     
_____________________________________________________________
     
Julieta Fierro      
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

orión        
 
  menu2
PDF    →
            R170B04 

¿Antigravedad?

 
Revolución francesa y Astronomía

 
Colaboración: Julieta Fierro
   
   
     
                     

Por más extraño que parezca, en esta época se están volviendo a cuestionar aspectos relacionados con la fuerza de gravedad, y consecuentemente se están realizando nuevos experimenta al respecto. Uno de los investigadores es el Dr. Efraín Fischbach de la Universidad de Indiana, quien reinterpretó los resultados de un experimento realizado hace medio siglo por el físico húngaro Eotwos, encaminado esencialmente a demostrar que los cuerpos caen en la misma forma, independientemente de su composición química. Este experimento es un refinamiento de aquél otro ya famoso, realizado por Galileo en la Torre de Pisa.                         

Los experimentos llevados a cabo por Fischbach, y por muchos otros grupos de científicos parecen indicar que podría haber una fuerza en la naturaleza, llamada temporalmente “fuerza de hipercarga”, que se opondría a la gravedad.                               

Hasta ahora los físicos trabajan con cuatro fuerzas fundamentales: la fuerte que mantiene unidos a los núcleos atómicos; la débil que es responsable del decaimiento radioactivo; la electromagnética que corresponde a los fenómenos relacionados con la luz y la electricidad, y la gravitacional que es, por mucho, la mas débil de todas, y a la que se responsabiliza del peso de los cuerpos (un pequeño imán levanta un clavo y vence la fuerza gravitacional que ejerce la totalidad de la materia que conforma a la Tierra).

Según los investigadores mencionados, la quinta fuerza es un céntimo mas débil que la fuerza de gravedad, aunque en dirección opuesta a ella, y deja de tener importancia mas allá de algunas decenas de kilómetros. La hipercarga es más importante que elementos químicos cuyos átomos tienen mayor densidad. Repitiendo el experimento de Eotwos, los laboratorios han encontrado que un cuerpo de hierro cae más despacio que uno de aluminio. La hipercarga es el número de protones y neutrones que tiene un átomo. Fischbach argumenta que la quinta fuerza es proporcional a la hipercarga.

 

REVOLUCIÓN FRANCESA Y ASTRONOMÍA

A raíz de los festejos de la Revolución Francesa, valdría la pena recordar cual era el panorama al que se enfrentaban los astrónomos franceses en esos años de grandes cambios.       

Por ejemplo, el edificio del Observatorio de París era arquitectónicamente parecido a la Bastilla y por consiguiente, estuvo en la mira de los revolucionarios, quienes lo saquearon por confundirlo con algún edificio monárquico dedicado a la opresión del pueblo; pero no solo tenían esa confusión, sino que, como los telescopios se parecían a los cañones, muchos de los instrumentos astronómicos fueron seriamente dañados.

En cuanto a la actividad astronómica propiamente dicha, esta se vio seriamente relegada en aras de la modernización.

Los astrónomos de entonces, se dedicaron a definir los nuevos sistemas de medidas que trataron de implementarse durante esas épocas en que dominaba el espíritu cartesiano; así las formas de los estados franceses se volvieron cuadradas; se hicieron semanas de diez días, meses de treinta; se definió la nueva unidad de peso, el kilo, como el peso de un decilitro cúbico de agua destilada.                            

Los astrónomos contribuyeron a los nuevos sistemas de unificación dimensional, por lo que les tocó definir la unidad de longitud que fuera un patrón para Francia. Primero se les ocurrió definir el metro como la longitud de un péndulo que tuviera un periodo de oscilación de un segundo (el periodo de oscilación de un péndulo sólo depende de su longitud, un péndulo corto oscila más rápido que uno largo). Descartaron esta idea pues consideraron que el segundo no era una unidad ideal de medida de tiempo, ya que hay 60 y no 100 segundos en un minuto, y 60 y no 100 minutos en una hora, etc.

En vista de lo anterior los astrónomos franceses, que ya no eran Reales y que se turnaban anualmente el puesto de director del observatorio, decidieron definir el metro como una cienmilésima parte de la circunferencia de la Tierra que pasaba por el meridiano de París. Lalande, Cassini y Messier, entre otros, dedicaron toda su energía a medir la circunferencia para poder hacer la división y así tener el metro patrón, el que no sólo unificó las unidades de medida en Francia sino que, finalmente, hace unos cuantos años, se convirtió en la unidad de medida de todo el mundo.

  articulos

     
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

noticiencia        
 
  menu2
PDF    →
            R170B06 

Modernizar para modernizar

o las incertitudes del futuro

 
César Carillo Trueba
   
   
     
                     

"Modernidad y modernización son conceptos vagos, con significados variables. Cada época se ratifica a sí misma de moderna para distinguirse de la anterior. ¿De qué modernización se trata? En el discurso político actual se emplea el término sin precisarlo. No se usa tanto como un concepto explicativo de la realidad sino como un slogan, un lema destinado a suscitar una adhesión emotiva a un programa de gobierno, a un slogan político conviene la vaguedad. Al mantener su indefinición y dejar a cada quien su propia interpretación, puede suscitar reacciones positivas en grupos con ideologías e intereses encontrados. Si se definiera, perdería ese aura emotiva y provocaría, inevitablemente, controversias”. Luis Villoro  

Poco se sabe de la contribución de la Iniciativa Privada (IP) al gasto en Ciencia y Tecnología, aunque, es cierto que un cinco por ciento pasa fácilmente desapercibido. Esta falta de interés por parte de la IP se debe al hecho de que, por años, los empresarios mexicanos han importado tecnología, implantándola directamente en sus industrias. Los resultados de esta actividad son, según un estudio del CONACyT, los siguientes:

“Sobre una base de 100 mil industrias de magnitudes diversas en México, 67 mil cuentan con ‘tecnología artesanal’, 25 mil con ‘tecnología madura’, que puede considerarse obsoleta, y 8 mil cuentan con procesos de ‘alta’ tecnología. De este último total, alrededor de 7 mil empresas cuentan con recursos de avanzada, porque son multinacionales o se vinculan a ellas”.

(La Jornada, 20 de octubre de 1989).

Esto refleja las condiciones en las que se lleva a cabo la investigación científica en general y, en particular, aquella que se encuentra ligada directamente a la tecnología. “Son pocos los investigadores, están mal pagados y hay escasos elementos para trabajar”, señala Gustavo Cadena, secretario académico del Centro para la Innovación Tecnológica de la UNAM, al referirse a la situación en este campo, y prosigue: “en México el problema es grave por la carencia de presupuesto para equipos nuevos, estamos trabajando con material viejo y sin refracciones.

“Se trata de la posibilidad del país de aportar conocimientos que le permitan a las empresas tener una mejor posición en el mercado nacional e internacional y, sin embargo, no hay incentivos para hacer crecer el número de científicos que requiere México.

“Durante años, las empresas mexicanas se dedicaron a importar conocimiento y equipo, y esas es una de las causas por las que no existe una fuente generadora de maquinaria y herramienta; fue el modelo de desarrollo que nos llevó a la dependencia”.

Un ejemplo de ello es la invención del Mepsicron, aparato que permite obtener una mayor resolución en imágenes. El experimento original fue realizado en la Universidad de Berkeley, por Claudio Firmani, Élfego Ruiz, Carlos Espejo y Gian Franco Bisiacchi, de la UNAM. Encargaron el prototipo a la ITT, ya que en México no se había tecnología para construirlo. “Se hizo el primer ejemplar y al ITT nos lo vendió en 20 mil dólares, se quedó con el diseño y ni las gracias nos dio”, cuenta Gian Franco Bisiacchi en una entrevista hecha por Adriana Malvido para La Jornada (9 de junio).

“El problema es —prosigue Bisiacchi— trabajar en un país sin infraestructura de alta tecnología; no hay empresas en México que produzcan lo que necesitamos… Hay que partir de cero y entrar a campos ajenos, no como en países desarrollados que cuentan con especialistas para todo. En lo que se refiere a infraestructura industrial, México está en los 40 a nivel de conocimiento, y eso se debe a que ha sido comprador y no innovador de tecnología. A la industria le parece más fácil importar, irse a lo seguro, para ellos es un problema de negocio. Y ahí está la transferencia tecnológica como base de la dependencia del país”.

Un punto muy interesante que toca Bisiacchi, es el referente a lo poco favorecido que se encuentra el trabajo de experimentación —que puede llevarse años— dado el sistema de evaluación imperante. “Trabajamos muy presionados. A un investigador se le pide producción a través de artículos, Llevo cuatro años sin redactar ninguno, porque o desarrollo tecnología, o escribo”.

Sin embargo, parece que últimamente ha surgido un ligero brote de interés entre algunos empresarios, por apoyar proyectos de desarrollo tecnológico. La misma situación económica del país los empuja a ello. “Antes de la apertura comercial, los industriales compraban tecnología en el extranjero y la implantaban en sus fábricas. Sin embargo, con el encarecimiento del dólar y la entrada incontrolable de mercancías, algunas de mejor calidad, se han visto en la necesidad de recurrir a las universidades que hacen innovaciones tecnológicas para modernizar sus equipos fabriles y competir en el mercado nacional”, señala el director del Centro de Innovación Tecnológica de la UNAM, Jaime Martuscelli. “Este fenómeno se refleja en el hecho de que antes de 1983, en el ciento por ciento de las investigaciones que hacía la UNAM, eran por inquietud del científico, y ahora el 50 por ciento son por encargo de la iniciativa privada”. (La Jornada, 9 de octubre).

La industria de telecomunicaciones es un buen ejemplo de ello. Según un estudio de la Cámara Nacional de la Industria Eléctrica y Electrónica, el pago al exterior por concepto de tecnología es del 46 por ciento del costo de producción, mientras que el “pago al trabajo” no llega más que al 9 por ciento y el gasto en tecnología nacional es apenas “una cuarta parte de lo que se gasta en tecnología importada y gastos relacionados a ella”.

En el mismo estudio se menciona la importancia de la producción de tecnología para este sector: “la medida de la importación y el pago de la tecnología, es el margen de desventaja contra otros competidores… Los bienes y servicios inherentes al precio del conocimiento o concepto tecnológico —información, experiencia, conocimiento, marca, uso de patente, asesoría, exclusividad—, son factores de dominio y control de mercado internacional”. (La Jornada, 24 de septiembre).

Es innegable que este problema requiere de una mayor atención; de no ser así, se pueden cumplir predicciones tan fatales como las de Chavero, del Instituto de Investigaciones Económicas de la UNAM, quien afirma que, de prevalecer la actual situación “para 1994 la proporción de desarrollo experimental que se realiza en el sistema de investigación, será del 6 por ciento, aproximadamente, lo cual es indicativo de una mayor dependencia del país en materia de tecnología, lo que se traducirá en una mayor importación de procesos tecnológicos, con la subsecuente descapitalización del país y un atraso tecnológico aún más acentuado”.

No obstante, la falta de contenido en la mayoría de los pronunciamientos en torno a este problema, la ausencia de claridad en cuanto a la relación entre lo que se ha llamado “investigación o ciencia pura” y “ciencia aplicada”, el creciente “adelgazamiento del Estado”, el entu$ia$mo de los empresarios para todo aquello que de resultados inmediatos, o que prometa aplicación a corto plazo, así como la actividad de las instituciones públicas en el mismo sentido, no hacen más que enturbiar algo que desde hace tiempo se ha solicitado: el apoyo de la IP a la ciencia en nuestro país.

Asimismo, el Plan Nacional de Desarrollo carece de claridad en muchos aspectos. El programa para la modernización tecnológica, anunciado por el secretario de Comercio y Fomento Industrial, tampoco es claro. No se diga el Programa CONACyT-Industria de Desarrollo Científico, que tantos comentarios ha suscitado.

¿Qué se pretende? ¿Construir una verdadera infraestructura científico-tecnológica? Es decir, brindar un mayor apoyo a la enseñanza y a la formación de recursos humanos en general, así como a la investigación en su conjunto; o bien, se trata de impulsar sólo aquellas áreas que se piensa que pueden aportar resultados inmediatos, sacrificando la pequeña y aún incipiente estructura científica que con trabajo se ha levantado (¿?).

En la presentación del programa para la modernización tecnológica, el secretario de Secofi, Jaime Serra Puche, afirmó: “los problemas que enfrentamos en materia tecnológica son mayúsculos, pero estamos convencidos de que durante el presente sexenio se logrará una modernización del país”. ¿Cómo se va a transformar esa rama?

Según el Plan Nacional de Desarrollo, pro medio de una “pronta y eficaz modernización de las políticas nacionales en ciencia y tecnología”. El término modernidad depende del contenido que se le dé, dice el filósofo Luis Villoro.

El futuro de la ciencia y la tecnología en nuestro país depende del contenido que nuestros gobernantes asignen a una palabra. Frágil destino.

  articulos
       
_____________________________________________________________
     
       
_____________________________________________________________
     
César Carrillo Trueba                                                                                                       Facultad de Ciencias, UNAM.
como citar este artículo    →
 [En línea]
     

 

 

 

 

 

 

 

 

 

 

cuento        
 
  menu2
PDF    →
            R170B08 

El hombre y

la tortuga "Esperanza"

 
 
   
   
     
                     

Érase una vez un hombre que navegaba por las aguas del mar, en eso vio pasar una tortuga y la persiguió hasta la orilla del mar, la tortuga corría pero como era muy lenta la logró alcanzar. Y dijo —la tortuga—, no me mates, sufrimos igual que ti, cuando nos comes, matas y robas nuestros huevecillos para venderlos y así obtener dinero para poder mantener tu familia; cuando necesitas dinero nos matas y vendes nuestra carne.

Date cuenta que somos seres vivos y no un juguete —terminó diciendo la tortuga—.

El hombre entendió y la dejó ir. Esa misma tarde el barco en que viajaba el hombre se hundió, por lo que un feroz tiburón atacó e intentó comerse al hombre; la tortuga que pasaba en esos momentos por ese rumbo, vio lo que estaba sucediendo e inmediatamente se dirigió a ayudar al hombre que un día le había salvado la vida y montándolo en su gran caparazón nadó con mucha prisa, y el tiburón no la pudo alcanzar. Y de este modo pudo salvarlo de una muerte segura. Este hombre al ver lo que la tortuga había hecho por él dedicó el resto de su vida a defender a las tortugas y a tratar de que los hombres no las maten y extingan su especie, pues ellas tienen el mismo derecho de vivir y reproducirse como el hombre, los pájaros y las plantas.

Fue tan grande el amor de este hombre hacia las tortugas marinas, puesto que había comprobado que son los seres más inofensivos que han existido.

A medida que pasaba el tiempo, se daba cuenta de la maldad de los hombres a tal grado que todos los hombres se burlaban, por lo que prefería pasar todo el tiempo en las playas haciendo campañas para el bienestar de las tortugas marinas.

Hasta que se hizo anciano y a punto de morir solo y abandonado por los hombres. Las tortugas al ver esto agitaron las aguas del mar y salieron a la tierra llevándose al anciano a su reino submarino lleno de felicidad y nunca se volvió a saber de ese hombre, pero existen pescadores que afirman que cuando tratan de cazar tortugas marinas en las playas, escuchan la voz del hombre que se los impide y cuando vuelven la cara para ver quién les habla, bajo las aguas del mar observan el rostro triste del anciano.

  articulos

Nombre: Nancy Mayelín Rivera Rivera, Santiago Cuale, Tlaxcala.
Categoría: de 8 a 11 años.

     
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo    →
 [En línea]
     

 

 

 

 

 

 

 

 

 

R17Articulo8   menu2
PDF→                                                                
   
   
José Ramón Eguíbar
     
               
               

I. LA FASE PRE- CIENTÍFICA

Las culturas antiguas de Oriente, en general manifestaron una aceptación de la sexualidad humana mucho mayor que la de las culturas occidentales. Es por esto que las obras orientales sobre temas eróticos, son mucha más explícitas que las de su contraparte occidental.

Así, nos encontramos que la obra más antigua que trata sobre temas sexuales, y que ha sido conservada hasta nuestros días, es el Kama Sutra de Vatsyana. Este libro data del siglo VI de nuestra era y en él se describen diversas técnicas de estimulación erótica básicamente consistentes en mordisquear, presionar y/o rascar, las distintas zonas erógenas. Por otra parte, también se describen las distintas posiciones que se pueden adoptar durante la realización del acto sexual. El Kama, o la sexualidad, es una de los tres fines que la cultura india atribuye a la vida y, como tal, conforma una parte importante de la existencia del hombre, junto al dhatma o perfección religiosa y el artha o la adquisición de la riqueza.

La influencia de sus concepciones acerca de la sexualidad queda magistralmente: plasmada, con una sorprendente riqueza estética, en los templos de Khajuaro, en dónde se representan parejas de amantes, llamadas los mithunas, que se encuentran en todas las posturas eróticas imaginables.

Sin embargo las expresiones artísticas de la sexualidad son comunes a todas las culturas antiguas, incluyendo las precolombinas de América. Pero es, en la Grecia antigua donde la figura humana alcanza quizás la perfección de la expresión estética, como puede observarse en diversas piezas de alfarería, jóvenes mancebos desnudos en absoluta armonía, muchos de ellos en francas posiciones relacionadas con la esfera sexual; este se debe: a que el sexo estaba considerado dentro de una filosofía “naturalista”, en la que se le veía como un placer que debía gozarse (McCary, 1976).

En algunas manifestaciones de las culturas de la América precolombina, también se encuentran parejas durante la copula así como representaciones fálicas, que tienen distintas acepciones dentro del pensamiento mágico-animista.

Cuando los espartanos conquistaron a los griegos, la rígida autodisciplina de la filosofía de los vencedores se impuso en todas las concepciones griegas, incluso, está claro, la vida sexual. Este hecho agregado a la actitud espiritualista de las otras culturas clásicas (Egipto y Mesopotamia), sentaron las bases para el desarrollo de una opresión de la expresión sexual en el mundo occidental. Este carácter de rigidez física y mental, aunado a una profunda visión espiritual del mundo, alcanza su máxima expresión durante la edad media, bajo el predominio de la iglesia católica.

Bajo esta filosofía la cópula solo debe perseguir un fin reproductivo y de ninguna manera puede estar relacionado con el placer. Esta concepción propició que se formara una sólida cultura patriarcal, rígida en sus expresiones y totalmente dominada en todos sus aspectos por el catolicismo.

Este mismo esquema fue posteriormente transmitido a América durante la conquista, lo que lo convirtió en el modelo prevaleciente en la mayor parte de la superficie terrestre por varios milenios.

De hecho, no es sino hasta el siglo XX, cuando la sexualidad empieza a despertar un cierto interés científico. Durante el presente milenio se han generado al menos tres grandes movimientos, pioneros en el campo de la sexología: primero en el terreno del desarrollo psicológico, con la obra psicoanalítica de Sigmund Freud. Después el gran movimiento sociológico generado a partir de las obras de Alfred Kinsey y sus colaboradores (1948, 1953). Por último, los estudios fisiológicos de William Masters y Virginia Johnson, durante la década de los años setenta. Sin embargo, habría que agregar un último sisma producido en 1982, ante la aparición del libro acerca del punto G y otros descubrimientos recientes sobre la sexualidad humana escrito por Ladas, Whipple y Perry (1982). En lo que resta del presente ensayo se intentará describir someramente en que han consistido estos descubrimientos y la influencia que han ejercido en nuestra visión de la sexualidad humana.

II. SIGMUND FREUD Y SU VISION DEL DESARROLLO PSICOSEXUAL EN EL HOMBRE

Como ya se mencionó, el primer acercamiento al análisis de la expresión sexual en el adulto, la estableció Sigmund Freud al determinar las distintas etapas psicosexuales del desarrollo. Así en la teoría freudiana se establecen divisiones en el desarrollo psicosexual del individuo, basándose en los grandes cambios que acaecen en éste: al convertirse de infante en niño, de niño en adolescente y finalmente, en adulto. Para cada etapa se definen los deseos primordiales que se tienen y la forma de satisfacerlos; así las distintas formas de placer y las áreas físicas de satisfacción son definidas y constituyen los elementos fundamentales en las descripciones de Freud.

La teoría psicoanalítica es la corriente de pensamiento formada a partir de la teoría de Freud sobre la formación de la personalidad, se basa primordialmente en las diferencias biológicas que existen en el desarrollo de la personalidad entre ambos sexos. Con esto Freud, introduce un concepto realmente revolucionario en su época, cabe destacar que las ideas victorianas del siglo anterior persistían en el momento de publicar sus ideas. Las dos primeras etapas fueron definidas considerando a los infantes como entes con tendencias bisexuales y se caracterizan, primero, por una atención desmedida por la boca y áreas aledañas; después, la región perineal y el control de los esfínteres son los sitios de evocación de los deseos y placeres en el infante. Ambas etapas se ubican durante los tres primeros años de vida.

Posteriormente, entre los 3 y los 7 años de edad, se presenta la etapa fálica; durante ese tiempo se desarrolla en el muchacho el complejo de Edipo, como resultado de sentimientos simultáneos de amor sexual hacia su madre y, consecuentemente, la rivalidad hostil hacia su padre. Es también en esta época, cuando el muchacho descubre que la mujer no tiene pene y supone que, en alguna forma, ella ha perdido ese órgano, que para él constituye una importante fuente de placer. Su culpabilidad, por esto relacionada con sus fantasías sexuales hacia su madre y los deseos hostiles hacia su padre, llevan al muchacho a desarrollar una ansiedad de castración. Tal situación produce que abandone sus escarceos masturbatorios y entre en la etapa latente, que va desde los 7 años hasta la pubertad. En esta última etapa el muchacho se identifica con su padre y no continua su rivalidad con este a causa de la madre.

Por su parte la mujer descubre durante la etapa fálica su falta de pene; ha observado el placer que el muchacho obtiene de su órgano genital, el cual es muy visible y manejable, suscitándose, lo que se conoce como la envidia del pene. Culpa a su madre por no tenerlo y substituye como objeto primario de amor, el materno por el paterno. En esa época establece una seria competencia con su madre, es decir, un fenómeno edípico adaptado a la niña. En el desarrollo normal, la mujer entra en el periodo latente por miedo a perder el amor materno. Por ello se identifica con su madre de una manera similar a como el muchacho lo hace con su padre.

El desarrollo psicosexual culmina con la etapa genital en la cual se canaliza la energía libidinal al área genital. Es en este momento cuando hombres y mujeres establecen sus diferentes identidades sexuales y empiezan a buscar los medios para satisfacer sus necesidades eróticas e interpersonales. Sin embargo, la envidia de pene en la mujer persiste como un sentimiento de inferioridad y una predisposición a los celos; su permanente envidia del pene o “dotación superior” se convierte en la mujer madura en el deseo tener un niño, que particularmente traiga el pene envidiado (Freud, 1933).

Los enfoques clásicos del desarrollo psicosexual en hombres y mujeres han sido severamente criticados, no sólo por algunos de los sucesores de la teoría psicoanalítica sino también, por autores de otras teorías. No cabe duda, sin embargo, que Freud fue el primero en tratar de comprender cómo se establecen los roles masculino y femenino en nuestra sociedad. De hecho, las observaciones se adaptan a una posición patriarcal, falocéntrica y con un enfoque decididamente masculino, con un claro resabio de la idea victoriana de la supremacía masculina. Esta idea estaba muy acorde con el desarrollo capitalista que se daba en ese momento. De hecho, uno de sus principales seguidores, Wilhelm Reich, estableció un nuevo enfoque de la psicología femenina, basando sus concepciones en una fuerte tendencia socialista. Sus argumentos destacaban la opresión que sufren las mujeres en las sociedades capitalistas occidentales, y que éste era el factor principal en la formación del carácter desarrollado por las mujeres, fundamentalmente pasivo durante la cópula. Reich afirmaba, que el bienestar del individuo depende de su capacidad orgásmica y que la pasividad femenina se establece como un producto social patológico que la sociedad capitalista impone a las mujeres, ya que los intereses económicos llevan al establecimiento de un orden patriarcal que subordina la libertad sexual. Por otra parte, coincidía con Freud en una de sus concepciones básicas, referente a que las sensaciones placenteras en la mujer previenen de la vagina y no del clítoris, apoyando la teoría de la sexualidad femenina de la transferencia clitórico-vaginal. Se considera que la orientación psicológica debe estar guiada hacia la vagina como la fuente de las sensaciones orgásmicas; cualquier desviación de esta “orientación sexual normal”, era considerada por los psicoanalistas como una desviación del psique femenino adulto normal, ya que las mujeres que tenían sensaciones placenteras clitorideas eran consideradas infantiles, pues el clítoris representa una fijación infantil. Además, consideraban que estas mujeres tenían una personalidad histérica debido a que la fijación clitoridea era uno de los rasgos característicos de tal personalidad. Este último punto de vista constituye la piedra angular sobre la que se ha movido el análisis de la respuesta sexual femenina normal. El debate acerca de si es la vagina o el clítoris el centro primario de las sensaciones placenteras ha permanecido muy activo dentro del análisis científico de la “respuesta sexual femenina normal”, llevada a cabo en este siglo.

III. EL USO DE ENTREVISTAS COMO FUENTE DE CONOCIMIENTOS DE LA CONDUCTA SEXAUAL HUMANA

En la Universidad de Indiana en los Estados Unidos el trabajo de Alfred Kinsey y sus colaboradores introdujo los métodos cuantitativos y estadísticos en la evaluación de una ciencia tan íntima como lo es la sexología, a través del uso de cuestionarios y entrevistas. La titánica obra de Kinsey y su grupo abarcó alrededor de 17000 cuestionarios aplicados en sujetos de ambas sexos, de los cuales unos 7000 fueron analizados por el propio Kinsey. La disciplina y el gran espíritu de conocimiento que tenía este investigador, provocó que sus principales colaboradores (Pomeroy y Martin), adquirieran una excepcional capacidad de adaptación hacia los requerimientos del sujeto en turno a la hora de estar efectuando las entrevistas, para que así los datos obtenidos fueran lo más fidedignos posibles.

Al final de la década de los cuarenta y principios de los cincuenta sus estudios consignaron la gran variedad de expresiones de la conducta sexual de hombres y mujeres de su país. Demostró que la gente tenía diferentes formas de disfrutar el sexo a través de la masturbación, el homosexualismo, el intercurso anal, las fantasías sexuales y, especialmente el sexo extramarital. Estos estudios indudablemente, fueron más allá de lo que la sociedad americana estaba dispuesta a reconocer públicamente, ya que sus resultados echaban por tierra las viejas ideas victorianas. Es por esto, sin duda, que los estudios de Kinsey provocaron ataques airados acerca de la exactitud y el carácter representativo de sus datos.

Sin embargo, debe reconocerse que sus estudios mostraron la enorme variabilidad en el comportamiento sexual humano, la frecuencia en que se presentan sus distintas variedades y las diferencias de éstas con respecto a la edad, raza, nivel socioeconómico, creencias religiosas, etc. A manera de ejemplo, cabe mencionar que dichos estudios establecieron que la masturbación era una práctica frecuente en la población joven y que después de los 18 años más del 90% de la población masculina se había masturbado con fines placenteros. Esta conducta también se presenta en mujeres aunque con una frecuencia menor (alrededor del 70%); también se observó que el estado marital, si bien disminuía la frecuencia de esta práctica, no conllevaba su total abandono. Es  decir, sus resultados contravenían los valores sanamente aceptados, absurdos en su mayoría, de que la masturbación ocasiona debilitamiento mental o algunas  otras deficiencias orgánicas tales como la pérdida de la medula espinal. Los estudios de Kinsey sin embargo, no mostraban ninguna relación entre inteligencia y masturbación. En sus tablas los distintos grados de escolaridad no tenían correlación con la frecuencia de masturbación, la que oscilaba entre 1 y 5 veces por semana, con distribuciones muy semejantes en los distintos grupos etarios. Lo que sí pudo establecer fue que las prácticas religiosas ortodoxas llevaban a una disminución en la frecuencia de masturbación, respecto a actitudes religiosas más laxas que tenían un menor impacto en la sexualidad.

Por otra parte, en el Instituto Kinsey se realizó un estudio de cuáles eran las zonas más sensibles al estímulo sexual en la mujer. Se sometieron a prueba más de 800 mujeres en las cuales se tocaban 16 puntos entre los que figuraban el clítoris, los labios mayores y menores, la entrada y las paredes de la vagina, así come el cuello del útero o matriz. Tratando de ser lo mas estrictos e impersonales, los ginecólogos encargados del estudio concluyeron que el clítoris era de las zonas probadas, la más sensible al estímulo sexual. Cabe destacar que para las pruebas utilizaron un artilugio parecido al rabillo de una Q. A pesar de esta última observación, las conclusiones a las cuales llegaban se encontraban en franca contrapartida al punto de vista freudiano de la sexualidad, lo que acentuaba más el debate antes mencionado.

En cuanto a la eficiencia de las entrevistas como vehículo para obtener información sobre el comportamiento sexual, a finales de la década de los setenta Shere Hite y su equipo publicaron un par de libros similares a los de Kinsey. En este último estudio, los cuestionarios se distribuyeron por correo a una gran masa de población; las contestaciones se realizaban en un régimen de anonimato y regresaban a la fundación Hite para ser analizadas. Las conclusiones finales eran más o menos similares al trabajo de Kinsey. Además, estos estudios permitieron establecer la evolución de las prácticas sexuales tras dos décadas de cambio social.

IV. LAS FASE CIENTIFICA DEL ANALISIS DE LA RESPUESTA SEXUAL HUMANA

El trabajo de William Masters y Virginia Johnson en el Departamento de Ginecología y Obstetricia de la Escuela de Medicina de la Universidad de Washington, iniciado en 1954 y publicado a principios de los años setenta revolucionó el cómo y el por qué de los estudios sobre la fisiología de la respuesta sexual. Sus estudios pasaron de las medidas indirectas y deductivas de los trabajos previos, a observaciones objetivas bajo condiciones controladas en el laboratorio.

Sus estudios se realizaron con 312 hombres y 382 mujeres. Además se observaron 32 parejas a lo largo de periodos variables de tiempo, con el fin de esclarecer los límites de dispersión de las respuestas obtenidas. Sus datos se basan en un total de 10000 ciclos de respuesta sexual, 7500 de ellos en mujeres y 2500 en hombres. Sus estudios los llevaron a establecer un ciclo básico de respuesta sexual en hombres y mujeres; el ciclo consta de cuatro fases: la de excitación, la de meseta, la orgásmica y la de resolución. Estas fases se presentan ante un estímulo sexual efectivo que puede obtenerse, tanto por masturbación, como por intercurso, ya sea éste artificial o natural. Por razones descriptivas las explicaré someramente, por separado para el caso de la mujer y para el del hombre.

1) La fase de excitación en la mujer se caracteriza por presentar: erección de los pezones, tumefacción (congestión) de la areola y aumento discreto del tamaño de las senos; también aparece un enrojecimiento (rubicundez) en la parte alta del abdomen, que se extiende rápidamente al tórax y a los senos, se separan los labios mayores, y se da un engrosamiento y una expansión de los labios menores, lo que aumenta en 1 cm el tamaño vaginal; el clítoris se hincha por vasodilatación, haciéndose prominente, aparece la lubricación vaginal y el útero se eleva ligeramente. Asociado a estos cambios en los órganos genitales, se presenta un aumento en la tensión muscular (llamado también tono muscular o miotonía), en la frecuencia cardiaca y en la presión arterial, según sea el nivel de tensión sexual desarrollada.

2) La fase de meseta se caracteriza por el aumento de la turgencia del pezón y por la irrigación areolar, así como porque el enrojecimiento se extiende al cuello y a la cara (puede abarcar casi la totalidad de la superficie del cuerpo), los labios mayores se dilatan a su máxima capacidad mientras que los menores cambian de color a un rojo vinoso (la llamada piel sexual); el tercio exterior de la vagina se ensancha y el orificio vaginal se estrecha, lo que se conoce como plataforma orgásmica. También se ensancha el fondo de la vagina y el útero se eleva, traccionando la parte superior de la vagina, remedando la forma de una tienda de campaña mientras que las glándulas de Bartholin secretan unas gotas de líquido y el clítoris se retrae. La tensión sexual acumulada aumenta al doble la frecuencia cardíaca y se eleva la presión arterial en promedio unos 30 mm de Hg. De la misma manera aumenta la profundidad de la respiración (hiperventilación) y se presenta un aumento del tono muscular, acompañado por contracciones espásticas, es decir, contracciones intensas de la cara, del abdomen y del tórax.

3) La fase orgásmica se caracteriza por una serie de contracciones rítmicas de la plataforma orgásmica (vulva y vagina), así como de los músculos de la pelvis y del útero; en un orgasmo intenso pueden darse alrededor de 8 a 12 contracciones y en uno más leve de 3 a 5. También se presentan de 3 a 5 contracciones del esfínter anal y en el 20% de los casos, la uretra se contrae rítmicamente. El tono muscular llega a su tope y se presentan además contracciones involuntarias en distintas partes del cuerpo. El ritmo cardíaco y respiratorio llegan a su máximo (110 a 180 en el primero, y 40 veces por minuto en el segundo) y la presión arterial se eleva entre un 60 y un 80%, con respecto a los niveles previos de la actividad sexual.

4) La fase de resolución se caracteriza por un retorno gradual de todas las variables que se modificaron durante las fases anteriores. Es decir, la presión arterial, las frecuencias cardiaca y respiratoria, el tono muscular y los órganos reproductores regresan a su estadio inicial. Existe además una sensación de calor generalizado y una sudoración leve en la espalda, los muslos, el tórax, la frente y el labio superior. Esta última respuesta presenta diversos grados de manifestación, según la intensidad de la sensación orgásmica experimentada y el grado de actividad física desarrollada para alcanzarla. Así, la abertura del orificio externo del útero dura entre 20 y 30 minutos para regresar después a su posición de reposo y descender del cuello uterino al depósito seminal que se forma en el fondo de la vagina. Estas últimas reacciones propician que el semen tenga acceso a los órganos sexuales internos de la mujer, paso fundamental para una probable fecundación del óvulo.

Por lo que respecta al hombre se presentan las siguientes características para cada una de las fases:

1) En la fase de excitación, se manifiesta un grado variable de erección y congestión de las tetillas, hay una rápida aparición de la erección del pene, con engrosamiento y aplanamiento de la piel del escroto, lo que ocasiona que las bolsas escrotales se retraigan y se eleven parcialmente al testículo. Al igual que en la mujer, existe un aumento de la tensión muscular, de la frecuencia cardiaca y de la presión arterial, según sea la tensión sexual desarrollada; sin embargo no se presenta el enrojecimiento de la piel (rubicundez).

2) En la fase de meseta puede existir erección y turgencia del pezón, hay rubicundez en la parte superior del abdomen que se extiende gradualmente al tórax, el cuello y a la cara, llegando, ocasionalmente, a los hombros y los brazos. Aumenta el tamaño del glande y hay un discreto cambio en su coloración; también se da un aumento del 50% del tamaño testicular, con elevación del mismo. Las glándulas de Cowper producen su secreción mucoide, que sale por el orificio uretral. Aumenta el tono muscular voluntario e involuntario, con contracciones espásticas en la cara, el abdomen, el tórax, y además se producen contracciones voluntarias del recto, para aumentar la tensión sexual desarrollada. La presión arterial, las frecuencias cardiaca y respiratoria, siguen un patrón similar al presentado por las mujeres.

3) La fase orgásmica se caracteriza por contracciones involuntarias de los órganos sexuales secundarios: conductos deferentes, vesículas seminales, próstata y uretra, lo que lleva a la expulsión del fluido seminal (eyaculación). Se desarrolla totalmente la rubicundez y se presentan contracciones involuntarias del esfínter anal, mientras que aumenta el tono muscular (tensión basal de los músculos), y se provocan contracciones involuntarias y espásticas en diferentes grupos musculares. Se presenta además el llamado “espasmo carpopedal” que consiste en posición de garra. El resto de las respuestas son similares a las que se presentan en la mujer.

4) Durante la fase de resolución, hay una involución de la erección del pezón, una rápida desaparición de la rubicundez, en sentido inverso al de su aparición, pérdida de la erección de pene y de la tensión del escroto; asimismo el testículo desciende y recupera su tamaño normal, mientras que disminuyen la presión arterial y las frecuencias cardiaca y respiratoria, hasta alcanzar sus niveles basales y aparece una sudoración ligera en las plantas de los pies y en la palma de las manos, sudoración que, ocasionalmente, se presenta en el tronco, la cabeza y el cuello. El hombre, a diferencia de la mujer, desarrolla un periodo refractario, que se prolonga hasta que se regresa a la fase de excitación. En otras palabras la mujer, puede pasar de la fase orgásmica, a una fase de meseta y nuevamente a una fase orgásmica. Esta situación Master y Johnson no se la conceden al hombre, ya que en éste se presenta el periodo refractario.

Las descripciones relatadas, muestran que las respuestas sexuales son básicamente iguales en ambos sexos. Por otra parte, Master y Johnson concluyeron que, a pesar de la diferente técnica de estimulación utilizada, masturbatoria o coital, el órgano encargado en la mujer de generar la respuesta orgásmica es el clítoris. Ya sea que éste se estimule directamente, o bien que sea traccionado por los labios menores que le rodean durante la cópula. Es decir, se apoyaba la conclusión a la cual había llegado el grupo de Kinsey, con respecto a que el clítoris es el encargado de mediar las respuestas placenteras en la mujer.

El valor que tuvieron estos hallazgos para el entendimiento racional de la sexualidad, tuvo un impacto dramático en la visión de la sexualidad de nuestros días. Quizás deba recordarse que dichas descripciones se realizaron cuando el movimiento hippie se encontraba en efervescencia, y la filosofía juvenil de paz y amor se imponían al igual que la frase “haz el amor y no la guerra”. A esto se aunaba el hecho de que en ese momento salían a la venta las primeras píldoras anticonceptivas; esta cadena de situaciones contribuyó al desarrollo de una visión más liberal de las relaciones sexuales, que caracterizó a la década de los setenta. Por otra parte, se generaron nuevos prototipos de sensualidad, de placer y de sexualidad humana.

V. EL PUNTO G

Los patrones antes descritos, como la “respuesta sexual normal”, fueron muy discutidos en 1982, durante la reunión de la Asociación para el Estudio Científico de la Sexualidad, cuando Alice y Harold Ladas mostraron los resultados de un estudio, efectuado a través de cuestionarios anónimos, dirigidos a un grupo de mujeres analistas bioenergéticas (corriente neofreudiana), y que se enfocaban a la expresión de su sexualidad. Los resultados de dicha encuentras mostraron que las discrepancias teóricas más significativas, guardaban relación con la importancia del clítoris. En sesiones previas de la asociación bioenergética, donde ya había sido tratado el tema, las mujeres de esta agrupación no habían mostrado sus verdaderas ideas acerca del clítoris, ya que muy probablemente podrían haber sido consideradas inmaduras por sus colegas masculinos. El estudio presentado en esa ocasión, tuvo la virtud de haberse efectuado sólo bajo presencia de mujeres, lo que facilitó una expresión plena de sus verdaderas sensaciones placenteras y de su impacto en el desarrollo integral de la sexualidad femenina. El estudio mostró, que las mujeres, en vez de abandonar el clítoris como centro del placer en favor de la vagina, preferían añadir la respuesta vaginal a la obtenida a través de la estimulación clitoridea. De esta manera apoyaban tanto a las visiones neofreudianas, que sostenían que la vagina es el ente placentero en la mujer adulta, como a la visión de Masters y Johnson que afirmaba que el clítoris es el centro de la experiencia sexual. Es decir, todavía en los albores de la presente década no era claro cuál es el órgano responsable de mediar la respuesta sexual femenina. Después de presentar sus conclusiones, Ladas entró en contacto con los trabajos de John Perry y Beverly Whipple, quienes presentaban, en esa misma reunión científica, un trabajo acerca de la existencia, en la pared anterior de la vagina, de un punto extremadamente sensible a la presión fuerte. A este punto lo bautizaron como el punto G, en honor al Dr. Ernest Gräfenberg, el primer médico moderno que lo describió. En dicho estudio mostraban que la estimulación del punto G producía una experiencia placentera, diferente a la obtenida con estimulación clitoridea; además afirmó que dicho punto da origen a experiencias multiorgásmicas y que, en una alta proporción de mujeres probadas, se produce, a través de la uretra, una emisión de un líquido blanquecino de características totalmente distintas a las de la orina. A este último fenómeno lo denominaron: eyaculación femenina. En otras palabras, los autores, proponían la posibilidad de experimentar dos tipos de sensaciones orgásmicas: una vulvar, que depende del clítoris, y otro evocado por la estimulación vaginal en el punto G, que fue denominado uterino, ya que es en este órgano donde se centran las respuestas eróticas, como una sensación de empuje hacia abajo. Un poco después se estableció que en el hombre también se pueden evocar dos tipos de respuestas orgásmicas diferentes. Por una parte, el orgasmo y eyaculación obtenida a partir de la estimulación peneana, en especial del glande y su corona (las porciones más alejadas de la base del pene); y por la otra, la obtenida a través de la estimulación prostática, que corresponde al punto G masculino. Esta última evoca una sensación placentera, con características diferentes al orgasmo peneano, ya que se presentan una serie de contracciones intensas en los músculos del periné (que se encuentran entre las piernas), acompañado de una eyaculación que fluye continuamente y no en chorros como en el orgasmo obtenido a través de estimulación del pene.

CONCLUSION

El debate de las últimas décadas parece, hasta el momento, haber tenido un buen final, ya que se presentan ambas respuestas sexuales y forman parte de la “respuesta sexual normal”, tanto de hombres como de mujeres. Sin embargo, se debe hacer hincapié en que las investigaciones relacionadas con la sexología humana se encuentran aún en desarrollo y que, además, no presentan el ritmo necesario, debido, primordialmente, a obstáculos de muy distinta índole. Es por esto que quizás los resultados que se obtengan en un futuro inmediato nos ayuden a comprender más cabalmente nuestra sexualidad, y por ende, nuestro comportamiento en una de las esferas que mayor influencia tienen en nuestra conducta individual y social.

Quisiera agradecer a Hortensia González y Humberto Arce por su dedicado apoyo para el presente trabajo. A Criss, a Iván y a Adriana.

 articulos
 
     

 Refrerencias Bibliográficas

Fadiman, J., y Frager, R., (1979), Teorías de la personalidad, Ed. Harla, Harper & Row Latinoamericana, México.
Freud, S., (1948-1953), Obras completas, vols. I, II y III, Ed. Biblioteca Nueva, Madrid, España.
Kinsey, A. C., Pomeroy, W. B., y Martin, C. E., (1984), Sexual behavior in the human male, Ed. Saunders Company, Philadelphia, USA.
Kinsey, A. C., Pomeroy W. B., y Martin, C. E., (1953), Sexual behavior on the human female, Ed. Saunders Company, Philadelphia.
Ladas, A. K., Whipple, B., y Perry, J. D., (1982), The G spot and other recent discoveries about human sexuality, Ed. Dell Publishing Co., New York, USA.
Masters, W. H., y Johnson, V. E., (1978), Respuesta sexual humana, Ed. Intermédica, Buenos Aires, Argentina.
McCary, L., (1976), Sexología humana, Ed. El Manual Moderno, México.

     
____________________________________________________________
     

Jóse Ramón Eguíbar
Departamento de Ciencias Fisiológicas, Instituto de Ciencias, Universidad Autónoma de Puebla.

como citar este artículo

     

R17Articulo7

  menu2
PDF→                                                                     
   
   
Augusto Fernández Guardiola
     
               
               
“Reloj no marques las horas
porque voy a enloquecer
ella se irá para siempre
cuando amanezca otra vez”
Canción popular
(Roberto Cantoral)

El ser humano es un aparato capaz de medir el tiempo. Por alguna razón que desconocemos todavía, podemos hacerlo en una forma consciente para modular nuestro comportamiento, calculando y presintiendo la duración de intervalos, sobre todo si su duración nos atañe personalmente. También en una forma inconsciente, pasando, por ejemplo, del sueño a la vigilia en una hora predeterminada. Esto lo hacemos dentro de un rango bastante limitado de duraciones posibles. No tenemos acceso perceptivo a las duraciones minúsculas, de milisegundos para abajo, ni desde luego a los largos lapsos, que sólo imperfectamente podemos imaginarnos. Nuestra tesis es que este rango de duración y el valor que le damos de “cortas” o “largas”, está condicionado estructuralmente y que esta estructura forma parte del cerebro y posee una velocidad de procesamiento y una capacidad de memoria que evoluciona durante el desarrollo ontogénico, alcanzando una eficacia en la madurez, seguida de un deterioro en la vejez por el cual varía la capacidad de estimar el tiempo.

Esta estructuración funcional de lo que hemos llamado “el sentido del tiempo” (sentido como concepto sensorial, no direccional), o el tiempo subjetivo explica la enorme variabilidad que encontramos en los humanos, para percibir y manejar el tiempo. Tal variancia no sería de esperar si esta capacidad fuera solamente producto del aprendizaje en una situación de estímulo-respuesta simple. Las señales externas de las cuales dependemos en parte para estimar el tiempo, están ahí y son iguales para todos los miembros de un grupo humano dado. Los movimientos aparentes del Sol, la Luna y los planetas, cambios de temperatura y de luz, circadianos y circaanuales. Plantas que florecen a determinadas horas, aves que en estaciones fijas, ciclos estructurales de sueño y vigilia, de inactividad y actividad. Todas estas señales contribuyen a que elaboremos una personal habilidad para estimar el tiempo.

Lo más notable, y en esto esta habilidad sería semejante a la instalación del lenguaje, es que la adquieren todos los humanos sin excepción. Cierto es que, de la misma forma que la retina sólo es sensible a una franja muy estrecha de longitud de onda de las radiaciones electromagnéticas, el hombre y los animales sólo son capaces de estimar un rango limitado de intervalos. Todo lo que sabemos de tiempos infinitesimales, mili, micro, nanosegundos, etc., o de tiempos muy prolongados, mucho más que nuestras vidas, lo conocemos a través de la instrumentación moderna. Pero no forman parte de nuestro aparate sensorial, ni ocupa en lugar en nuestra memoria, que no sea conceptual.    

La perdida de la posibilidad de estimar duraciones y de establecer el orden del pasado-presente-futuro, es una de los síntomas más conspicuos de enfermedades mentales, como el síndrome de Korsacoff o las demencias seniles. También es notable la disrupción de la temporalidad en la intoxicación con algunos fármacos psicotrópicos como la psicobilina o el LDS.       

Veamos así que el estimar el tiempo, el valorar duraciones y predecirlas, es una función básica para modular nuestro comportamiento y tiene un valor ecológico y de supervivencia, más importante aún que la audición o la visión.   

Los hombres antiguos tuvieron conciencia de este hecho. Algunas culturas prehistóricas, no relacionadas entre si, comenzaron a elaborar calendarios e instrumentos para medir duraciones, a la vez que creaban lenguajes que, sin excepciones, estuvieran llenos de alusiones al transcurrir del tiempo. La estructura gramatical parece imposible si los hombres que la hicieron no tuvieran una idea precisa de le que significa antes, ahora y después.  

¿Cómo adquirió la especie humana la capacidad de medir el tiempo? El hombre, como todos los seres vivos, mide constantemente periodos de tiempo a través de sus ritmos endógenos, circa, infra o ultradianos (según que el periodo de la oscilación dure alrededor de 24 horas, o retiene más o mucho menos). No existe un animal en la escala zoológica, por inferior que sea, que no los. presente. Así como también es rarísimo que una función fisiológica se lleve a cabo sin una ritmicidad determinada. Estos ritmos son hereditarios, propios de cada especie y persisten por un tiempo en ocasiones muy largo, cuando la señal exógena que probablemente les dio origen, ha cesado de actuar.

Nuestra vida esta marcada por estos ritmos endógenos, de los cuales solamente algunos penetran al campo de la conciencia. Oscilan los niveles sanguíneos del cortisol, la glucosa, la hormona del crecimiento y la prolactina, etc. También lo hacen el corazón, la temperatura corporal, las ondas que reflejan la actividad eléctrica del cerebro, el sueño y la vigilia y dentro del mismo dormir, esa intrigante fase del sueño con movimientos rápidos de los ojos, durante la cual y prácticamente sólo en ella nos vemos asaltados por los sueños o ensoñaciones.               

Cualquiera o varios de estos osciladores podría representar el reloj biológico mediante el cual calculáramos el tiempo transcurrido.

Ahora bien, aunque seguramente relacionados, una cosa son estos ritmos biológicos universales y otra el sentido subjetivo del transcurrir del tiempo en el hombre, que es un acto mental. El relacionarlos ha sido un logro de la psicobiología, producto de la experimentación y la observación durante muchos años. Un dato original que despertó el interés por esta posible reacción, fue el obtenido por Fraçois en el laboratorio de Pieron, al conseguir modificar la experiencia subjetiva del cálculo de un intervalo, elevando con diatermia la temperatura de los sujetos en experimentación (sin que ellos lo advirtieran). Este hecho fue comprobado más tarde por Hoagland, con pacientes sometidos a fiebre artificial (malaria, prógenos). La conclusión de estos experimentos puede ser que el aumentar la velocidad del metabolismo hace que el tiempo transcurrido real, le parezca a un sujeto más largo de lo usual. Lo que estaría de acuerdo con la diferencia que se observa en la estimación del tiempo por parte de los niños, comparados con los ancianos. Para los primeros, el tiempo pasa desesperadamente lento, mientras que en la senectud, los intervalos de meses y años parecen transcurrir con gran velocidad.

De todas formas, con un metabolismo acelerado o lento, los ritmos biológicos que se aceleran o desaceleran son numerosísimos y no podemos, por ahora, precisar cuáles de ellos intervienen en la integración del tiempo subjetivo.

El estudio del desarrollo ontogénico en los humanos y la psicología experimental pueden aportar datos sobre la relación ritmos endógenos y señales exógenas-tiempo subjetivo.

Durante una conversación sobre este tema, Einstein le preguntó a Piaget si la noción del tiempo subjetivo en el niños era inmediata, intuitiva o derivada y si desde el principio se integraba con la velocidad o no. Piaget hizo innumerables experimentos en los que llegó a la conclusión de que el tiempo subjetivo es producto de una relación, penosamente adquirida a través de los años, entre velocidades y espacios. Encontró que el niño primero es capaz de ordenar acontecimientos, distinguiendo lo que sucedió antes de lo que pasó después. En una segunda etapa, el niño ya no sólo ordena eventos, sino que también puede clasificar la duración del intervalo entre ellos. Esto no es todavía la mesurabilidad del tiempo, pero revela que el niño es ya capaz de revisar, de memoria, la secuencia de las duraciones. El niño no alcanza la capacidad de estimar el tiempo transcurrido o predecir grosso modo el que transcurrirá, hasta los cinco o seis años de edad. Esta tercera etapa sería, pues, un proceso de síntesis entre las duraciones y la sucesión o secuencia de los acontecimientos. Antes de alcanzar estas etapas, cuando el niño está todavía en un nivel preoperacional, no le sirve para nada el que se le permita observar relojes o cualquier otro dispositivo para medir el tiempo. (Incidentalmente, lo mismo le sucede a la persona adulta que habiendo ingerido una fuerte dosis de psilocibina —principio activo de los hongos alucinógenos— o de LSD, pierde la noción del tiempo y lo que sucede en los relojes no tiene ningún significado para él).

Es necesario tener en cuenta que Piaget en sus experimentos busca siempre una situación en la que el espacio y la velocidad son evidentes. Esto puede constituir una especie de parcialidad o bias que llevó a este autor a considerar que el tiempo subjetivo, tanto en el niño como en el adulto, está integrado a través de la percepción de velocidades de eventos físicos.

Existen otras explicaciones, veamos por ejemplo que Fraisse expresa esta capacidad en forma diferente, cuando afirma: “…el tiempo vivido o subjetivo no constituye la verificación de una relación, sino una experiencia directa…”. Esta experiencia está basada en el número de cambios o transiciones de eventos que el sujeto sea capaz de percibir. Las duraciones vacías, la durée pure de Bergson no existiría, pues tendría que percibirse en un estado irreal en el cual, aunque conscientes, no percibiéramos nada, y además, nuestro cerebro y todo el organismo no oscilara dentro de ritmo alguno. Cierto es que aunque no ignorara el valor de la ritmicidad para establecer duraciones, Bergson trató de encontrar una oposición entre un mundo material caracterizado por la pluralidad de acontecimientos y un mundo espiritual en el que somos capaces de realizar la abstracción de la duración pura, que en sus propias palabras es: “…forme que prend la succession de nos états de coscience quand notre moi se laisse vivre quand il s’abstient d‘établir une séparation entre l’état présente et les états antérieurs…”.

Al depender, por lo tanto, nuestra ideal del tiempo, de nuestro propios ritmos endógenos, va a tener forzosamente una variabilidad relativa y una dirección asimétrica irreversible.

Los problemas que plantea la Física Clásica de partículas no son ajenos en cuanto a nuestro tiempo subjetivo, sobre todo cuando proponen un tiempo simétrico donde los acontecimientos son reversibles y el tiempo puede ir del futuro hacia el pasado. Nuestro tiempo sí encuadra mejor con el sentido de aumento progresivo en la segunda ley de la termodinámica. Nuestra experiencia temporal directa está ligada al desarrollo filogenético y ontogenético. Los seres vivos evolucionan en un sentido y nunca hemos observado retrocesos o regresiones a formas anteriores de vida. Nuestro tiempo está marcado por límites precisos (el nacimiento y la muerte) y un proceso unidireccional (crecimiento, madurez y senectud).

Pero no tenemos una noción actualizada en el presente de cuándo nacemos, ni siquiera de nuestros primeros años, tampoco de la duración probable de nuestra vida, es decir, del momento de nuestro muerte. Vivimos dentro de un optimismo temporal, irracional en verdad, aunque quizá no tanto ya que se basa en una estadística probabilística, en la que casi todo es posible, —es posible que una persona de 60 años viva ¡otros 60 más! y esa idea revolotea en la mente de los ancianos.

El tiempo es todo lo que sucede entre una causa y su efecto, y para nosotros si no sucede nada entre ambos, el tiempo se detiene o desaparece. Ese estado de “dejarse ir” a un presente desligado de toda idea de pasado o futuro, de ideas simultáneas, que proponía Bergson, es una ausencia de tiempo ilusoria. La misma que se logra experimentalmente congelando el semen de un bovino, e inseminando a una hembra meses después, tal vez mucho después de que el padre ya murió. O la vuelta de un presente remoto que experimentan los habitantes de una aldea alpina, cuando el glaciar les devuelve en un bloque de hielo al joven bisabuelo que cayó en una grieta en 1902.

Un hombre cultivado de nuestro medio académico posee diversas ideas sobre el tiempo, pero un solo y humano modo de “sentir” cómo éste transcurre. Podrá este intelectual conocer los diversos tratamientos que del tiempo han hecho las religiones, la flecha unidireccional del tiempo judeo-cristiana, el tiempo circular de los hindúes, donde todo se repite. O el intrigante tiempo de los mayas, con su dios de millones de años. Logrará tal vez entender el tiempo universal de los astrofísicos y la relatividad del tiempo y su relación con la velocidad de la luz y la posición del observador. Pero nada de esto logrará que cambie ni un ápice su sentido subjetivo de medir el tiempo. El hombre es un observador atado, que nada tiene que ver con “los observadores” puntiformes e ideales de Einstein. Aunque salga del planeta, y al girar alrededor de él observe una puesta y una salida del Sol cada 90 minutos, seguirá con un ritmo sueño-vigilia de aproximadamente 24 horas. Lo mismo le sucederá si pasa varios meses en el fondo de una profunda cueva, aislado del mundo. Y es que el cerebro humano tiene sus propios ritmos, establecidos en el largo proceso del desarrollo, ritmos endógenos, esculpidos a través de millones de años por los cambios ligados a la rotación de la Tierra.

Existen diversas situaciones en las cuales podemos constatar, por un lado, la capacidad de estimar duraciones de los animales y del hombre, y por el otro lado, las alteraciones en sumo grado, experimentales o patológicas, de la percepción del tiempo. A estas situaciones tienen acceso los neurólogos y los psiquiatras, los psicofisiológos y los farmacólogos. Estas situaciones son, entre otras:

a) las demencias seniles, pre-seniles y el síndrome de Korsakoff;
b) los condicionamientos, pavloviano e instrumental, de traza o retardados;
c) el sueño, la hipnosis y las ensoñaciones;
d) la estimulación eléctrica del cerebro humano;
e) la acción de ciertos fármacos psicotrópicos, y
f) las secuelas de los traumatismos craneoencefálicos. 

A todas estas situaciones tendríamos que añadir el método de elección utilizado por los filósofos que se han ocupado del tiempo, es decir, la introspección.

a) Las demencias seniles y pre-seniles y el síndrome de Korsakoff

En estos estados patológicos, que incluyen a la enfermedad de Alzheimer y a diversas expresiones del alcoholismo crónico, está alterado el orden temporal de los recuerdos, orden que es esencial para la conservación de la identidad personal. Siendo esenciales en estos estados patológicos los trastornos de memoria, sobre todo reciente, nos enseñan cuán ligada está la percepción del tiempo a esta función. Incluso en personas normales, las apreciaciones directas de la duración son muy imprecisas, por eso todos nos valemos constante de relojes, aceptando de antemano un tiempo externo a nosotros, constante en su fluir (como diría Newton), confiable, pero que nada tiene que ver con el tiempo vivido. Lo que hacemos constantemente es ordenar acontecimientos y acciones, a los cuales les hemos dado una connotación temporal a través de la experiencia. Por ejemplo, sabemos que si hemos caminado a un paso regular unos 5 kilómetros, debe haber transcurrido una hora. O que si hemos conducido un automóvil de México a Cuernavaca, a una velocidad entre 80 y 100 km por hora, también habrá transcurrido aproximadamente una hora. Para esto hace falta memoria de las percepciones inmediatas y esto es precisamente lo que se pierde en las demencias.

En condiciones de semiasilamiento sensorial podemos pedir a una persona normal que estime el valor de una duración por dos métodos hoy clásicos. Pidiéndole que nos diga cuánto dura un intervalo temporal (que nosotros le administramos con señales de diversa índole), o haciendo que el sujeto produzca el intervalo que él estima que corresponde a una duración determinada de antemano y por él conocida. Los sujetos normales estiman bastante bien duraciones que están dentro de un rango relativamente corto, de uno a 20 segundos. A medida que el intervalo es más largo, aumenta el error, con una tendencia a infravalorar la duración. En las demencias, es muy difícil la producción correcta de un intervalo pues falla la memoria reciente que señale al paciente cuál es la duración que es necesario reproducir.

Los pacientes, sobre todo los de síndrome de Korsakoff, son conscientes de su déficit y a menudo fabulan para llenar sus “lagunas” temporales, llenándolas con hechos y duraciones inventadas. Como las lesiones neuronales encontradas en estos pacientes son bastante difusas, poco nos pueden decir sobre una localización topográfica del sentido del tiempo en el cerebro. Lo único que podríamos afirmar es que éste debe ser de integración córtico-subcortical, abarcando áreas del sistema límbico e hipotalámico, así como la corteza cerebral frontal y prefrontal.

b) Los condicionamientos, pavloviano e instrumental, de traza o retardados

La mejor forma de establecer una respuesta condicionada es aplicar el estímulo condicionado (luz, ruidos, etc.) simultáneamente o unos segundos antes del estímulo incondicionado o natural, (alimento, etc.). En el laboratorio de Pavlov se hizo el descubrimiento de que era posible retardar la presencia del estímulo natural durante 20 o 30 segundos y entonces el animal no respondía (secreción de saliva) sino dos o tres segundos antes. Es decir, era capaz de inhibir su respuesta hasta pasado un tiempo, el cual podría aprender a estimar. Esta fue la primera prueba de que los animales, perros en este caso, podrían aprender duraciones que estuvieran desligadas de los ritmos endógenos y exógenos periódicos. Con el condicionamiento instrumental, en el cual el estímulo inicial es alguna acción motora del animal, la que se “refuerza” con gratificaciones diversas, o se utiliza para que el animal inhiba un efecto nocivo, sucede lo mismo. Las ratas que deben brincar de un comportamiento a otro para evitar un choque eléctrico, retardan su acción cuando aprenden que existe un intervalo determinado entre la señal preventiva y el choque eléctrico.

Cuando en este tipo de experimentos se coloca al animal ante la disyuntiva de calcular diferentes intervalos para predecir distintas acciones que se ejercen sobre él (acciones que provocan a su vez emociones variadas que van desde el placer al dolor), podemos observar conductas erráticas, verdaderas distimias que recuerdan los estados neuróticos de los humanos. Este hecho es una prueba más del carácter homeostático, de regulación y paz interna, que tiene una estimación correcta de las duraciones a que estamos sometidos.

El mecanismo de condicionamiento retardado o de traza, que nos está enseñando que los animales son capaces de medir duraciones, es desconocido. El hecho de que el intervalo entre un estímulo condicionado y el incondicionado se puedan demostrar efector de inhibición activa de aspectos conductuales, sólo nos señalan un efecto, pero no nos dice cómo el animal calcula la duración de la inhibición.

c) El sueño, la hipnosis y las ensoñaciones

El ciclo nictameral, el deseo de dormir y la necesaria aparición del sueño, como ya hemos señalado, constituyen una medida de tiempo. Es una señal más que se suma a los numerosos ritmos nictamerales, exógenos y endógenos que nos avisa del fin del día. El cortisol llega a su nivel más bajo al principio de la noche. Asimismo, el número de linfocitos, la temperatura y la glicemia y la calcemia, etc. Pero una vez instalado el sueño, perdemos la conciencia y con ella el sentido del tiempo. Basta con “echar una siesta” en un cuarto oscurecido y se obtiene la curiosa sensación al despertar de desorientación en el tiempo, y a veces, en el espacio. Como si el tiempo se hubiera detenido y necesitamos consultar el reloj o mirar al cielo y ver el grado de oscurecimiento para volver a la cronología habitual.

Para que se sostenga el ritmo diario de aparición del sueño (o el ritmo propio de cada especie animal), no es necesaria ni la conciencia ni el funcionamiento correcto de la corteza cerebral. Estos ritmos se mantienen gracias a la interacción de núcleos cerebrales y áreas subcorticales como el complejo nuclear del Rafe, el núcleo locus Coeruleus y la formación reticular bulbopontina. También participa el hipotálamo posterior y probablemente los núcleos intralaminares del tálamo. Pero todas estas interacciones de la circuitería neuronal subcortical tienen lugar fuera del campo de la conciencia, y por lo tanto, no son utilizadas para la medida del tiempo ligada al comportamiento vigil.

Como sabemos, el sueño se divide en dos grandes fases que se alternan entre sí cada 90 minutos más o menos en el hombre. Una fase de Ondas Lentas en el Electroencefalograma (EEG), de sueño profundo y tranquilo. Otra fase de Movimientos Oculares Rápidos, durante la cual ocurren los sueños o ensoñaciones. Estas fases, que comprenden el 20% más o menos del sueño total, se acompaña de una actividad EEG rápida y de bajo voltaje, parecida, sino igual, a la de la vigilia.

¿Cuál es nuestro sentido del tiempo en estas dos fases? Esta pregunta ha intrigado a muchos investigadores. Si se despierta a un sujeto a diversas horas, desde el inicio del sueño hasta poco antes del despertar espontáneo y se le pregunta qué hora es, es sorprendente la exactitud con que puede responder. El error promedio no pasa de 40 minutos. ¿Cómo puede un sujeto inconsciente o con una conciencia onírica, muy diferente de la vigilia, estimar tan correctamente el tiempo?

Del mismo modo que en el caso del condicionamiento en los animales es forzoso admitir que el sentido del tiempo es algo que puede funcionar fuera del campo de los procesos intelectuales complicados y cuya integración cerebral deberá estar en relación con las áreas encargadas de la vida vegetativa y los procesos instintivos. Es decir los estudios sobre el sueño y otros estados de conciencia alterada, nos enseñan que existen dos formas de medir el tiempo en el hombre: una consciente, adquirida durante la ontogenia, producto del aprendizaje de una relación velocidad-espacio y con una connotación social y ecológica, y otra inconsciente, estructurada filogenéticamente, cuyos mecanismos son heredados y están ligados a los ritmos biológicos.

Lo importante es descubrir cómo estos dos sentidos del tiempo interactúan, o sea, cómo la percepción consciente del tiempo utiliza como medida a los ritmos biológicos y cuáles son éstos, y por otra parte, hasta dónde puede el control disruptivo de la actividad mental consciente modificar o alterar estos ritmos biológicos. Que esto último es posible, lo sabemos por los estudios de Bioretroacción (“Bio-Feedback”) que lo demuestran.

Parece ser que la estimación de la duración durante los sueños, está determinada por la cantidad de acontecimientos que tengan lugar. Estos sucesos son colocados por el sujeto en lo que llamaríamos, en lenguaje de la computación, “en tiempo real”. Ya hemos señalado que un metabolismo acelerado modifica el tiempo de reacción y en la estimación del transcurrir del tiempo. Durante la fase MOR del sueño, el metabolismo cerebral está muy acelerado, las imágenes oníricas se suceden con extraordinaria rapidez. Un sujeto que sea despertado inmediatamente después de un sueño, al recordar las acciones y otros eventos que lo formaban, calculará la duración de su sueño, en relación con el tiempo que hubiera transcurrido si todo lo que pasó hubiera sucedido en la vigilia. Por eso algunos sujetos tardan horas en relatar un sueño que duró en realidad unos cuanto segundos. Bastan algunas imágenes claves con valor a veces simbólico, para que se desencadene toda una historia de larga duración.

Los estudios sobre la apreciación del tiempo en la hipnosis confirman esta hipótesis del número de eventos. Cuando a un sujeto hipnotizado se le ordena despertar después de un lapso determinado, lo hace con una sorprendente precisión. Pero si le pedimos despertar después de media ahora, en la que debe hacer algo, correr o pintar, e interrumpimos la hipnosis a los diez minutos, relatará que estuvo hipnotizado por media hora.

d) La estimulación eléctrica del cerebro humano

En el curso de cierto tipo de intervención quirúrgica para tratar las epilepsias, se ha estimulado eléctricamente al cerebro humano en sujetos con anestesia local, capaces de verbalizar sus impresiones. Las estimulaciones de la corteza cerebral frontal y temporal evocan secuencias de imágenes, recuerdos musicales y vivencias del pasado, con una clara connotación temporal. Cuando los electrodos se colocan en la profundidad del cerebro, en la región de la amígdala o del hipocampo, se desencadenan evocaciones duraderas, episodios de la vida del paciente, en un claro contexto afectivo y una temporalidad definida.

Estos resultados nos demuestran que siempre que almacenemos algún recuerdo, no lo hacemos simplemente guardando su contenido, sino que por así decirlo, le ponemos al menos dos etiquetas, una que se refiere al momento en el tiempo en que sucedieron las cosas y otra que señala su tonalidad afectiva. Esto parece cierto por lo menos para evocaciones de tipo personal. Pero pudiera ser cierto también para los recuerdos conceptuales; al recordar un verso en latín o el teorema de Pitágoras no podemos evitar, del mismo modo que les sucede a los pacientes con estimulaciones cerebrales, recordar un salón de clases, un maestro y tal vez algún compañero caro a nuestros afectos.

En estas experiencias, del mismo modo que sucede en los sueños, es notable la diferencia que existe entre la duración real del estímulo (uno o dos segundos) y la extensión de los recuerdos o sensaciones evocadas. Un paciente que fue estimulado durante dos segundos, con un breve tren de pulsos a 100 Hertz, en el área amigdaliana del lóbulo temporal, nos relató una larga historia, “que le había llegado de pronto a la mente”, sobre un accidente en una fábrica, del cual había sido testigo en su juventud. Su relato estaba pleno de acontecimientos que se sucedían a una velocidad vertiginosa y el propio sujeto tenía la impresión de que había sido estimulado por nosotros durante horas.

Una vez más, vemos que la experiencia de la duración parece estar en relación con la cantidad de eventos que en un momento dado experimente el cerebro, sean estos eventos conscientes, como en el caso relatado y en los sueños, o inconscientes, cuando simplemente aumenta la velocidad del metabolismo, como sucede con la fiebre.

e) La acción de ciertos fármacos psicotrópicos

Llamamos psicotrópicos a los fármacos que producen cambios en la actividad mental. Pueden ser usados con fines terapéuticos, lo que actualmente se hace con mucha frecuencia, o pertenecer al grupo de las sustancias alucinógenas. Sus efectos son de los más diversos, pero lo que aquí nos interesa es que, independientemente del fin que se persiga al ingerirlos o administrarlos, los podemos dividir en dos grandes grupos: aquellos que aceleran el metabolismo cerebral y la capacidad eidética y los que tienen un efecto opuesto, deprimiendo las funciones mentales (hasta producir sueño y coma), siendo inhibidores del metabolismo.

Los primeros inducen una sobreestimación del tiempo real transcurrido. Los segundos por el contrario, hacen que los sujetos infraestimen las duraciones reales.

Entre los “aceleradores” se encuentran la tiroxina, la cafeína, la nicotina y sobre todo, las anfetaminas.

También los alucinógenos, como la psilocilina (hongos), el LSD, la mezcalina y el hachís. Bajo su influencia el sentido del tiempo está sumamente distorsionado, pero en general el sujeto intoxicado siente que el tiempo pasa muy despacio o simplemente no se interesa en absoluto por él.

Los depresores producen la sensación de que el transcurrir del tiempo real es rápido, las horas se suceden sin acontecimientos que les den connotación mental.

En ambos casos, el sentido del tiempo, ya de por sí frágil, se altera. Lo que podríamos preguntarnos es por qué unos individuos toman partido por la aceleración y otros por la depresión. Pudiera esto deberse a características muy personales en el manejo del tiempo vivido. O a otros factores independientes del tiempo, como la naturaleza misma de las imágenes y su relación con la vida afectiva.

Los hombres hemos sufrido graves conflictos para comprender qué papel juega nuestro propio y privado sentido del tiempo, en el contexto de un tiempo universal. Este conflicto se agravó cuando Newton, que acertó en tantas cosas, nos dijo que el tiempo corría en una sola dirección y que era eterno e inmutable en su fluir. Si así era, ¿por qué nuestro tiempo es tan variable y loco, apareciendo y desapareciendo, alargándose y acortándose, produciéndonos angustia o placer? Tal parecía que el hombre era un subproducto muy imperfecto de una organización ideal. Por fortuna ahora sabemos que el tiempo en el universo, también puede acelerarse y retardarse, cambiar de sentido y hasta desaparecer en esas, tranquilizadoras para nosotros, singularidades de los hoyos negros del cielo.

 articulos
 
     

 Referencias Bibliografícas

1. Fernández-Guardiola, A., 1983, El sentido del tiempo subjetivo. Del Tiempo, Cronos, Freud, Einstein y los Genes, Fanny Black de Cereijido, Ed. Folios Ediciones, México, 85-113.
2. Fraser, J., Ed., 1966, The voices of Time, Braziller, Inc., N.Y.
3. Hawking, S. W., 1988, Historia del Tiempo, Ed. Grijalbo, S. A., México, D.F.
4. Prigogine, I., Stengers, I., 1983, La Nueva Alianza, Metamorfosis de la Ciencia, Ed. Alianza Universidad, Madrird.

Presentado en el 1er Congreso Nacional de Epistemología Médica, Facultad de Filosofía y Letras, UNAM, octubre de 1988.

     
____________________________________________________________
     

Augusto Fernández Guardiola
Instituto de Psiquiatría, Facultad de Psicología, UNAM.

como citar este artículo

     
R17Articulo6   menu2 índice 17
siguiente
anterior
PDF
   
   
Antonio Sarmiento
     
               
               

En 1493, un año después del primer viaje de Cristóbal Colón a América, el Papa dividió al mundo no europeo entre las naciones más poderosas de su propio continente. Cien años más tarde, cuando Mercator terminó su Atlas, la dominación europea se había extendido por todo el mundo y este Atlas incorporaba la concepción geográfica del planeta en una época de pleno colonialismo.

Miles de atlas se han publicado desde entonces con diversas diferencias respecto al de Mercator; sin embargo, todos ellos se adhieren al principio de un punto de vista eurocéntrico del mundo: el país y el continente de origen se representan utilizando una escala mayor que la utilizada para los países alejados de dicho país de origen (por lo general, los no-europeos). Si, junto con la edad del colonialismo, la visión del mundo que la sustentaba debe terminar, se necesita entonces una nueva geografía, una que se base en un estatus de igualdad para todos los pueblos.

 
Figura 1. Un ejemplo de los mapas usuales donde se claramente la distorsión a la que se refiere el texto. 

EL PROBLEMA CON LOS MAPAS USUALES

Veamos primero algunos ejemplos de las falsas imágenes que se nos presentan en los mapas usuales; distorsiones que sólo oscurecen las divisiones políticas de un nuevo sistema de control económico, divisiones como la llamada división Norte-Sur o la creadora de tensiones Este-Oeste.

En la porción que se muestra en la figura 1, se ve que el continente europeo ocupa una región aproximadamente igual a la que ocupa América del Sur, sin embargo, esta última tiene una extensión de 17.8 millones de kilómetros cuadrados mientras que Europa tiene tan solo una extensión de 9.7 millones de kilómetros cuadrados, es decir, América del Sur es en realidad casi dos veces más grande que Europa. En la figura 2, la imagen usual muestra a la Unión Soviética ocupando una región mayor que la ocupada por el continente africano, cuando en realidad, África (30 millones de kilómetros cuadrados) es casi una y media veces más grande que la Unión Soviética (22.4 millones de kilómetros cuadrados). De igual manera, Escandinavia (Finlandia, Noruega y Suecia), se nos ha representado durante 400 años (figura 3) de un tamaño similar al de la India que es tres veces más grande (1.1 y 3.3 millones de kilómetros, respectivamente). El caso extremo se muestra en la figura 4: Groenlandia, que tiene tan solo 2.1 millones de kilómetros cuadrados, aparece mayor que la región de 9.5 millones de kilómetros cuadrados que conforma al país de China, una porción de tierra que en realidad es poco más de cuatro veces y media más grande.

La naturaleza de estas distorsiones, y la razón de su existencia, son ahora tan obvias que parece prácticamente imposible que pasaran desapercibidas durante más de cuatrocientos años. La distorsión causada al intentar representar a la superficie (casi-esférica) de la Tierra sobre un papel plano, es más o menos inevitable, pero la distorsión causada por el uso de escalas inconsistentes, que ha adquirido el incuestionable nivel de hábito, no lo es.

Hemos llegado a aceptar como “natural” una representación del mundo que concede espacio desproporcionado a los mapas de gran escala que representan áreas concebidas como importante, mientras otras áreas son consignadas a mapas generales de escala pequeña. De esta manera, nuestra imagen del mundo ha sido condicionada, durante tanto tiempo, que no hemos reconocido dicha distorsión como lo que realmente es: el equivalente a observar mediante una lente de aumento a Europa y a América del Norte mientras el resto del mundo se ojea por el lado equivocado de un telescopio.

No hay algo de “natural” en tal visión del mundo; es el remanente de una manera de pensar que nació aún antes que la época del colonialismo y que fue impulsada por dicha época. Pocas gentes en uso de sus facultades mentales, suscribirían actualmente una visión del mundo de esta clase. Sin embargo, hasta hace pocos años, no existía una alternativa que proveyese una imagen sin distorsiones de este tipo.

UNA ALTERNATIVA

La identificación del problema, como tal, se debe a un historiador alemán, Arno Peters para quien los ejemplos mostrados en las figuras anteriores, significaban una visión errónea e insostenible. La elaboración de un nuevo Mapa Mundi y de un Atlas con las proporciones justas fue desarrollada por un grupo de geógrafos, expertos en computación y artesanos expertos en cartografía (90 personas en total), que en su mayoría, se encontraban trabajando en el Departamento de Geografía de la Universidad de Bristol y en la ciudad de Oxford en Inglaterra. Lo anterior no es más que otro ejemplo, hoy en día, de la dominación europea y del poco interés que la Geografía despierta en la cultura de los países que fueron colonizados.   

 
Figura 2. Otro ejemplo de la distorsión mencionando en el texto. Nótese que el hemisferio sur, la mitad de la tierra, ocupa solamente una tercera parte del mapa. 

Estos nuevos mapas y atlas llevan el nombre del historiador que inicia la corrección de las imágenes usualmente presentadas en los mapas anteriores: Mapas Peters y Atlas Peters. En el Atlas Peters, todos los mapas topográficos han sido trazados con la misma escala: un sexagésimo de la superficie terrestre. Esto significa que todos los mapas topográficos pueden compararse directamente entre sí. El Mapa Mundi esta lleno de sorpresas y para no alargar la espera del lector, se presenta en la figura 5, una copia reducida del mapa que aparecía por primera vez en el año de 1973. Para la mayoría de la gente, rápidamente se volvería aparente el hecho de que sus nociones acerca de los tamaños de diferentes países y regiones son, en la mayoría de los casos, drásticamente equivocadas.  

 
Figura 3. Tercer ejemplo de los mapas que distorsionan al mapamundi dividiéndolo artificialmente en un hemisferio “Norte”, concebido como política y económicamente importante, y un hemisferio “Sur” que carece de relevancia para los países del “Norte” todopoderoso. 

¿Que significa la palabra escala en este contexto? El indicador de escala que aparece en los mapas de referencia usualmente muestra sólo la escala de distancia. Esta permite al usuario calcular el factor necesario para multiplicar distancias y poder así compararlas con distancias en otros mapas del mismo atlas. Éste es un proceso complejo y tedioso que la gran mayoría de los usuarios, de manera entendible, no lleva a cabo. Además, el número de escalas distintas que se usan en un atlas convencional puede ser notablemente grande: la última edición de una atlas de referencia de uso muy extendido contiene mapas en 35 escalas diferentes; el concepto de escala relativa debe volverse considerablemente vago en la mente del usuario. Lo que en general no se menciona, es el hecho de que, debido a la imposibilidad de transferir correctamente la superficie del globo terráqueo a una plano, el indicar de escala en un mapa es únicamente válido para una sola parte del mapa, tal como una línea de latitud.

La distancia es sólo un aspecto de la escala, el área debe también ser considerada y, mientras ni puede haber mapas con una fidelidad absoluta en distancia, si puede haber mapas con fidelidad de área. Los mapas en el Atlas Peters conservan la fidelidad en el área ocupada por cada país o región: un centímetro cuadrado en el mapa equivale a seis mil kilómetros cuadrados en la realidad, una característica que nuca ante se había logrado en mapa o en atlas alguno. Existe, obviamente, un precio que pagar por la introducción de esta innovación. El Atlas Peters no es útil para ciertos propósitos: no está designado como guía para el conductor de vehículos motorizados o para sustituir el mapa de carreteras y caminos; en general, no es de utilidad para problemas de geografía local. Ofrece, por el contrario, una visión global.

LAS VENTAJAS DE LA ALTERNATIVA

La igualdad de escala ofrece muchas otras ventajas adicionales a la comparación directa de regiones o países. La base para la compilación de cualquier mapa es la simplificación de la realidad que los cartógrafos llaman “generalización”. Esta transferencia del carácter real de la superficie terrestre en un sistema de líneas y símbolos, los cuales pueden representarse gráficamente, tiene que adaptarse a la escala empleada. Así, un río o un camino con todas sus vueltas y características, se puede dibujar muy precisamente (es decir, con mucho más detalle) utilizando una escala 1:100000. Los símbolos también varían con la escala y no es difícil encontrarse con que el símbolo que representa una población de 50-10000 habitantes en una escala, también representa una ciudad con 1-5 millones de habitantes en otra escala. La misma elevación sobre el nivel del mar puede encontrarse coloreada de una manera distinta en mapas que tengan una escala diferente. Todas estas dificultades se desvanecen en el Atlas Peters que, debido a su escala única, tiene un solo nivel de generalización y un solo conjunto de símbolos.

 
Figura 4. Último ejemplo de los mapas tradicionales. En todos estos ejemplos hemos notado que alguna región del “Norte” político-económico se presenta claramente privilegiada respecto de alguna otra región en el “Sur” político-económico.

El significado de la coloración de los mapas topográficos también ha sido simplificado enormemente. El color verde representa la vegetación, el color café representa la tierra desnuda, y una combinación de ambos es utilizada para representar vegetación dispersa. Los datos sobre la vegetación global se obtuvieron de fotografías tomadas con satélites en 1985-86 utilizando la Unidad de Monitoreo Remoto del Departamento de Geografía de la Universidad de Bristol, Inglaterra. La resolución de estas imágenes (20 kilómetros cuadrados en cada fotografía) y su conversión a la base de los mapas Peters, hace de ésta la compilación más actualizada de la distribución de vegetación en el mundo.

LA PROYECCION UTILIZADA Y LAS INNOVACIONES

¿Cuál fue la proyección utilizada en la elaboración de estos nuevos mapas y atlas? Toda persona que haya intentado extender sobre un plano la cáscara de una naranja de manera continua y sin que ésta se rompa, habrá entendido la imposibilidad fundamental subyacente en toda labor cartográfica: la fidelidad de la forma, en la distancia y en el ángulo se pierden, por necesidad, al aplanar la superficie de una esfera. Por otro lado, es posible retener otras tres cualidades al hacer este proceso de aplanamiento: fidelidad en el área, fidelidad en los ejes y fidelidad en la posición. La fidelidad en el área hace posible el comparar entre sí varias partes de un mapa en forma directa; la fidelidad en los ejes y en la posición, garantizan relaciones correctas entre los ejes norte-sur y este-oeste mediante el uso de una red rectangular. La proyección utilizada, que también lleva el nombre de Peters, unifica en un solo mapa las tres cualidades mencionadas; de esta manera los tamaños comparativos reales de todos los países en el mundo son claramente visibles. Existe otra parte del problema que el lector ya habrá empezado a preguntarse: ¿y los polos? Los mapas que contienen los polos han sido realizados con la misma escala y manteniendo la fidelidad en el área, pero, para lograr una forma aceptable, se han proyectado sobre el plano utilizando un procedimiento distinto al de los otros mapas en el atlas. La distorsión de la forma que es inevitable en las regiones polares y ecuatorial del Mapamundi, se puede eliminar casi totalmente en los mapas regionales: cada uno de estos mapas se ha re-centrado de manera que la forma es la correcta a lo largo de las latitudes centrales del mapa. La red utilizada para la localización geográfica de un sitio mediante el uso de coordenadas también ha sufrido cambios en esta nueva concepción de la representación cartográfica. El Meridiano Cero tradicional que pasa por Greenwich, fue adoptado mundialmente como tal en 1884; una época en la que la Gran Bretaña era la potencia colonizador más fuerte del mundo europeo y regía sobre poco más de la cuarte parte del globo terráqueo. Una vez terminada la época dorada de este tipo de colonialismo y con el cierre del Observatorio de Greenwich, no existe razón alguna para continuar utilizando este Meridiano cero, salvo tal vez, la tediosa costumbre de hacerlo. La Línea Internacional para el cambio de fecha, que depende de la localización del Meridiano Cero, también necesita corregirse: a lo largo de toda su extensión, esta línea ha sido parcialmente desviada cada vez que en su camino se encuentra con una región habitada de la Tierra. Igualmente, el continuar utilizando la división del globo en 360 grados, en una época de plena decimalización mundial es, al menos, una anomalía.

 
Figura 5. La nueva visión del mundo: un estatus igualitario para todos los países y regiones. La relación entre tamaños, direcciones y localización es tal que cualquiera de estas características en algún lugar es directamente comparable con la misma característica en cualquier otro lugar del mapa mundi. 

Igualmente, es Arno Peter quien también ha propuesto una nueva red para la asignación de coordenadas geográficas a cualquier sitio del globo terráqueo. En esta nueva red, el Meridiano Cero y la Línea Internacional de cambio de fecha coinciden en una sola línea, situada a la mitad del estrecho de Bering, y la Tierra se divide en cien grados decimales Este-Oeste y Norte-Sur. La segunda parte del Atlas Peters enfoca su atención a la presentación de la Tierra como un todo. En 246 mapas individuales sobre un tema particular, el autor ha coleccionado información global acerca de la Tierra y la presenta agrupada bajo 44 títulos de simple y útil consulta.       

Existen, además de las mencionadas, toda una serie de características que hacen del Atlas Peterson una herramienta mucho más fácil de consultar, de interpretar y de utilizar que cualquiera de los altas usuales. He mencionado las características que me parecen más importantes y aquellos aspectos que contrastan fuertemente con esos mapas en que, hace ya varias generaciones, hemos venido aprendiendo la visión geográfica de la colonia y todas sus consecuencias. Como un ejemplo de los mapas regionales encontrado en el Atlas Peters se ofrece el contenido de la figura 6. Este gran logro ha sido posible gracias a la aplicación de las técnicas modernas a la cartografía: la cartografía computarizada hace posible el mantener actualizados los mapas hasta el mismo punto de incorporar los resultados a que han llegado las investigaciones mundiales más recientes. Por otro lado, la mecanización pura puede robarle al mapa su mejor característica: la labor artesanal del cartógrafo. El atlas y los mapas logrados por este equipo combinan las mejores características de ambos procesos: los mapas se han hecho con tanta mecanización como sea necesaria y tanta artesanía como sea posible.

 
Figura 6. Nuestro país en una proporción válida para todo el mapa. Nótese lo erróneo de llamar “El Sureste” a la península de Yucatán y regiones aledañas: Mérida, Isla Mujeres y algunas otras poblaciones, están en realidad más al Norte que la ciudad de México. Acapulco, por otra parte, sí se encuentra al sur del Distrito Federal y no al oeste como aparece en los mapas tradicionales.

Los mapas regionales han sido re-centrados, a partir de la proyección global, utilizando la instalación europea más moderna de computación Scitex en Berna, Suiza, y la base de datos geográficos de la Edgenössische Technische Hochschule; la información obtenida vía satélite sobre la vegetación terrestre ha sido procesada, mediante computadora, para ajustarse a esta base de datos. El resto de la cartografía para los mapas topográficos y los temáticos ha quedado en manos de los tradicionales artesanos cartógrafos en Oxford, Inglaterra.       

Este trabajo fue realizado gracias al apoyo que recibió el autor de la Royal Society del British Council.

 

 articulos
 
     
       
____________________________________________________________
     

Antonio Sarmiento
Astronomy Unit, Queen Mary College, University of London. Instituto de Astronomía, UNAM.

como citar este artículo

     
R17Articulo5   menu2
PDF→                                                                       
   
   
Luis E. Acevedo Gómez
     
               
               

INTRODUCCION

Hasta hoy, los riesgos de una guerra nuclear han sido calculados convencionalmente por media del número de muertes humanas en ambas lados del conflicto al final de la batalla, tomando en cuenta ejércitos y no combatientes. Los términos “aceptable” y “no aceptable”, significando ciertos millones de bajas humanas, han sido usados para establecer juicios justificados en favor de la necesidad de fabricación de nuevos y más precisos sistemas de armas. Hoy las cosas son diferentes. Dejemos a un lado el hecho de que en un holocausto nuclear (uso de todas las armas) de, digamos, 5000 megatones, morirían alrededor de 1000 millones de seres humanos debido a la onda de choque, al calor y a la radiación. Dejemos a un lado el hecho de que más de 1000 millones adicionales morirían luego debido a los efectos retardados sobre sistemas de soporte de vida y lluvia radiactiva.              

Algo adicional pasaría al mismo tiempo, por lo que el ser humano debería sentirse igualmente desgraciado que por la pérdida de su propia vida. El elaborado, coherente y bellamente organizado ecosistema de la Tierra (biosfera, naturaleza) sería mortalmente afectado. Algunas de sus partes persistirían y la vida en el planeta continuaría; pero quizá sólo a un nivel comparable con la que existía aquí hace un millón de años cuando los procariontes (criaturas como las bacterias de hoy en día) se unían en arreglos simbióticos e “inventaron” las células nucleadas de las cuales nosotros somos descendientes.

Hasta hace poco se había tendido a considerar el problema de una guerra nuclear como concerniente sólo a los adversarios que poseen las armas nucleares. El control de armamentos y las negociaciones interminables dirigidas hacia la reducción de explosivos nucleares eran vistas como responsabilidad sólo de las naciones en confrontación. Hoy ya todo esto ha cambiado. No existe nación en la Tierra que se encuentre libre de la amenaza de destrucción si dos naciones, o grupos de naciones, se involucran en un intercambio de misiles nucleares. Si la Unión Soviética y los Estados Unidos, junto con sus respectivos aliados, empezaran a enviar sus misiles más allá de un mínimo, aún no determinado, los países neutrales sufrirían los mismos efectos a largo plazo, las mismas muertes lentas de los participantes directos. Aún países situados en el hemisferio sur tendrían que preocuparse en la misma medida que, por ejemplo. Alemania Occidental, si un intercambio a gran escala sucediera en el norte.         

Hasta hoy en día se habían considerado los conflictos con armas nucleares como un esfuerzo entre adversarios por establecer dominio sobre territorios o ideologías. Con los nuevos descubrimientos es claro que cualquier territorio ganado se convertiría, a la larga, en territorio estéril, y cualquier ideología se desvanecería en la muerte de la civilización y la pérdida permanente de la memoria humana.        

La continua existencia y creación de armas nucleares, la proliferación contemplada de dichas armas en otras naciones que hoy carecen de ellas, y los esfuerzos detenidos e inútiles, de deshacerse de este peligro para la vida del planeta corresponden a otro orden de problemas diferentes al que parecía unos años atrás. Ya no es un asunto político propio de la sabiduría y consideración de unos pocos hombres de estado y militares, sino un dilema global que envuelve a toda la humanidad.             

Ya no existen alternativas que elegir, ni tampoco tiempo para discutir el asunto. Simplemente debemos deshacernos de una vez y para siempre de todas las armas que en realidad no son armas sino instrumentos de malevolencia pura. Según la situación, esté en peligro mucho más que la humanidad misma. Se esta arriesgando de una manera seria el concepto completo de vida. Esperamos que la humanidad entera, habiendo aprendido los hechos, pueda darse cuenta de lo que se deba hacer con todas las armas nucleares.

 EFECTOS DIRECTOS DE LAS ARMAS NUCLEARES

Los efectos directos debido a explosiones nucleares dependen de:

1. El diseño del artefacto nuclear.
2. La geografía exacta del lugar atacado.
3. Los materiales y métodos de construcción empleados en el lugar atacado.
4. Las condiciones climáticas (en especial la humedad en la atmósfera).   

Por tales razones esta discusión es esencialmente una generalización que esta sujeta a un dominio sustancial de variación e incertidumbre.

La energía de una explosión nuclear es liberada en un número de diferentes maneras:

1. La onda de choque, similar a la de una explosión química pero mucho más grande.
2. Radiación nuclear directa.
3. Radiación térmica directa, mucha de la cual es luz visible.
4. El pulso electromagnético.
5. La creación de una variedad de partículas radioactivas que son enviadas al aire en la explosión y se conoce como lluvia radiactiva cuando regresa a la tierra.  

La distribución de la energía en las formas anteriores depende del tamaño y diseño de la bomba, pero es posible una descripción general.   

Para hacer la descripción general sería bueno, ante todo, discutir el principio que interviene en el origen de la gran cantidad de energía liberada en una explosión nuclear. De acuerdo a la famosa ecuación desarrollada por Einstein

E = mc2

se relaciona el concepto de masa-energía, el cual establece que no podemos hablar de una de ellas independientemente de la otra. En otras palabras, a la masa se le asocia una cantidad de energía y viceversa. De dicha ecuación podemos conocer la cantidad de energía necesaria para crear una partícula de masa m, la cual es recuperable si podemos revertir el proceso.

La diferencia entre una explosión química y una explosión nuclear radica en que en la primera, la energía liberada proviene de la energía contenida en el enlace químico, mientras que en la segunda proviene de la energía necesaria para mantener el núcleo atómico ligado.

Hay dos tipos de reacciones nucleares de las cuales podemos derivar energía. Éstas son la fisión y la fusión. En la fisión se obtiene energía debido a la liberación de partículas energéticas al dividirse un núcleo atómico. En la fusión se obtiene energía debido a la liberación de partículas energéticas, pero esta vez por la unión de dos o mas núcleos atómicos. En el Sol ocurren procesos de fusión y son los responsables de radiar gran cantidad de energía por tanto tiempo. En el diseño de artefactos nucleares se utiliza uno solo o ambos de los principios mencionados.

ONDA DE CHOQUE

La energía generada por una explosión nuclear aumenta la temperatura a aproximadamente 107°C en un espacio esférico de un metro de diámetro. Como la liberación de la energía ocurre en una fracción de segundo, ésta misma no tiene tiempo para disiparse. Entonces se ejerce una fuerza tremenda en el aire adyacente a la esfera que empieza a expandirse a una gran velocidad. El mismo aire ejerce, entonces, una presión sobre el material de la bomba creando un equilibrio de fuerza que hace que este material se expanda a velocidad constante. Por lo tanto, el aire va a ser empujado a velocidad constante.

Como la velocidad del material de la bomba es mayor que la velocidad del sonido, el aire que se concentra en esta superficie se comprime creando lo que se conoce como la onda de choque. Como la materia es empujada hacia afuera de la explosión, la densidad detrás de la esfera de la onda de choque baja. Lo creado es un pulso como el que aparece en la figura 1 donde se puede deducir que lo que se experimenta es un golpe debido a la compresión, seguido de una descompresión. Los componentes dañinos a humanos y a edificios de la onda de choque son dos:

1. El pulso de la onda de choque.
2. Los vientos violentos que siguen después que pasa el pulso.  

Como medida del posible daño se utiliza el concepto de sobrepresión (presión sobre la presión atmosférica). El pulso de sobrepresión se mide en libras/pulgada2 (psi).

Para entrar en una discusión más cuantitativa es necesario establecer la diferencia entre una explosión aérea y una superficial. Una explosión aérea es aquella en la que la bola de fuego creada en la explosión no toca el suelo. Una explosión superficial es una en que la bola de luego sí toca el suelo. Según el daño que se quiera causar en el lugar atacado, se escoge una de estas dos alternativas. El área cubierta en una explosión aérea es mayor que en una superficial, por lo tanto, si se quiere arrasar con un área considerable, se hace detonar la bomba a una altura óptima más allá de la cual el daño no es tan grande. En cambio si se quiere destruir alguna instalación subterránea, como silos de misiles u otras, se utiliza una explosión superficial.

El análisis de efectos de la onda de choque se simplifica mediante el uso de una ley de escaleo (scaling) hidrodinámica. Para explosiones nucleares a cierto valor de sobrepresión dado se tiene que

D α Y1/3

Donde D es cierta distancia desde el centro de la explosión y Y se conoce como la explosividad de la bomba. En los estudios realizados se ha medido D en millas y Y en megatones. Un megatón es el poder explosivo contenido en un millón de toneladas de trinitrotolueno (TNT). De esta forma, la sobrepresión P es función sólo de un parámetro Z definido como

Fómula 22

Para explosiones de hasta el rango de megatones se ha usado el método de ajuste de cuadrados mínimos para ajustar los valores obtenidos en ensayos nucleares, y se ha obtenido que para explosiones superficiales la sobrepresión P esta dada por

P= 39.12 Z1.98 psi

y para explosiones aéreas

P= 111.5  Z3 + 28.8 Z3/2 psi

La aparición de dos términos en esta última ecuación se debe a que cuando la onda de choque originada por una explosión aérea toca el suelo, ésta se refleja. Debido a que el pulso reflejado pasa por una región donde ya ha pasado el pulso primario, y por lo tanto la densidad y temperatura son mayores que la del ambiente, este pulso reflejado se propaga más rápido que el primario. Entonces el frente reflejado alcanza al primario y se crea un frente de aproximadamente el doble de intensidad del pulso primario. Este nuevo frente se conoce como frente de Mach, y la región en la que éste fenómeno ocurre se conoce como la región de reflexión de Mach. En la región de reflexión ordinaria el pulso reflejado llega a un punto luego que el frente primario ha pasado y se experimentan dos máximos de sobrepresión.

Con las relaciones obtenidas para P, en ambos casos se tiene para expansiones superficiales

Fórmula 25

Donde R es la distancia terrestre del centro de la explosión en la cual se siente una sobrepresión P debido a una explosión de explosividad Y. Para explosiones aéreas

Fórmula 26

Donde H es la altura de la detonación.

La velocidad del pulso de la onda de choque está dada por

Fórmula 27

Donde P0 es la presión atmosférica, P la sobrepresión y C0 la velocidad del sonido en el ambiente. La velocidad de los vientos está dada por

Fórmula 28

La mayor parte del daño causado a ciudades por explosiones de alto megatonaje es debido a la onda de choque. Ésta produce cambios súbitos en la presión del aire (presión estática) que puede derrumbar edificios y provocar vientos huracanados (presión dinámica) que causan colisiones entre objetos sueltos entre los cuales se encuentran las personas. Por ejemplo, para una explosión aérea de un megatón a 4 millas (6 km) de distancia, la sobrepresión es de aproximadamente 5 psi la cual ejercería una fuerza de más de 180 toneladas sobre la pared de una casa típica de dos niveles y causaría vientos de 160 millas por hora (255 km/hr). Aunque una sobrepresión de 5 psi no mataría a una persona, un viento de 160 mph causaría colisiones fatales entre personas y objetos cercanos. La mayor parte de las muertes serían causadas por el derrumbe de edificios ocupados. Para tener una idea de los daños se incluyen estimados de vulnerabilidad de población para distintos valores de P en la tabla 1. En la tabla 2 se exponen los valores de velocidad del viento para distintos valores de P.

 
 TABLA 1.- Vulnerabilidad de Población en varias zonas de Sobrepresión. los principios usados en la construcción de esta tabla son relativamente conservadores.

RADIACION NUCLEAR DIRECTA

Las armas nucleares infligen radiación ionizante sobre personas, animales y plantas en dos formas distinta. La radiación directa ocurre en el momento de la explosión; puede ser intensa pero su alcance es limitado. Por otro lado, la lluvia radiactiva está constituida por partículas que se vuelven radiactivas debido a los efectos de la explosión, y por lo tanto son distribuidas a varias distancias desde el punto de la detonación. Para armas nucleares de alta explosividad el alcance de la radiación directa es menor que el de la onda de choque o el del calor. Sin embargo, para el caso de armas más pequeñas, la radiación directa puede ser el efecto letal con mayor alcance. La radiación directa hizo un daño sustancial a los residentes de Hiroshima y Nagasaki.

La respuesta de un organismo a la radiación ionizante es sujeto de una gran incertidumbre científica y de una profunda controversia. Para entender los efectos de las armas nucleares se debe distinguir entre efectos a corto plazo y efectos a largo plazo, pero aún así se deben aclarar ciertos conceptos de dosimetría de radiación.

El paso de partículas cargadas, tales como rayos a, b, g y x a través de la materia (incluyendo el cuerpo humano) pueden ionizar átomos y moléculas y causar daño considerable. Para cuantificar la cantidad o dosis de radiación que pasa a través de la materia se utiliza el concepto de rad. Un rad es la cantidad de radiación que deposita una cantidad de energía de 10–2 Joules por cada Kg de material absorbente. Sin embargo, esta unidad de medida no es la más representativa del daño biológico producido por la radiación, debido a que dosis iguales de diferentes tipos de radiación producen diferente cantidad de daño. Se define, pues, la efectividad biológica relativa (RBE) o el factor de calidad (QF) de cierto tipo de radiación como el número de rads de radiación X o de radiación gama que produce el mismo daño biológico que un rad de la radiación dada.

Tabla 2. Valores de velocidad del viento a distintos valores de sobrepresión
 P (psi)  u (mph)  u (km/hr)
200 2 078  3 325
 150  1 777  2 843
 100  1 415  2 264
50   934  1 494
30   669  1 070
20  502    803
10   294    470
5   163   261
2    70   112

En la tabla 3 aparecen valores de factor de calidad para distintos tipos de radiación.

Tabla 3. QF para distintos tipos de radiación
Tipo de radiación  QF
rayos x y γ  ≈ 1
b (electrones)  ≈ 1
protones rápidos     1
neutrones rápidos  ≈ 3
neutrones lentos  hasta 10
particulas α  hasta 20

Definimos entonces la cantidad conocida como rem (rad equivalent man) como

rem = rad x QF,   

y por definición un rem de cualquier tipo de radiación produce aproximadamente el mismo daño biológico.

Una dosis de 600 rems por un periodo corto de tiempo (6 a 7 días) tiene 90% de probabilidad de causar enfermedad fatal causando la muerte en una semana. Entre la región 300-600 rems no se conoce el comportamiento de la curva de razón de muertes, pero se estima que una dosis de 450 rems por un corto tiempo causa la muerte a la mitad de la gente expuesta a ella. La otra mitad se enfermarían pero se recuperarían con el tiempo. Una dosis de 300 rems mataría el 10% de las personas expuestas. Una dosis de entre 250-450 rems causaría serias enfermedades de los que la gente se podría recuperar, pero estas enfermedades harían a la gente altamente susceptible a otras enfermedades e infecciones. Una dosis de entre 50-200 rems causaría náuseas y disminuiría la resistencia a otras enfermedades. Una dosis de 50 reina no causaría efectos a corto plazo.

Los efectos debidos a dosis bajas son a largo plazo y se miden estadísticamente. Si una población numerosa se expone a 50 rems de radiación, entre 0.4 y 2.5% de ellos contraería cáncer luego de varios años. También habrían efectos genéticos serios sobre una fracción de los expuestos. Dosis más bajas de 50 rems producen efectos menores. Se ha estimado, a grosso modo, que la distancia (en millas) a la cual una persona no protegida recibe una dosis D (en rems), debidos a una bomba de hidrógeno de explosividad Y (MT), esta dada por

Fórmula 29

RADIACION TERMICA DIRECTA

Aproximadamente 35% de la energía de una explosión nuclear se libera en forma de radiación térmica. Los efectos son análogos a los efectos debido a un destello de dos segundos de duración de una enorme lámpara solar. Como esta radiación viaja a casi la velocidad de la luz, ésta precede a la onda de choque por varios segundos, así como el relámpago precede al trueno.

Para calcular el daño causado por la radiación térmica, se considera esta como una bola de fuego y su daño se estima hallando la energía por unidad de área medida a cierta distancia de la explosión. Si no existe atenuación atmosférica, la energía térmica (E total) a una distancia D de la explosión, puede ser considerada como esparcida uniformemente sobre la superficie de una esfera de área igual 4p2D. La energía recibida por unidad de área de la esfera es, pues

Fórmula 30

Cuando se considera la absorción de calor por las partículas de la atmosfera y además la dispersión de la radiación, existe un factor de atenuación, y la ecuación se representa:

Fórmula 31

donde T, la transmitancia, es la fracción de radiación que se transmite y depende de la visibilidad, la absorción y la distancia. La energía total (E total) puede representarse como una fracción de la explosividad total de la bomba

ETotal = f Y

y por lo tanto

Fórmula 32

Utilizando el he o de que un megatón (1MT) equivale a una energía de 1015 calorías, y suponiendo una visibilidad de 40 millas (64 Km)1

Fórmula 33

donde Y está en MT y D en millas. Para una explosión superficial f es aproximadamente 0.18, y para una explosión aérea f es aproximadamente 0.35. Entonces para explosiones superficiales y aéreas respectivamente se tiene

Fórmula 34

y

Fórmula 35

donde R es la distancia a que ocurre cierta energía por unidad de área (Q) y H es la altura de la detonación de la explosión aérea.

El efecto dañino de la radiación térmica en la gente es de dos tipos: uno causado por la radiación incidente directamente sobre la piel y el otro por el contacto con un fuego iniciado por la radiación. La gravedad del primero depende de la duración de la exposición y la pigmentación de la persona. Entre 5 y 6 cal/cm2 recibidas por 10 segundos producirían quemaduras de segundo grado. Entre 8 y 10 cal/cm2 causarían quemaduras de tercer grado. Para una bomba de un megatón esta exposición se experimentaría a aproximadamente 8 millas de la detonación. La combustión de ropa, cortinas y otras tetas requiere de entre 20-25 cal/cm2, lo que ocurriría a aproximadamente 5 millas de la explosión. Quemaduras de tercer grado sobre el 24% del cuerpo, o de segundo grado sobre el 30% del cuerpo, producen un trauma serio y sería fatal a menos que se atienda con servicio medico especializado.

Por otro lado la luz visible produce ceguera temporal a las personas que miran en dirección de la explosión, y total o permanente si se enfoca la explosión a través de la pupila directamente a la retina, independientemente de la distancia a que se encuentre la persona del centro de la explosión. En una explosión que ocurra durante la noche el daño sería mayor debido a que la pupila se encuentra más abierta por la cantidad de luz en el ambiente.

La radiación termal debido a una explosión nuclear podría encender material combustible. Los fuegos de más probable propagación son causados por radiación térmica, la cual pasaría a través de ventanas e incendiaría camas y muebles dentro de las casas. Otra posible fuente de fuegos que causaría más daño en zonas urbanas sería el daño producido por la onda de choque tanto a circuitos eléctricos como a líneas de gas en edificios y casas.

El peligro de los fuegos mencionados anteriormente aumentaría en caso de que el fuego se propagara sobre un área mayor a la inicial. Los fuegos masivos podrían clasificarse en dos grupos:

1. Tormenta de fuego, en la cual vientos violentos entrantes a la zona de fuego crean temperaturas extremadamente altas, pero evitan la propagación del fuego hacia afuera.
2. Conflagración, en la cual el fuego se propaga a lo largo de un frente. Este último tipo de fuego dependería de la geografía del área, de la velocidad y dirección del viento, así como de los detalles de construcción de los edificios.

En una tormenta de fuego moriría, posiblemente, la gente en el área del fuego debido al calor, y de asfixia la gente en los refugios. La conflagración se propaga lo suficientemente lento como para que la gente pueda escapar, sin embargo podría matar a los heridos imposibilitados de caminar.

PULSO ELECTROMAGNETICO (PEM)

El pulso electromagnético es una onda electromagnética similar a las ondas de radio, que resulta de reacciones secundarias, las cuales ocurren cuando la radiación gamma nuclear es absorbida por el aire o el suelo. Difiere de las ondas de radios comunes en dos aspectos. Primero, crea campos eléctricos de mayor intensidad. Mientras una onda de radio produce una diferencia de potencial de aproximadamente una milésima de voltio cuando mucho en una antena, el PEM podría producir una diferencia de potencial de miles de voltios. Segundo, es un pulso sencillo que desaparece completamente en una fracción de segundos. Esto significa que éste es similar a la señal eléctrica del relámpago, pero la subida en voltaje es típicamente cien veces más rápida, por lo que mucho del equipo diseñado para proteger las instalaciones eléctricas de un relámpago trabajaría muy lento para proteger el equipo del PEM.       

Una explosión superficial produciría un PEM del orden de 104 voltios/metro a cortas distancias (dentro el alcance de los 10 psi de sobrepresión) y del orden de 103V/m a mayores distancias (región de 1 psi). Las explosiones aéreas producen menos PEM, sin embargo, explosiones de gran altura (sobre 19 millas, 30 Km) producen un PEM de gran intensidad con alcance de cientos o miles de millas.

No existe evidencia de que el PEM produzca daño físico a los humanos. El daño debido al PEM es mas bien sobre sistemas eléctricos o electrónicos, particularmente aquellos que están conectados a cables largos como líneas eléctricas o antenas. Las estaciones de radio son vulnerables no solo por la perdida de energía eléctrica, sino también por el daño a componentes electrónicos conectados a las antenas.

LLUVIA RADIACTIVA  

La radiación de importancia en las explosiones nucleares es de neutrones, rayos gamma, y en menor grado, partículas beta. La penetración de los rayos gamma y neutrones en el tejido animal es del orden de 20 cm, justo el alcance que causa el máximo daño al organismo. Si la penetración fuera de algunos milímetros o menos, la radiación sería absorbida en la superficie de la piel y no llegaría a los órganos vitales; si fuera de varios metros o más, mucha de la radiación atravesaría el cuerpo sin interactuar. Los rayos beta tienen una penetración de pocos milímetros y pueden causar efectos dolorosos en la piel si caen sobre ella. Las partículas radioactivas que emiten rayos gamma y beta (núcleos radioactivos creados por la fisión de la explosión) pueden causar daño serio si son inhalados o si penetran en la cadena alimenticia.   

Esencialmente todos los neutrones y mucha de la radiación gamma se producen en reacciones de fusión y fisión durante la misma explosión. La captura de neutrones por los residuos de la bomba y por el aire, tierra y/o agua alrededor produce radiación gamma adicional y una gran variedad de radioisótopos.       

Si la explosión es aérea y la bola de fuego no toca tierra, esta no es vaporizada y los fragmentos de fisión se elevan a la atmósfera. El material que se eleva se condensa en partículas pequeñas y éstas, se distribuyen, luego de un tiempo apreciable, sobre un área grande. En el caso de bombas de alta explosividad (más de un megatón), el material radiactivo se eleva a la estratósfera y es distribuido sobre una fracción alta de la superficie terrestre. El daño que pueda producir este material depende del tiempo de decaimiento o vida media del isótopo.    

Si la explosión es superficial, parte de la tierra es vaporizada y mezclada con los residuos de la bomba. Este material se eleva con el aire caliente. Al subir se enfría y se solidifica en partículas de gran variedad de tamaño. El tiempo que permanecen suspendidas en el aire depende de su tamaño. Las partículas más pesadas caen primero. Mientras permanecen en el aire son empujadas por el viento, en lo que descienden.     

Cuando se construye una bomba de hidrógeno para que produzca la máxima explosión posible, alrededor del 50% de su energía es debida a la fisión de uranio. Es posible eliminar la mayor parte del uranio en el diseño de dichas bombas, y aunque esto reduce el tamaño de la explosión, puede eliminar casi toda la lluvia radioactiva. Este artefacto se conoce como una bomba “limpia”.

Aunque la intensidad de radiación de cada núcleo radiactivo decae exponencialmente a razones diferentes, la mezcla de los diferentes isótopos produce radiación que esta dada aproximadamente por la relación.

Fórmula 36

donde I0 es la intensidad al tiempo t0. Esta ley produce una disminución de 0.1 en la intensidad, cada vez que t aumente por un factor de 7. Alrededor del 80% de la dosis se recibe el primer día, 90% la primera semana y el restante 10% se distribuye en un tiempo largo. Esta relación de decaimiento se cumple antes de un tiempo de seis meses después de la explosión. Luego de éste la radioactividad decrece más rápidamente.    

La cantidad de radiación recibida en un punto en el suelo se describe en términos de la razón a la cual un ser humano recibiría una dosis de radiación de rayos gamma, si estuviese situado en el punto. La distribución de radiación recibida se podría idealizar asumiendo una cierta velocidad constante del viento en una sola dirección y descartando la posibilidad de lluvia (agua). Siendo así, los patrones de distribución de la lluvia radioactiva tendrían forma más o menos elíptica, desplazada en la dirección del viento desde el centro de la explosión. En dichos patrones elípticos se pueden marcar contornos de dosis que las personas expuestas recibirían en cierto tiempo dado.

El área Af afectada por un contorno de radiación es el área cubierta por una dosis de intensidad D o mayor, para una bomba de explosividad Y. Esta se puede aproximar por la formula

Fórmula 37

Las constantes C, a, y b dependen de factores tales como el viento, el terreno, el por ciento de fisión de la bomba y la altura de la detonación; así también, en menor grado en la explosividad Y. Asumiendo una velocidad de viento de 15 mph (24 km/hr), terreno plano, 50% fisión, explosión superficial, y Y del orden de 1 MT las constantes son:

α = 0.032 MT/rem

β = 5.8 x 10-5 MT/rem

C = 1.6 x 105 millas2 rem/MT.

Con estos valores tenemos que

Fórmula 38

para el alcance amplio de valores entre Y/D igual a β y Y/D igual a α.

Por ejemplo el área Af sobre la cual el máximo daño biológico debido a una explosión de 1 MT excede 100 rems es

Fórmula 39

La tabla 4, resume los efectos médicos de la radiación en los humanos, en función de la dosis letal recibida.

SINERGISMOS-EFECTOS COMBINADOS

La discusión hasta aquí expuesta ha estado basada en los efectos de una explosión nuclear, considerando cada efecto por separado. Sin embargo, la realidad es que los daños debido a dos o más de los efectos anteriormente discutidos pueden ocurrir, aunque no existen métodos aceptados de calcular el efecto y la probabilidad de dichos daños. Lo que los datos tienden a sugerir es que los efectos aislados no son muy imprecisos en cuanto a muertes inmediatas, pero que las muertes que ocurran al cabo de un tiempo desde la explosión pueden deberse a los efectos combinados. Podríamos considerar tres casos:

1. Radiación nuclear combinada con radiación térmica. Las quemaduras graves exponen el sistema sanguínea a una tensión considerable y a menudo causan anemia. En experimentos con animales de laboratorio se ha comprobado que la exposición de una víctima de quemaduras a más de 100 rems de radiación, bloquearía la capacidad de la sangre para recuperarse de las quemaduras. Por lo tanto, una dosis subletal de radiación haría imposible la recuperación de quemaduras que, sin radiación, no causarían la muerte.

2. Radiación nuclear combinada con lesiones mecánicas. Las lesiones mecánicas, efectos indirectos de la onda de cheque, pueden ser de varios tipos. Objetos que vuelen pueden causar heridas sangrantes, huesos rotos, conmoción y heridas internas. Existe evidencia de que todo este tipo de lesiones se agravan si la persona ha sido expuesta a 300 rems e más de radiación, especialmente si la persona no es tratada medicamente. El daño en la sangre debido a la radiación hace a la víctima más susceptible a una pérdida de sangre e infecciones. El número de muertes inmediatas y no inmediatas aumentaría al considerar este sinergismo.

3. Radiación térmica combinada con lesiones mecánicas. La combinación de estos dos efectos expone al cuerpo a una tensión considerable, y haría insoportable padecer ambos, aún cuando cada uno por separado fuera tolerable.

Aparte de estos podríamos considerar el posible sinergismo entre lesiones y daño al medie ambiente. Por ejemplo, una posible sanidad (debida a la pérdida de luz eléctrica y agua) podría complicar los efectos de cualquier tipo de lesión.

Dosis (rems)  Síntomas  Tratamiento Pronóstico
 0-100 cambios en la sangre detectables (sobre los 25 rems) no requerido excelente
 100-200 vómitos, jaqueca, somnolencia, leucopemia moderada (pérdida de leucocitos) vigilancia hematológica recuperación total en pocas semanas
 200-600 leucopemia severa, hemorragias internas, ulceraciones, pérdida de cabello (sobre los 300 rems), infecciones trasfusión sanguínea, antibióticos, hospitalización probabilidad de muerte, 0% a extremo inferior, 90% al extremo superior
600-1 000 lo mismo que antes, pero más severo considerar transplante de la médula ósea probabilidad de muerte entre 90 y 100%. Larga convalescencia para los sobrevivientes
1 000- 5 000 diarreas, fiebre, desbalance electrolítico mantener balance electrolítico muerte entre 2 y 14 días
sobre 5 000  convulsiones escalifríos, ataxia (irregularidades en el funcionamiento del sistema nervioso) proporcionar sedantes muerte entre 1 y 2 días
Tabla 4. Efectos médicos de la radiación en los seres humanos

ESCENARIO DE ATAQUE NUCLEAR

Puerto Rico es una isla situada en el Caribe y es la de menor extensión territorial de las Antillas Mayores. Desde 1493, año en que fue descubierta por Cristóbal Colón, paso a ser colonia de España. En 1898 le fue concedida la Carta Autonómica por les reyes de España, la cual cedía los poderes al pueblo de Puerto Rico para establecer su propio gobierno. Sin embargo, esta situación fue aprovechada por Estados Unidos, y en el mismo año la isla fue invadida por el ejercite de dicha nación, estableciéndose en la isla un gobierno militar. Desde entonces la isla pasó a ser colonia de Estados Unidas, hasta que en el año de 1952 se creo el Estado Libre Asociado de Puerto Rico, sistema de gobierno que sigue prevaleciendo hasta nuestros días. Siendo territorio de los Estados Unidos, el pueblo de Puerto Rico está comprometido a tomar parte activa en las fuerzas armadas del Sistema de Defensa de los E. U. Hoy en día la situación es tal, que el Departamento de Defensa de los E.U. tiene diseñada alrededor de toda la isla una red de bases militares, así como facilidades de comunicaciones, lo que forma parte del sistema estratégico de defensa. Una de estas instalaciones es la Base de Roosevelt Roads. Dicha base se encuentra situada en la zona este de la isla Puerto Rico. La base naval Roosevelt Roads es el cuartel general de las fuerzas navales del Caribe del ejercito de Estados Unidos, cuartel general Fleet Air Caribbean, y contiene el Caribbean Atlantic Fleet Weapons Training Facility (AFWTF). Es la base naval de mayor extensión territorial del ejercito de Estados Unidos y parte de una red de facilidades de comunicaciones y de operaciones de aviones, submarinos y barcos del sistema estratégico nuclear, que dicho ejército tiene esparcido por todo el territorio puertorriqueño.

Como ejemplo de los efectos debido a una explosión nuclear a continuación se incluye el cálculo de muertes inmediatas debido a la onda de choque, radiación térmica y la lluvia radiactiva producidas por una explosión nuclear sobre esta base militar.

Podemos observar un mapa de la isla de Puerto Rico que incluye la isla de Mona al oeste de la principal y al este las islas de Culebra (arriba) y Vieques (abajo). La isla principal: tiene una forma más o menos rectangular con un largo de aproximadamente 1000 milla (160 km) y un ancho de 35 millas (56 km). (Figura 2).

Figura 2. Efectos inmediatos aproximados debidos a la onda de choque; radiación térmica de una explosión superficial de 1 Megatón sobre Roosevelt Roads
 
DESCRIPCION DE LOS EFECTOS MECANICOS Y TERMICOS
Círculo    Radio (mi)    Sobrepresión (PSI)    Vientos (mph)    Calor (cal/cm2)    Grado de quemaduras
1    1.40    20    502    30.92    —
2    1.99    10    294    15.35    —
3    2.83    5    163    7.52    Segundo
4    4.49    2    70    3.02    Primer
5    6.37    1    35    1.50    —
DAÑOS INMEDIATOS CAUSADOS
Círculo    Daños
1    Los edificios de concreto reforzado son destruidos. La inmensa mayoría de las personas muere.
2    Los edificios comerciales colapsan. Las personas expuestas sufren quemaduras graves; si no mueren.
3    Las casas de madera y cemento son destruidas o dañadas seriamente. Las personas expuestas sufren quemaduras serias. Combustión espontánea de la ropa y otros combustibles.
4    Daño moderado a los hogares (grietas, vidrios rotos, paredes interiores debilitadas, techos destruidos). Probablemente el área comprendida dentro de esta región es completamente quemada.
5    Daño ligero a estructuras comerciales. Daño moderado a las residencias.
Nota: Cada círculo indica el alcance medio de los efectos mencionados. Los efectos actuales en una región determinada, pueden variar considerablemente en función de las condiciones del tiempo, el diseño específico de los edificios, del grado de exposición de las personas y de las irregularidades en la explosión de la bomba termonuclear.

NATURALEZA Y CONDICIONES DEL ATAQUE

Tipo de bomba-termonuclear de 50% fisión y 50% fusión.
Explosividad (Y) un megatón.
Modalidad del ataque-ataque sencillo con una sola bomba.
Epicentro de la explosión-Base Naval Roosevelt Roads.
Altura de la explosión (H) 2200 pies (680 m) (explosión superficial).
Tiempo-día típico de verano con visibilidad de 40 millas (64 Km).    

 Efecto

Área afectada

mi2         km2

 Muertes
 onda de choque 25  64   44,333
 radiación térmica 190  486
 lluvia radioactiva 350  896  161,717
Tabla 5. Muertes causadas por los efectos de la onda de choque, radiación térmica y lluvia radioactiva

CRITERIOS UTILIZADOS EN EL CALCULO DE MUERTES

Para el caso de la onda de choque se supone que el número de personas que sobreviven a dicho efecto dentro del área donde la sobrepresión excede 5 psi, es igual al número de personas que muere en las áreas donde la sobrepresión es menor a 5 psi, y por lo tanto el número de muertes debido a la onda de choque es la población que se encuentra dentro del contorno circular correspondiente a 5 psi. En el caso de la radiación térmica y de lluvia radioactiva se usa un criterio similar. Se cuenta la población que se encuentra en un contorno circular de calor de 7 cal/cm2 y también dentro del contorno correspondiente a una radiación de 450 rems para cada caso por separado.

SUPOSICIONES

1. Se supone una velocidad horizontal constante del viento de 15 mph hacia el oeste.

2. En el computo de dispersión y transporte de sustancias radiactivas se descartan los posibles efectos de la lluvia, el gradiente vertical del viento, las variaciones en la dirección del viento y otros factores secundarios.

3. Se supone que el 50% de persones potencialmente expuestas a dosis de radiación letales (mayores de 600 rems) logran evitar dicha exposición (esto es un factor de protección de 0.5).

4. Se ignoran posibles sinergismos.

Figura 3. Efectos debido a la lluvia radioactiva en una explosión superficial de 1 MT sobre Roosevelt Roads. El epicentro se encuentra en el punto marcado con una cruz. Se pueden observar los contornos de radiación al cabo de 18 horas de la explosión, dentro de los cuales la radiación es mayor a la indicada. La velocidad y dirección del viento es según se indica
 

METODO UTILIZADO PARA EL CALCULO DE FATALIDADES

Conociendo el área afectada por cada uno de los efectos a considerar se multiplica dicha cantidad por la densidad poblacional en el área afectada. Para el caso de la lluvia radioactiva, además, se multiplica por el factor de protección de 0.5.

RESULTADOS

Los resultados se resumen en la tabla 5. La ilustración de los daños debido a los efectos considerados se observa en las figuras 2 y 3. La figura 2 es un modelo computarizado realizado para ilustrar los efectos producidos por la onda de choque y la radiación térmica. La figura 3 es el diagrama idealizado de la distribución de radiación para este escenario.    

Vale la pena mencionar que el número de muertes calculado es relativamente bajo para este ataque nuclear. La razón para ello es que el área cubierta por los tres efectos considerados corresponde más bien a una región rural lejana de los centros urbanos de alta densidad poblacional. Un trabajo realizado en torno a los efectos originados por la onda de choque y la radiación térmica de explosiones sobre distintos posibles blancos alrededor de la isla, indica que en una explosión aérea de 1 MT sobre un receptor radial naval de comunicaciones del ejercito de E.U., situado en Sabana Seca, a unas 6 millas al oeste del núcleo urbano de la ciudad capital de San Juan, morirían de inmediato alrededor de 900000 personas debido sólo a esos dos efectos. Esta cantidad es casi una tercera parte de la población total de la isla de Puerto Rico.

 

 articulos
 1 El factor de atenuación para esta visibilidad con una distancia del orden del alcance de la bola de fuego es de aproximadamente 0.8.
     
       
       
____________________________________________________________
     

Luis E. Acevedo Gómez
Estudiante de Física, Facultad de Ciencias, UNAM.

como citar este artículo

     
You are here: Inicio Blog (2) revistas revista ciencias 17