revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R01Articulos   menu2
   
   
Carlos García Moreira
     
               
               
Todos parecemos estar de acuerdo en que se "podría"
hacer una lista más o menos exhaustiva de las cosas concretas que un físico, un matemático o un biólogo debería saber al egresar... Pero por una serie de razones no nos ponemos de acuerdo en sus contenidos y declinamos la responsabilidad de proponer siquiera la nuestra. Sin embargo, la realidad es más que tozuda y permanece ahí, incólume ante nuestra negativa existencial)... Y, efectivamente, un físico, un matemático o un biólogo egresa sabiendo hacer ciertas cosas e ignorando otras.
 
Entre los temas que un biólogo egresado por estos días de nuestra facultad puede ignorar, se cuentan los conceptos básicos de la bioestadística.
 
Una consulta fugaz a cualquier texto actual de ecología, de fitotecnia o de zootecnia (por citar sólo algunas disciplinas fundamentales) nos permite comprender que esta ausencia es lamentable porque las ciencias biológicas son, cada día más, cuantitativas y basan la mayoría de sus conocimientos en análisis matemático-estadísticos de los resultados de observaciones y experimentos, también diseñados estadísticamente.
 
Podríamos intentan hacer valer como excusa el que otras escuelas biológicas, médicas y paramédicas se hallan en situación similar. También podríamos reavivar el mito de que los estudiantes que optan por esas carreras se distinguen por su incapacidad para comprender y aplicar nociones matemáticas. Incluso podríamos alegar, y no exentos de razón, que para identificar un paramecio o extraer un calculo biliar no es preciso contar con aquellas.
 
Varios años atrás, se escucharon argumentos de este corte por los corredores de la Facultad y con buen tino se adoptó la política de rebatirlos no con palabras, sino con hechos. En este camino el laboratorio de biofísica ha dado unos cuantos pasos y, también, ha sufrido algunos tropiezos más o menos notables. Sin embargo, de un tiempo a esta parte, sus cursos de bioestadística concitan mayor interés y aceptación por parte de los estudiantes de biología de los últimos semestres y de los egresados recientes.
 
Se trata, sin duda, de una situación interesante: una materia de las supuestas "'aborrecidas" por biólogos, que inicia el curso con exámenes de conocimientos previos necesarios, que incluye elementos de cálculo y de computación, y que, además, abarca prolongadas sesiones de teoría y de práctica, recibe creciente aceptación entre quienes no tienen obligación curricular alguna y podrían obtener el mismo número de créditos con mucho menor esfuerzo.
 
Esta situación constituye algo alentador en lo académico e ilustra acerca de cómo, entre los estudiantes, puede ganar terreno un pensamiento correcto sin recurrir a otra vía que el convencimiento y el ejemplo reiterado. A nuestro entender, viene a ratificar, una vez más, la validez en lo académico de varios de los principios de la Reforma Universitaria Latinoamericana, a saber:
 
1- Es precisa la participación directa de estudiantes y maestros en la planeación y evaluación de la enseñanza.
2- Es necesaria una estructura curricular flexible, que reconozca el derecho del estudiante a orientar, dentro de ciertas pautas generales, su propio estudio.
3- Es imprescindible garantizar la libertad de cátedra, para que los maestros puedan ofrecer lo que consideran importante, aún cuando esto contraríe la opinión dominante en el momento.
4- Es fundamental garantizar la libertad de debate y asegurar la participación colectiva en él, para hallar soluciones a los problemas académicos y organizativos de la comunidad.
 
Sin la concurrencia de cualquiera de estos factores, no se estaría operando un cambio tan interesante como el descrito, ni se habrían descubierto perspectivas tan ricas como las que ahora se avizoran. Pero todavía hay otros aspectos en que quisiéramos detenernos, porque su consideración podría arrojar luz sobre otros problemas generales que debemos encarar.
 
En primer lugar, parece existir un consenso no explícito acerca de lo que debe saber un egresado en cuanto profesionista, esto es, en su calidad de titular de un certificado que lo acredita como poseedor de ciertos conocimientos y habilidades. Al parecer, dicho consenso empieza a incluir ciertas nociones y métodos de Bioestadística como requisitos del biólogo.
 
En segundo lugar, este consenso parecería depender más de las exigencias inmediatas del medio externo que del pensamiento propio de la Facultad. En nuestro caso, son evidentes las actuales demandas de varias instituciones en materia de diseños, reportes y análisis estadísticos. Y esto desemboca en el consenso referido, al margen de que la enseñanza actual de la biología no lo contemple formalmente. Esto puede tener implicaciones positivas, como la que acabamos de referir, pero también negativas, como pueden ser las distorsiones transmitidas desde una industria puramente maquiladora o desde un comercio privado monopolista. En el caso de la bioestadística, por ejemplo, se desatenderían los temas de evaluación estadística de la depredación y la contaminación ambientales.
 
En tercer lugar, debe preocupar la falta de actitud crítica y el exceso de pasividad con que pueden terminar imponiéndose cambios académicos ante una sostenida demanda del medio; ya que, por el contrario, la universidad debe imprimir a dichos cambios un carácter técnico de suficiencia y de crítica, ambos basados en la defensa del beneficio social. En el caso de la bioestadística, sabemos que puede usarse como elegante ropaje para disimular omisiones intencionales o como sólido respaldo a honrados análisis de la realidad.
 
También en el aspecto metodológico pensamos que la experiencia de la bioestadística permite extraer algunas conclusiones de interés general.
 
La primera de ellas es que el carácter interdisciplinario de una materia resulta del grado de compenetración de los distintos aspectos que alcancen los responsables y no de la acumulación de maestros de cada uno de los aspectos por separado, pretendiendo que sea el estudiante por sí mismo quien realice lo más difícil: coordinar e integrar los diferentes enfoques. Los cursos de bioestadística han resultado tanto mas exitosos, cuanto mayor era la integración realizada en la persona del maestro.
 
La segunda conclusión se relaciona con el “exceso pedagogista” que lleva al intento de disociar objetivos formativos e informativos y que declara imposible formarse aprendiendo a la vez algo útil. El caso de la Bioestadística resulta por demás ilustrativo... ¿o puede dudarse que sirva para aprender metodología científica?
 
La tercera conclusión se refiere a que la actitud crítica que imprimamos a la enseñanza debe sostenerse sobre una base de suficiencia técnica que genere seguridad en el egresado al enfrentarse al medio, e impedir que su posición crítica sea abatida por el simple enfrentamiento a un tema desconocido. Pensamos que si a un biólogo se le pide en su trabajo que realice un análisis de regresión del cual no tiene la menor idea, cuestionará a partir de esto, toda la enseñanza que recibiera, y no sólo ese punto.
Creemos así, haber extraído suficiente material de interés general a partir de una experiencia particular. Pensamos que esto es, precisamente, lo que justifica los esfuerzos en ésta. Y para finalizar, quisiéramos formularnos una pregunta urgente:
 
¿Cuántas necesidades como la bioestadística hay en la Facultad?
     
____________________________________________________________
     
Carlos García Moreira
Profesor de carrera
Facultad de Ciencias, Universidad Nacional Autónoma de México.
     
_____________________________________________
     
cómo citar este artículo
García Moreira, Carlos. 1982. “Bioestadística, una disciplina poco conocida en la Facultad de Ciencias”. Ciencias, núm. 1, enero-febrero, pp. 6-8. [En línea]
     

 

 

       
 
  menu2
               
 Laboratorio de Biología Molecular R01B02
Nota de los editores 
   
   
     
                     
                   
Actualmente, el principal objeto de estudio en el Laboratorio
de Biología Molecular, se centra en los mecanismos de formación de la sangre, para lo cual se utiliza, como animal experimental, el conejo.

Dicho estudio, señala el doctor Jaime Martínez Medellín, coordinador del Laboratorio de Biología Molecular, reviste especial importancia por las repercusiones que pueda llegar a tener en el conocimiento de la causalidad de ciertos padecimientos hemáticos.

La formación de la sangre está controlada por las condiciones fisiológicas del animal. Durante el estudio, se inducía sangrado en los conejos, diariamente, con lo que se estimulaba hasta cinco veces su proceso de formación de glóbulos rojos. El volumen de sangrado extraído por punción intracardiaca, equivaldría, proporcionalmente, a medio litro de sangre para un ser humano. Si, por el contrario, se quisiera reprimir el proceso de formación de glóbulos rojos, se tendría que trasfundir sangre a dichos animales.

Actualmente, el laboratorio de Biología Molecular se encuentra investigando cuáles son los cambios orgánicos que sufren los conejos anémicos y, de esos cambios, cuáles controlan o modifican la producción de la sangre.

Por otro lado, el doctor Martínez Medellín consideró que uno de los aspectos biológicos más intrigante, hoy en día, es el de la célula de eucarionte, contiene en sus cromosomas la información para poder fabricar decenas de miles de proteínas distintas. Empero, una célula diferenciada, por ejemplo, una neurona o una célula muscular, sólo expresa o pone en juego una mínima parte de la información cromosómica. ¿Cuáles son los mecanismos que le permiten seleccionar activamente la información?

Se sabe que todos los elementos de la sangre: granulocitos, plaquetas, linfocitos, glóbulos rojos, etcétera, se forman a partir de una célula indiferenciada, conocida como célula madre. De aquí también el interés de estudiar el tejido sanguíneo en el campo de la diferenciación celular.

  articulos  
_____________________________________________________________
     
Nota de los editores
     
_____________________________________________________________
     
cómo citar este artículo
Nota de los editores 1982. “Laboratorio de Biología Molecular”. Ciencias núm. 1, enero-febrero, p. 9. [En línea]
 
     

 

 

       
 
  menu2
               
El profesor González
viaja al espacio
R01B06-2
Silvia Bravo
   
   
     
                     
                   
Esa mañana, el profesor González despertó con espíritu de
aventuras. Durante los últimos días había estado leyendo mucho, en revistas de información científica, sobre la exploración del espacio y, aunque ya no era, precisamente, un jovenzuelo que sueña con ser astronauta, se había despertado en él un enorme deseo de tomar unas vacaciones en el espacio exterior.
 
Le asombró mucho que apenas ahora, a más de 20 años del nacimiento de la era espacial, le empezara a interesar el asunto, y aunque se sintió un poco avergonzado del gran desinterés que en el pasado había sentido por todos los otros aspectos de la ciencia que no constituían su especialidad, se disculpó a sí mismo arguyendo que ese era un mal común a la gran mayoría de sus colegas y que, por otro lado, él, a raíz de su repentino interés por la exploración espacial, estaba ya dejando esa postura. Seguramente en poco tiempo estaría muy bien enterado (por lo menos) del estado de desarrollo y de los avances más recientes de la ciencia en otros terrenos y se propuso que a la vuelta de su viaje interplanetario —porque sí, estaba decidido que haría un viaje por el medio interplanetario— se encargaría de ponerse al día en cuantos temas científicos y, ¿por qué no?, también de los otros que tuviera a su alcance.
 
Pero lo primero es lo primero y plantear un viaje de semejantes dimensiones requiere tiempo. Había que resolver los problemas uno por uno.
 
En primer lugar, debía vencer la atracción gravitacional de la Tierra, pero claro, alcanzar una velocidad superior a los 11.9 m/seg (que según constaba en los libros, era la velocidad de escape de la Tierra) no era una tarea muy difícil para un atleta consumado como él. Y después ¿qué? ¿Dónde empieza el espacio exterior? Recordaba con mucha claridad un diagrama que representaba las regiones que circundan a la Tierra (y que reproducimos aquí en la figura 1 por si alguien desea, alguna vez, hacer este viaje).
 
 
Figura 1. Esta figura representa en forma esquemática una proyección en el meridiano día-noche de lo que se llama la “cavidad magnética”. En tres dimensiones, los anillos de Van Allen son especies de “donas” que rodean la Tierra, una dentro de la otra, y cuyo corte transversal es el mostrado en la figura. Tanto la onda de choque, como la magnetopausa son superficies de revolución alrededor de un eje perpendicular al ene N-S indicando en la figura. La atmósfera no se muestra, pues a la escala del dibujo sería una capa de menos de un milímetro de espesor, que rodeará a la Tierra. También existen en la magnetósfera muchas otras regiones diferenciadas que no se muestran.
 
 
¡Ah, qué bellos son los cinturones de Van Allen!, —pensó con emoción y satisfecho de descubrir que el terreno le era ya algo familiar. Hacía bastante tiempo que sabía de la existencia de estos anillos —¡son bastante populares!— formados por protones y electrones atrapados en las líneas del campo magnético de la Tierra. ¡Lástima que estos cinturones no puedan ser vistos! —suspiró— pero bueno, tratándose de partículas tan pequeñas, ¿qué otra cosa se podría esperar? —dijo con desenfado y continuó planeando su viaje.
 
La parte más difícil era salir de la atmósfera, ustedes saben, por la fricción, ya que al pasar por ahí la cosa puede ponerse muy caliente. Problemas menores, después de todo. En eso ya está muy avanzada la tecnología. ¿Y luego? Bueno, lo importante era estar sobre la atmósfera y ya de ahí, a unos 600 kilómetros de altura, empezar a internarse en la exósfera. ¡Qué curioso! —se decía a sí mismo muy quedito para que nadie fuera a oír—, yo siempre creí que después de la estratósfera todo estaba vació, nunca me imaginé que hubiera una capa de protones llenando todo el espacio hasta la magnetopausa. Claro está —continuó aún en voz más baja— que ni siquiera tenía la menor idea de que existiera una magnetopausa. Pero para qué lamentar mi pasada ignorancia, ¡adelante con el viaje aprovechando mi nueva sabiduría!
 
Pero esta magnetopausa —continuó ya con voz más firme— de veras que me ha causado una gran impresión. Yo siempre creí que el campo magnético de la tierra (que, eso sí sabía bien, se podía aproximar al de un dipolo) se extendía a todo el espacio, cada vez más débil, pero siempre ahí, y ahora vengo a enterarme de que hay una “magnetopausa”, una frontera que limita la extensión de este campo y lo confina a una región bastante reducida alrededor de la Tierra. Y, lo que es más, lo mismo debe estarles pasando a todos los otros cuerpos del sistema solar que tienen campo magnético, pues el flujo constante del viento solar barre su presencia del medio interplanetario y los confina en cavidades más o menos pequeñas alrededor del cuerpo donde se originan.
 
¡Qué importante se sintió después de esta frase! Seguramente que ninguno de sus compañeros tenía la más ligera idea de lo que era el viento solar. Pues bueno —pensó en decirles a su regreso— el viento solar es un flujo de plasma continuamente emitido por el Sol que se extiende por el medio interplanetario y determina las características electromagnéticas de éste. Porque sí, como ustedes saben, un plasma es un gas altamente ionizado que tiene una gran conductividad eléctrica y que, en el caso del viento solar, como su ionización es casi total (principalmente se halla formado por protones y electrones libres) su conductividad eléctrica es prácticamente infinita. Y claro, como ustedes saben, un material de conductividad infinita mantiene constante el flujo magnético en su interior. Así pues, el plasma que constituye el viento solar, al ser lanzado por el Sol, se lleva consigo el campo magnético de su lugar de origen y lo transporta al medio interplanetario. Pero, al mismo tiempo, como debe conservar su flujo magnético, no puede aceptar en su interior campos magnéticos externos a su origen y los barre a su paso hasta una frontera donde la presión del plasma que fluye como viento solar, se iguala a la presión del campo magnético planetario (que no puede salir de ella) y, por otro, el flujo del viento solar (que no puede penetrarla). Claro que esto sería en una situación muy idealizada, ya sé que la cosa es un poquito más compleja pero, grosso modo,  puede describirse de esta manera.
 
¡Ah! Y otro detalle magnífico que me encantaría ver —prosiguió el profesor— serían esas hermosísimas espirales de Arquímedes (y trazó en el aire algo así como lo que aparece en la figura 2) que forman las líneas del campo magnético del Sol y que jala el viento solar radialmente hacia afuera, al mismo tiempo que el Sol rota. El efecto es parecido a los chorros de agua que lanza un aspersor giratorio de jardín.
 
 
Figura 2. Esta figura muestra en forma esquemática las líneas del campo magnético interplanetario proyectadas sobre el plano del ecuador solar, que aproximadamente coincide con el plano de la órbita terrestre. Este campo es exclusivamente de origen solar y es transportado al medio interplanetario por un viento solar supuestamente uniforme que sale del Sol radialmente con una velocidad de 300 km/seg.
 
 
¡Cuanto había aprendido el profesor González en estas últimas semanas! Todo el tiempo que había pasado en la biblioteca de la Facultad de Ciencias no había sido en vano. ¡Qué de cosas nuevas sabía ahora! Y más aún, hélo aquí, planeando este viaje de fin de semana, del cual podrá platicarles a sus compañeros por lo menos durante dos meses. Pero había que proseguir con el plan. Era sábado y debería partir en unas cuantas horas si quería regresar a tiempo para su clase del lunes.
 
¿Y la onda de choque? ¡Ah, eso sí que no quiero verlo! No sé que tan peligroso sea cruzar una onda de choque —pensó— pero vale la pena el riesgo. Una onda de choque no es algo que se vea todos los días, es algo espectacular, sui generis ¿cuánta gente sabrá lo que es una onda de choque? Yo mismo no lo sabía hasta hace una semana —dijo en voz siempre muy baja como para no ser escuchado—. Pero ahora que ya lo sabía, podía decir con voz muy fuerte: una onda de choque es una “superficie” de discontinuidad que se forma en los fluidos supersónicos (o como en el caso del viento solar, superalfvénicos). Esto ya sería muy indigesto discutirlo y el profesor González decidió dejarlo para otra ocasión.
 
Resulta que, como el viento solar fluye —desde muy cerca del Sol en adelante— a velocidad mayor que la de la información que puede transmitirse en él (la que en el aire sería el sonido), al encontrar un obstáculo en su camino, la información de la presencia de este obstáculo no puede llegar de regreso hasta el Sol, ya que es “arrastrada” por el flujo que viene y se forma una discontinuidad hasta antes de la cual, el viento solar no es alterado en absoluto por la presencia del obstáculo. Esto pasa en el caso de la magnetósfera terrestre, que para el viento solar es un obstáculo, y debe pasar en todas las situaciones semejantes. También hay otras maneras en que se pueden producir, y de hecho se producen continuamente, ondas de choque en el medio, interplanetario, principalmente por la interacción de regiones de viento solar rápido con algunas de viento solar más lento, emitido desde regiones menos “calientes” del Sol.
 
Y aquí sería interesante —pensó el profesor González— recordar el origen del viento solar. Claro que para manejar la situación en medio de un viento solar no serviría de mucho saber su origen, pero se sentía mejor de conocerlo y además podría hacer un paréntesis en el relato que haría a sus compañeros, para compartir con ellos toda su recién adquirida cultura en cuestiones espaciales.
 
Para entender el origen del viento solar —les diría— observen el siguiente diagrama (que aquí reproducimos en la Figura 3, para aquellos que no sean compañeros del profesor González puedan entender sus explicaciones). Como podrán observar, la temperatura a través de las diferentes capas solares muestra descensos y ascensos que, por mecanismos que no discutiremos aquí —¡afortunadamente!—, llegaron a alcanzar 106K (o °C, aquí lo mismo da) en la capa más externa de la atmósfera solar llamada “corona”. Como esta temperatura se mantiene prácticamente durante grandes distancias, se llega a una región donde la energía térmica gravitacional de atracción, de modo que el Sol ya no es capaz de retenerla y la corona se expande en forma continua con velocidad primero creciente y que después se vuelve prácticamente constante a lo largo del medio interplanetario.
 
 
Figura 3. Temperatura de las diferentes capas del Sol.
 
 
No está por demás que considere algunos valores numéricos para tomar precauciones —pensó, volviendo a los planes de su viaje—. Por ejemplo, la densidad del viento solar a la altura de la Tierra es de 10 a 100 partículas por cm3 y su velocidad varía entre 300 y 100 km/seg., también debo tomar en cuenta que el campo magnético solar transportado por el viento solar tiene, a la altura de la Tierra, un valor del orden 5 X 105 gauss, que no es del todo despreciable.
 
¡Vaya! —pensó—, sería realmente maravilloso encontrar la forma de ser arrastrado por ese viento solar a través del espacio interplanetario, sin el menor esfuerzo de mi parte. Así podría llegar hasta… ¿hasta dónde? No recuerdo ya hasta donde fluye el viento solar. Debo encontrarlo, sí, y ¿qué pasa en la frontera? Creo que se forma otra onda de choque al interactuar con el medio interestelar. Y esto, ¿dónde ocurre? Sé que es más allá de Saturno, los vehículos espaciales lo han detectado, y tal vez sea más allá de Plutón. Ojalá; así el viaje gratuito me llevará a todo lo largo del Sistema Solar, aunque me preocupa esa onda de choque final, ese límite de lo que se llama la heliósfera, “región controlada por el Sol”. ¿Qué tal que es muy turbulenta?, o ahí ¿el campo magnético se vuelve muy intenso?, ¿qué tal si mi estructura no resiste el cruce de esta zona?, ¿qué tal si?…
 
Un golpe seco sobre su costado derecho lo despertó al caerse de la cama. Resulta que todo esto de su viaje de fin de semana al espacio había sido un sueño y después de todo, menos mal, porque ese día ni siquiera de veras era sábado.
  articulos  
       
 _______________________________________________
     
Silvia Bravo
Investigadora del Instituto de Geofísica y profesora
Facultad de Ciencias de la Universidad Nacional Autónoma de México. 
     
 _______________________________________________
     
cómo citar este artículo
Bravo, Silvia 1982. “El profesor González viaja al espacio”. Ciencias núm. 1, enero-febrero, pp. 39-41. [En línea]
     
       
 
  menu2
               
 ¿Qué es... el quimógrafo?
R01B05

Nota de los editores 
   
   
     
                     
                   
Un paso importante en la investigación y la docencia en el
área fisiológica fue dado al iniciarse los métodos de registro gráfico en el quimógrafo. Este aparato electromecánico, de uso común en los Laboratorios de Enseñanza de Fisiología Animal del departamento de Biología, permite registrar movimientos y sus relaciones temporales.
 
El método de registro gráfico consiste en transmitir los movimientos que resultan de los fenómenos fisiológicos, por medio de palancas u otros dispositivos, hasta una punta apoyada suavemente sobre la superficie rotatoria (cilindro o tambor) del quimógrafo que gira con velocidad igual y constante. La punta traza los movimientos sobre el papel ahumado que cubre la superficie del cilindro.
 
Se obtiene, por consiguiente, un registro de la actividad fisiológica en cada espacio recorrido; lo que equivale al tiempo transcurrido. Este proceso concluye, en definitiva, con la obtención de una gráfica cartesiana, donde las abscisas son el tiempo y las ordenadas una medida del fenómeno fisiológico. Las abscisas se calibran conforme a la velocidad del movimiento de la superficie en la unidad de tiempo. Las ordenadas también se calibran en las unidades adecuadas, según el dispositivo en funcionamiento permite medir fuerza con escaso desplazamiento, o por el contrario, desplazamiento con el mínimo de carga opuesta a la acción fisiológica. Así puede estudiarse, por ejemplo, el movimiento muscular y ciertos fenómenos hidráulicos y neumáticos.
     
_____________________________________________________________
     
Nota de los editores
     
_____________________________________________________________
     
 
cómo citar este artículo
Nota de los editores 1982. “¿Qué es... el quimógrafo?”. Ciencias núm. 1, enero-febrero, p. 21. [En línea]
     

 

 

       
 
  menu2
               
El volcán
de Colima
R01B01
Ernesto Márquez Nerey
   
   
     
                     
                   
La instalación de un Observatorio Vulcanológico en el volcán
de Colima, es una de las tareas geofísicas más urgentes del país, ya que el establecimiento de dicha estación no sólo podría ayudar a prevenir la pérdida de vidas humanas en la zona, sino que además, apoyaría la sistematización de la investigación vulcanológica en México.
 
Los investigadores Francisco Medina y Manuel Mena, del Instituto de Geofísica de la UNAM, y Jorge Piza, de la Universidad de Colima, consideran que debe llevarse a cabo un estudio periódico que pueda aportar datos confiables para obtener criterios predictivos adecuados de este volcán. Es necesario, señalan, conocer los antecedentes del volcán para elaborar una herramienta teórica que, conjuntamente con el estudio detallado de las características particulares de la región, puedan servir de elementos de juicio al momento de tomar medidas precautorias tendientes a evitar desastres en las poblaciones aledañas.
 
El volcán de Colima es lo que se define como un Estratovolcán, debido a que está constituido por capas de material fragmentado (cenizas y toba) y corrientes de lava intercaladas. Es el volcán más activo del país y tiene una altura de 3960 metros sobre el nivel del mar, con un edificio de forma cónica ideal de 800 metros de altura por 2000 metros de base. Su formación se ha estimado pleistocénica.
 
El volcán se encuentra enclavado en una zona de fosas tectónicas y vulcanismo reciente, la cual presenta un sistema de plegamientos y fallamientos corticales, con una marcada debilidad de la corteza, ya que en ella se unen las Fosas de Tolimán (que entra por el Noroeste) y la de Sayula (que entra por el Norte), las cuales al intersectar se forman el llamado graben de Colima.
 
La historia eruptiva del volcán para el periodo comprendido entre los años de 1560 a 1980 señala que la actividad predominante es la de tipo explosivo, contándose cerca de 30 erupciones de este modelo en los últimos 450 años. De acuerdo con las descripciones reportadas, el 40 por ciento de estos hechos parecen tener un carácter “vulcaneano” o “peleano”.
 
Dentro de las fases importantes que ha mostrado el volcán está la del desarrollo de una boca adventicia, en 1869, conocida como “el volcancito”. Existen, también, pequeños domos en el flanco Sur del volcán llamados “los hijos del volcán”.
 
El volcán, localizado en la parte occidental del eje neovolcánico mexicano, a los 19°30’45” norte y 103°37’01” oeste, se caracteriza por la lava bastante viscosa que periódicamente se desborda por el cráter produciendo derrames cortos y gruesos. La última fase de exploción violenta tuvo lugar en 1913, observándose, en esa ocasión, la formación de nubes ardientes (flujos de piroclastos) que bajaron por los flancos Norte y Oeste.
 
Después del 20 de enero de 1913, fecha en que el cráter quedó vacío, se inició nuevamente el ascenso de lava, hecho que pudo ser notorio hacia 1930, cuando el nivel de ésta en el cráter se estimó en 60 metros. Posteriormente, en 1957, se lleno y, a finales de 1975, comenzó a derramar escoria y lava con intensa actividad fumarólica, así como a producir pequeñas explosiones.
 
A partir de diciembre de 1975, la actividad del volcán de Colima ha sido básicamente fumarólica (gases con gran contenido de agua), sin embargo, recientemente se han observado emisiones de ceniza en poca cantidad, lo cual puede tomarse como indicio de que se aproxima una erupción, y, dado que el domo parece estar actuando como un tapón que obstruye todo el cráter, es de temer el desarrollo de nubes ardientes en él.
 
Por el momento, indican los investigadores se cuenta con una estación sismológica que funciona como “cuentaeventos”, instalada en la ciudad de Colima, a 32 km del volcán, la cual ha estado funcionando desde septiembre de 1979, aportando alguna información relevante para el futuro estudio de la sismicidad del área y su aparente correlación con la actividad eruptiva del volcán.
  articulos  
__________________________________________________________
 
     

Ernesto Márquez Nerey

     
cómo citar este artículo
Márquez Nerey, Ernesto (reportaje). 1982. “El volcán de Colima”. Ciencias núm. 1, enero-febrero, p. 5. [En línea]
     

 

 

R01Articulos8   menu2
   
   
Fernanda Navarro
     
               
               
Una noticia convirtió el asombro y la incredulidad en acción: “Reactores nucleares en la ribera del lago de Pátzcuaro”. Sin saber de dónde provenía el proyecto, pero con sospechas de que formaba parte del Programa de Energéticos del Gobierno Federal, procedimos a llamar a la formación de un Comité de Defensa Ecológica de Michoacán, CODEMICH en la universidad del estado. Pocos días después se constituyó la Sección Pátzcuaro-zona lacustre del CODEMICH. Si bien al principio nos movimos más por intuición y temor, no tardamos en decidir tomar como base las numerosas manifestaciones de protesta en Europa y en Estados Unidos que la prensa mundial registra cotidianamente, Por otra parte, no dejamos, en ningún momento, de recurrir a personas altamente calificadas y con reconocida formación científica, tanto para nuestro asesoramiento, como para los actos públicos que organizamos.
 
Ante la necesidad de contar con una plataforma para la acción —y como tarjeta de presentación— elaboramos nuestra declaración de principios. Al mismo tiempo empezarnos a establecer contactos con diversas organizaciones de otros países afines a la nuestra: Suecia, Estados Unidos, Holanda, Francia y Suiza. Comenzamos a recibir materiales, bibliografías y muchos datos para nosotros novedosos, por ejemplo, la existencia de una asociación de científicos comprometidos con una posición anti-nuclear, Union of Concerned Scientists, la noticia de que tres físicos nucleares que trabajaban en la General Electric renunciaron a sus puestos por considerar que las medidas de seguridad no ofrecían garantías. También recibimos un documento del Partido Comunista Sueco en contra de la energía nuclear. Todo esto al mismo tiempo que señalaba la complejidad del asunto, reafirmaba nuestra posición. Sobre la marcha, de una manera pragmática, espontánea y apresurada —con todas las desventajas que esto implica— empezamos a publicar pequeños folletos de información básica para sensibilizar a la población. Se nos tachó de amarillistas. Después hubo programas de radio, conjuntamente con miembros del SUTIN, y programas de televisión. Se había trascendido el nivel local y el interés creció.
 
Peculiaridad de la situación
 
Nuestro movimiento de oposición al establecimiento del Centro de Investigación de Reactores Nucleares en el lago de Pátzcuaro, se topó con una situación extraña que dificultó y complicó la tarea: el hecho de que el proyecto no provenía del Gobierno, tampoco de las transnacionales —contra las cuales la lucha habría podido ser más clara y frontal— sino de un Sindicato conocido por su trayectoria progresista y democrática: el SUTIN. Se nos presentaba un dilema, pero nuestra inquietud y preocupación fundamental era hacer frente a una tecnología que aún no ha encontrado su propio antídoto y ya se usa masivamente, por convenir así a los intereses de las naciones más poderosas. Nos interesaba mostrar la legitimidad de nuestra oposición a un proyecto nuclear aunque viniera de un sindicato con las características del SUTIN. Era necesario deslindar la cuestión tecnológica de la política.
 
Justamente, en esos días conocimos un documento que causó una profunda impresión en nosotros: la Declaración de Científicos Sociales en contra de la utilización de la Energía Nuclear, firmado por destacados marxistas: sociólogos, filósofos y economistas europeos. A partir de aquí empezamos a ver otro ángulo que iba más allá de los peligros directos de la energía nuclear que en principio, constituyó el problema que más nos preocupaba. Ahora se trataba de otro factor, el político. De acuerdo con los científicos sociales a que aludimos, el Programa Nuclear no procede de una consideración técnica exclusivamente, sino de una opción política, ideológica y de civilización. El tipo de sociedad que se va generando por la naturaleza intrínseca de la energía nuclear, la militarización, la centralización, etcétera, plantea una realidad nueva que resulta altamente indeseable y alarmante, y que justamente es contra lo que luchamos: un estado policíaco. El grupo de científicos afirma en su declaración: “la nuclearización es irreversible. Sus pesadas estructuras, pretendidamente neutrales, tienden a cerrar el camino al socialismo”. Y nosotros aquí, en México, enfrentándonos a un sindicato que habla de socialismo y que enarbola la bandera de independencia tecnológica y el nacionalismo. Decididamente, la cuestión era —lo es aún— compleja.
 
Es osado juzgar nuestra difícil posición vista desde la superficialidad de la apariencia y sin posibilidad de explicar ni fundamentar nada ya que nunca tuvimos acceso a la prensa nacional, como lo tuvo el SUTIN. No es de sorprender, entonces, que no escapáramos a los calificativos de “sospechosos” y “reaccionarios”. Sin embargo, seguimos teniendo la convicción de que es legítimo —desde la izquierda— oponerse al proyecto nuclear así venga de un sindicato progresista. Y no estamos solos al adoptar esta posición anti-nuclear. Esto muestra la complejidad del fenómeno nuclear, el cual rompe con tantos esquemas ideológicos y políticos tradicionales al grado de imposibilitar cualquier clasificación simplista o intento de hacer corresponder posiciones pro o anti­nucleares con posiciones de izquierda o de derecha, respectivamente. Absolutamente imposible. Más bien tiene que ver con el tipo de sociedad que se busque.
 
Cuestionamientos
 
El curso que fue tomando la argumentación nos llevó a cuestionar conceptos que, a pesar de su ambigüedad, no habían sido sometidos a un examen crítico —por lo menos entre nosotros. Sostuvimos discusiones en torno a conceptos como necesidad, nacionalismo, independencia tecnológica, progreso, desarrollo, etcétera— siempre dentro del mismo contexto: la energía nuclear en México.
 
Llegamos a la conclusión de que la mayoría de estos conceptos adolecen de una falta de precisión y de una ambivalencia tales, que son presa fácil de la demagogia. Tomemos como ejemplo el nacionalismo, que nunca ha sido ni podrá ser la ideología del proletariado sino de la pequeña burguesía y, sin embargo, el SUTIN la tomó como bandera. Necesidad, depende de la óptica con que se vea y de si se toma la realidad irracional y aberrante —como el punto de partida para calcular las necesidades para el año 2000. Nosotros hacemos una diferencia entre el reconocimiento de la realidad y su aceptación. Si aceptamos todo lo real, lo existente, como necesario e ineludible, tendríamos que aceptar, por ejemplo, el uso de escafandras para respirar en el D.F., en el año 2000. No se trata de una disputa entre realistas y utopistas, sino simplemente de aceptar que hay alternativas diferentes al proyecto nuclear. (Aquí recuerdo una frase de Bertold Brech: “Porque las cosas son así, tienen que cambiar”).
 
Hubo otros parámetros obligados para situar la discusión: ¿a quién beneficia la energía nuclear?, o más exactamente ¿quiénes se beneficiarán con la electricidad producida con reactores nucleares? Fundamentalmente a la industria automovilística en México y a la industria bélica también, en los países industrializados. Luego entonces, ¿se puede hablar de desarrollo y progreso? Nosotros lo entendemos así cuando se traduce en beneficio real para el pueblo, pero, en este caso ¿en qué va a mejorar a las clases marginadas? ni en un cikowat más. Otras preguntas que quedaron sin respuesta y que las recojo aquí porque creo que es valiosa la inquietud que revelan y por la necesidad que plantea de buscar nuevos marcos teóricos:
 
— ¿Se puede decir que la ciencia y la tecnología son realmente neutrales? ¿No predomina el interés ideológico sobre la racionalidad científica y tecnológica? ¿No son finalmente usadas como instrumento de dominación por parte de las grandes potencias?
— Al decir que es necesaria la adopción de la energía nuclear, ¿no se está partiendo sobre la base de la imitación del modelo de desarrollo de las potencias, respecto de las cuales siempre vamos a permanecer a la zaga?
 
Alternativas
 
Nosotros pensamos que sí hay fuentes alternativas de energía que, a su vez, posibilitan formas de organización social menos enajenantes y deshumanizadas, ya que su manejo y su control pueden estar al alcance del hombre. Además de proponer un mayor estímulo a la explotación de fuentes de energía como las ya existentes: la geotermia, la termohidráulica, etcétera, creemos que debe exigirse una mayor inversión para las fuentes renovables de energía desarrolladas, como la solar, la eólica, etcétera. Cuando se pregunta acerca de la disparidad en el nivel de desarrollo de esas fuentes energéticas frente a la nuclear, se llega a la abismal diferencia en el presupuesto para su investigación y desarrollo. Y al preguntarnos nuevamente surge una serie de alarmantes factores, entre los cuales destacan el político y el económico: la carrera armamentista y los negocios de cifras astronómicas de las transnacionales que venden reactores nucleares, para no hablar del impacto en la salud que tiene la radioactividad.
 
Otro tipo de tecnología sí puede traducirse en beneficio para los millares de poblaciones pequeñas a todo lo largo y ancho del país, no electrificadas aún y sin ninguna posibilidad de serlo con la macroindustria. Lo mismo ocurre con otras necesidades de estos sectores marginados de la población.
 
Nosotros, ahora, dirigiremos nuestra actividad como Comité de Defensa Ecológica, por un lado, a colaborar en el Plan de Rehabilitación del lago de Pátzcuaro para atacar la grave situación en que se encuentra y, por otro, empezamos a aplicar en algunas comunidades piloto, este tipo de tecnologías alternativas.
 
Si todo esto parece rayar en la ingenuidad y la irrealidad, simplemente queremos terminar disintiendo de Hegel: “todo lo real es racional” y coincidiendo con los franceses de Mayo del 68: “¡Sé realista, pide lo imposible!”
     
____________________________________________________________
     
Fernanda Navarro
Profesora
Facultad de Filosofía, Universidad Michoacana de San Nicolás de Hidalgo.
     
____________________________________________________________
     

cómo citar este artículo
Navarro, Fernanda. 1982. “¿Energía nuclear en México?”. Ciencias núm. 1, enero-febrero, pp. 36-38. [En línea]
     

 

 

R01Articulos2
  menu2
 
   
   
Luis de la Peña
     
               
               
Un fenómeno asombroso y, a la vez, muy interesante se
ha venido dando en la mecánica cuántica: mientras que con el tiempo su formalismo se ha consolidado y sus aplicaciones expandido hasta penetrar al campo de la tecnología, su interpretación física ha venido siendo puesta en duda con frecuencia cada vez mayor. Este cuestionamiento, iniciado por algunos de los propios fundadores de la teoría, se refiere a sus aspectos centrales, lo suficientemente medulares como para que sea legítimo afirmar que cualquier teoría científica que sufriera críticas de tal envergadura debería considerarse, por este simple hecho, como aún en una etapa temprana de elaboración. Sin embargo, la mecánica cuántica es considerada (casi) universalmente como una teoría consolidada, incluso acabada, y sirve de fundamento al resto de la microfísica contemporánea. Una visión superficial de esta situación invita a concluir que las críticas a la mecánica cuántica están obviamente mal fundadas y que en todo el asunto debe haber gato encerrado. Esta conclusión, que es a la que llega la mayoría de los físicos —poco o nada interesados en los problemas de fundamentación de su ciencia— surge del argumento de que la mecánica cuántica es muy difícil de entender —o aún, que no se puede entender del todo— ya que el comportamiento de un sistema cuántico no es describible en términos de eventos en el espacio-tiempo y contiene elementos sui géneris —como la inevitable referencia al observador, etcétera— que rompen con los esquemas conceptuales precuánticos. En estas condiciones, se dice, es natural que haya gente que no pueda entender "la esencia" de la mecánica cuántica y que confundan su propia confusión con aparentes "fallas" de la teoría. Este argumento fue usado, en particular, para descalificar las críticas severas a la mecánica cuántica por Einstein: Einstein, se dijo,1 fue incapaz de comprender la mecánica cuántica.
 
Pero un análisis más profundo de la situación, revela que las dudas sobre la legitimidad física de varios planteamientos característicos de la mecánica cuántica, surgieron desde el momento mismo en que se iniciara la construcción de esta teoría y que, aunque ellas han sido acalladas durante varias décadas por el peso psicológico, moral e ideológico de la escuela dominante —la llamada escuela ortodoxa o de Copenhage—, no sólo no se han desvanecido ni recibido respuestas convincentes, sino que se han agudizado con el tiempo, debido al enriquecimiento de los argumentos. Un ejemplo de este proceso es que en los últimos años han aparecido, no sólo artículos, sino varios libros en los que se revisan algunas de las interpretaciones o alternativas propuestas a la oficial.2 Con esto no sólo se reconoce su existencia, sino que se les legitima como teorías físicas que merecen atención y estudio, en vez de rechazarlas a priori, como ha sido tradición.
 
Obviamente, estamos en presencia de un fenómeno social más que científico, pero tan profundamente imbricado con el conocimiento científico que se le toma normalmente como tal. Parece pues, interesante analizar con algún detenimiento estas cuestiones, con la intención de poner al descubierto el juego complejo de ideología, filosofía y ciencia que les da vigencia. Por el momento, en este ensayo trataremos de ejemplificar el problema con una instancia interesante, tanto por los participantes en la discusión —Born y Einstein—, como por tratarse del problema medular de la mecánica cuántica: ¿qué es lo que describe la función de onda?
 
La discusión Einstein-Born
 
En 1953 —a escasos dos años de su muerte— Einstein publicó el último trabajo que escribiera sobre la mecánica cuántica. Se trata de un pequeño artículo preparado para ser incluido en el libro Scientific papers presented to Max Born, que se le ofreciera a Born con motivo de su retiro de la Universidad de Edinburgo. A Einstein y Born los unía una amistad de muchas décadas y Einstein creyó oportuno festejar a su amigo escribiendo precisamente sobre el descubrimiento que le diera a Born el Premio Nóbel, es decir, su interpretación de la función de onda de la mecánica cuántica. Para sorpresa y pesar de Einstein, este opúsculo le condujo a otra inesperada polémica, pues Born reaccionó violetamente contra él, considerando casi una ofensa personal las afirmaciones de Einstein. La discusión se prolongó varios meses y dio lugar a muchas cartas, que afortunadamente hoy son del dominio público.3
 
En su ensayo, después de una introducción en que argumenta sobre la insuficiencia esencial de la filosofía positivista desde el punto de vista de la ciencia, Einstein apunta el hecho de que a la pregunta sobre qué es lo que describe la física cuántica y a que objetos se refieren sus leyes, se dan diversas respuestas, mutuamente inconsistentes. Una forma de dar respuesta clara a esta pregunta sería tratar cuánticamente a un sistema pequeño pero macroscópico, sobre cuya realidad y forma de comportamiento no hay duda alguna, pues está descrito con suficiente precisión por la física clásica. Sabemos que estos objetos, dice, en cada momento ocupan un lugar determinado y poseen velocidad (momento) definida, es decir, se encuentran en algún estado real. Preguntémonos ahora: ¿contiene la mecánica cuántica la descripción real del movimiento de este cuerpo macroscópico proporcionada por la mecánica clásica? Si la respuesta es “no”, la teoría sería inadmisible; si la respuesta no es un simple “sí”, entonces, ¿en qué forma describe este comportamiento?
 
Para dar respuesta a estas preguntas, Einstein analiza el sistema compuesto de una pelotita de 1 mm de diámetro que está rebotando elásticamente entre dos paredes rígidas separadas la distancia, a, que se toma igual a 1 m. El origen del eje de movimiento X se coloca en medio de las paredes. Se supone que es posible despreciar las rotaciones. Puesto que se trata de una partícula libre con energía bien definida E, la función de onda será la suma de dos ondas monocromáticas, es decir:
 
    Ecuacion0101A03  (1)
o bien,
 
  Ecuacion0201A03 (2)
 
 
en donde Ecuacion02a101A03 ; las amplitudes relativas se han fijado para satisfacer las condiciones de frontera del problema. Para que sea legítimo comparar con la mecánica clásica se supondrá que la longitud de onda de De Broglie Ecuacion02c01A03 es pequeña comparada con a, lo cual, garantizamos escogiendo adecuadamente la masa de la partícula. La probabilidad de que el centro de masa de la pelotita se encuentre en un intervalo Δx es entonces:
 
 Ecuacion0301A03
o con Ecuacion0401A03
 
Ecuacion0501A03 (3)
 
El factor entre paréntesis oscila rápidamente con X y representa la estructura fina cuántica; lo esencial de la ecuación (3) es que ΔP resulta proporcional a Δx.
 
Einstein se pregunta ahora sobre la probabilidad de que la pelotita tenga un impulso dado. Si la ecuación (1) fuera válida para toda X, la teoría predecería que el impulso es exactamente ±p con igual probabilidad en ambos sentidos, pues la función de onda en la representación de impulsos, dada por la transformada de Fourier de ψ(x) sería:
 
 Ecuacion0601A03
 
Sin embargo, la integral debe extenderse sólo desde –a/2 hasta a/2, lo que le da Φ(k)  cierta anchura alrededor de ±p.

Por la condición 2πh | p<<a, esta anchura no es muy grande y podemos considerarla como una estructura cuántica, luego el resultado esencial es que la función ψ(x,t) contiene con la misma probabilidad los impulsos +P y –P.
 
Ambos resultados, señala Einstein, son totalmente satisfactorios desde un punto de vista estadístico; ellos describen —con precisión de hasta pequeñas desviaciones de carácter cuántico— el comportamiento de un ensemble de pelotitas. En efecto, para el ensemble clásico, la distribución en X sería uniforme (ΔP~Δx) y sólo habría dos velocidades  (±p/m) que se realizarían con igual probabilidad, en coincidencia básica con los resultados cuánticos.
 
¿Que pasa ahora si nos preguntamos si la teoría expuesta puede brindar una descripción real de un evento único, es decir, de una sola pelotita? La respuesta es “no”, dice Einstein, pues en este caso es esencial el hecho de que se trata de un macrosistema, que se encuentra en un estado real, es decir, que posee, en cada instante, posición de su centro de masa (casi) bien definida y velocidad (al menos en promedio sobre un pequeño intervalo de tiempo) con signo y magnitud definidos. No es posible extraer ninguno de estos dos valores de la función ψ(x,t) dada por la ecuación (1): a partir de ella pueden obtenerse sólo resultados estadísticos, que se refieren a un ensemble estadístico Luego, pues, la función de onda describe un ensemble y no un evento singular, concluye Einstein.
 
La respuesta de Born no se hizo esperar; al día siguiente de recibir el libro, escribió una carta a Einstein quejándose implícitamente de su atrevimiento al escribir un artículo que contradecía las opiniones del homenajeado e insistiendo en que todo estaba basado en un simple error de cálculo. La discusión se prolongo varios meses (de hecho, prácticamente hasta la muerte de Einstein) y fue motivo de muchas cartas y de notas y artículos de Born e incluso de la intervención de Pauli como mediador. El punto central de Born era que el cálculo de Einstein no sigue las reglas de la mecánica cuántica. Sería correcto, dice, si no supiéramos nada más respecto a la partícula; pero como se trata de un cuerpo macroscópico conocemos (aunque sea con cierta aproximación) su posición en un momento dado, información que debe incluirse en la descripción. En otras palabras, debe describirse al sistema macroscópico no con una onda plana estacionaria como lo hace Einstein, sino con un paquete de ondas que rebota periódicamente contra las paredes. Sin embargo, Einstein se había prevenido explícitamente contra este argumento en una observación contenida en su artículo inicial, argumentando que no es sostenible debido al hecho de que el paquete se dispersa con el tiempo, por lo que la posición de la partícula acabará por indefinirse tanto como se quiera; es decir, en el curso del tiempo, se alcanzará una situación equivalente a la descrita por la onda plana.
La polémica se desvanece, pero no se resuelve. Einstein insiste hasta el final en que se trata de un problema de principio, —del que no es posible salir con afirmaciones circunstanciales del tipo “el tiempo para que el paquete se disperse hasta adquirir dimensiones del orden del ancho del pozo es muy ‘grande’ o similares”—, que debe resolverse en términos objetivos (subrayado por Einstein), es decir, independientes de la observación y del observador, dado que la descripción debe ser valida en cualquier circunstancia. Born, por su lado, insiste en la necesidad de principio de introducir la observación, es decir, el observador y su acción cognoscitiva sobre el sistema, por tratarse de un objeto clásico.
 
Discusión
 
¿Cuál es el contenido fundamental de esta discusión? En forma simple, la podemos expresar como sigue. Einstein maneja el postulado de que todas las funciones de onda, soluciones legítimas de la ecuación de Schrodinger, son igualmente aceptables. Luego podemos utilizar cualquiera de ellas para analizar su significado. Además, la teoría debe ser igualmente aplicable a un sistema atómico que a un pequeño cuerpo macroscópico, sin que existan diferencias de principio entre estos dos casos. Puesto que la solución estacionaria por él construida es legítima y ella describe un ensemble estadístico, debemos concluir qué la función de onda de la mecánica cuántica da sólo una descripción estadística del sistema y, en consecuencia, es incompleta en principio. La cuestión de si es posible o no ir más allá de esta descripción es otro problema, cuya solución científica corresponde al futuro. Cualquier creencia al respecto en la actualidad constituye a lo sumo una hipótesis fundada en consideraciones metafísicas de índole aun más extra-científica. Einstein expresó en más de una ocasión que él personalmente estaba convencido de que debería ser posible dar este paso, aunque también se declaró impotente para señalar algún camino específico para lograr este desideratum filosófico.
 
Aunque Born utilizó un camino un tanto tortuoso para argumentar —motivado ello en malos entendidos, cuya existencia él mismo reconoce varios años después—3, puede percibirse que también defendía un punto de principio. Para Born, soluciones legitimas son sólo aquellas que se construyen empleando todo el conocimiento del sistema que es conceptualmente posible obtener a priori, mientras ello no lleve a contradicciones. Aquí se requieren dos aclaraciones. Las contradicciones a que se alude se refieren a las que se podrían generar si se intenta emplear elementos de información cuya coexistencia contradice las leyes de la propia mecánica cuántica. Por ejemplo, aunque en principio podríamos fijar con precisión arbitraria la posición y el impulso iniciales de una partícula macroscópica, las relaciones de Heisenberg nos previenen de introducir ambos simultáneamente. Este punto es prácticamente obvio y lo podemos dejar para prestar atención a la segunda observación. Para Born existe una diferencia fundamental —de principio, casi podríamos decir— entre un sistema microscópico y uno macroscópico, por pequeño que éste último pueda ser: en el segundo caso podemos conocer con precisión arbitraria (en principio) su posición, pero no podemos averiguar la posición de un electrón atómico sin perturbar esencialmente su estado. Luego mientras la función de onda del electrón no requiere ninguna información sobre su posición inicial, estamos obligados a introducir esta información en la descripción de la esferita, lo que muestra que la función de onda empleada por Einstein es ilegítima y, por lo tanto, sus conclusiones son insostenibles.
 
Desde esta perspectiva el problema que aparentemente es físico, ha quedado reducido a términos filosóficos: ¿en la descripción de un fenómeno físico, es admisible en principio la introducción de elementos subjetivos, como es el observador y su conocimiento potencial del sistema? Para un físico que adopta una posición materialista y objetiva, la respuesta a priori es “no”, por lo contrario, para un físico positivista, por el carácter idealista y subjetivo de sus postulados filosóficos, la respuesta afirmativa es natural y hasta necesaria. De hecho, las cosas han sido llevadas en ocasiones más lejos por el positivismo, hasta afirmar, por ejemplo, que la existencia de la mecánica cuántica es una demostración científica de que el postulado de la existencia independiente de la realidad objetiva es falso.4
 
Es obvio que la polémica entre Einstein y Born no tenia solución: basada en dos concepciones filosóficas del mundo físico mutuamente excluyentes nadie podía convencer a nadie. Lo que creaba la confusión era el ropaje aparentemente físico que Born insistió en utilizar para ocultar —inconscientemente— la naturaleza real de la contradicción. Sin embargo el ejemplo muestra en forma muy ilustrativa la enorme importancia que juegan los postulados filosóficos en la construcción de cualquier teoría fundamental de la ciencia y los riesgos y dificultades que se producen si en vez de manejar estos postulados en forma explícita y consciente se les deja pasar inadvertidos o se les oculta por temor a su carácter extracientífico.
     

Notas


1. The Born-Einstein Letters. 1916­-1955, MacMillan, 1971 Ver por ejemplo nota de Born a la carta 106.

2. Entre otros podrían citarse los siguientes: F.J. Belinfante, A Survey of Hidden-variable Theories, Oxford, Pergamon 1973: M. Jammer, The Philosophy of Quantum Mechanics, Wiley, N.Y., 1 974.

3. Ver por ejemplo la nota de Born a la carta 116 de la referencia 1.

4. N. D'Espagnat, Conceptual Foundations of Quantum Mechanics. Benjamin, Cal. 1971.

     
____________________________________________________________
     
Luis de la Peña
Investigador del Instituto de Física, y Profesor
Facultad de Ciencias, Universidad Nacional Autónoma de México.
     
____________________________________________________________
     
cómo citar este artículo
De la Peña, Luis. 1982. “¿Es la mecánica cuántica una teoría completa?”. Ciencias núm. 1, enero-febrero, pp. 10-13. [En línea]
     

 

 

R01Articulos4   menu2
   
   
Ernestina Fey Alvarado
     
               
               
Los elementos que constituyen la biósfera, se dividen en inorgánicos, como la luz, el suelo, el agua, y en orgánicos, que a su vez se dividen en flora y fauna.

En todo ecosistema los animales tanto vertebrados como invertebrados, constituyen un factor importante. Sus relaciones con los demás integrantes del ecosistema, contribuyen a mantener un equilibrio relativo, cuya estabilidad, posible gracias a complicados mecanismos de retroalimentación en cadena, se altera fácilmente cuando se incide en cualquiera de sus eslabones, por más insignificantes que éstos puedan parecer.

Desde sus orígenes, los animales han estado en competencia para sobrevivir. Además, cambios constantes en el medio ambiente han dado como resultado la desaparición de algunas especies y el florecimiento de otras. Estos procesos evolutivos ocurren de manera lenta a lo largo de millones de años, sin embargo, cuando el hombre llegó a escena, hace relativamente poco tiempo, los delicados eslabones faunísticos que habían tenido larga permanencia en la naturaleza, empezaron a romperse y verse alterados.

Desde los tiempos más remotos, el género humano ha hecho uso de la fauna silvestre matando o capturando selectivamente algunas de las especies que la integran, bien para liberarse de especies dañinas (serpientes, roedores etcétera), o para utilizar su carne como alimento y sus pieles como vestido.

La extinción de algunos animales o el estado crítico de otros, por acción del hombre ha sido registrada por algunos autores como Heim (1952) que menciona, entre otras especies definitivamente desaparecidas, a la moa (Dinornis ingens) gigantesca avestruz de Nueva Zelanda.

La extinción de la fauna tiene graves repercusiones en los ecosistemas, sobre todo en lo referente a las cadenas tróficas y alimenticias. En la mayoría de los casos, de las especies desaparecidas no se tenía suficiente información acerca de su papel en los diferentes ecosistemas en que participaban.

En nuestro país existen, según la lista de especies en peligro de extinción presentada en la Organización de los Estados Americanos (OEA) el 5 de febrero de 1973, cerca de cuarenta especies de vertebrados, tanto terrestres como acuáticos. Por ejemplo, el jaguar (Panthera onca) y el cocodrilo (Crocodylus acutus y Crocodylus moreletii), cuyas poblaciones han decrecido debido a la caza de que son objeto para el comercio de sus pieles, el cual, la mayoría de las veces, se realiza en forma ilegal, principalmente en la zona sureste del país.
 
Otra causa de extinción es la desaparición o perturbación de los hábitats característicos de las especies, debido a deforestación, establecimiento de cultivos agrícolas, asentamientos humanos, etcétera, con la consecuente alteración del equilibrio ecológico. Tal es el caso del pavón (Oreophasis derbianus) en Chiapas, cuyo hábitat, el bosque nublado, se encuentra ya muy reducido. Esto ha ocasionado que sus poblaciones disminuyan en forma alarmante ya que no se adaptan a zonas alteradas.

La contaminación química es, también, causa de daño a la fauna. Los insecticidas aplicados en los cultivos, a la larga entran a las corrientes de ríos y mares, donde son ingeridos por microorganismos que son comidos por peces y otros animales, y éstos, a su vez, devorados por las aves. En cada paso de esta cadena alimenticia, el insecticida se concentra cada vez más. Tales concentraciones en las aves afectadas hace que produzcan huevos con cáscaras deficientes en calcio, que el paso de las madres rompe durante la incubación. Como consecuencia de este proceso los pelicanos pardos, los cormoranes y otras aves se han extinguido ya en algunos lugares donde antes predominaban. La contaminación por insecticidas ha llegado incluso a la Antártida y el Ártico afectando a pingüinos y osos polares.
 
Todas estas situaciones se han acentuado en el presente siglo debido a la explosión demográfica humana. Cada día es necesario talar bosques y selvas para satisfacer necesidades de alimento y habitación. Por estas razones es importante elaborar un plan nacional de explotación racional de recursos faunísticos. Dicho proyecto debe tener en cuenta una serie de consideraciones sociales, tales como la agricultura que altera zonas naturales y afecta a la fauna. Pero, ¿cómo convencer a esta población de poner fin a la perturbación, cuando todos sus esfuerzos apenas bastan para evitar que se mueran de hambre? ¿Cómo recomendarles no matar un ocelote cuando la venta de su piel proporciona un cierto ingreso que alivia su ya deteriorada economía? Es por ello, que los científicos involucrados en la conservación de la fauna no sólo deben ser capaces de proponer medidas de protección sino, también, en colaboración con otros especialistas, de presentar alternativas de satisfacción a las necesidades del conjunto social y no solamente del individuo.
 
Esto nos viene a mostrar de una parte, que en México no se cuenta con el número suficiente de especialistas en las diferentes disciplinas ecológicas, y, de otra, que muchas veces se realizan investigaciones siguiendo modelos extranjeros y no según nuestras necesidades. Es urgente entonces la formación de profesionales conscientes de su participación social como científicos.
 
Pero la lucha por salvar la fauna silvestre no puede restringirse a los biólogos. Es necesaria la participación de los gobiernos y del pueblo en general, creando una conciencia de responsabilidad hacia las generaciones futuras.
 
Algunas de las especies en peligro de extinción, en México, se consignan en el siguiente listado:
 
Antilocapra americana
Berrendo
 
Tapirus bairdii
Tapir
 
Trichechus manatus
Manatí
 
Ursus horribilis
Oso gris
 
Phoenicopterus ruber
Flamingo
 
Falco peregrinus
Halcón peregrino
 
Harpia harpyja
Águila arpía
 
Gopherus flavomarginatus
Tortuga de Mapimi
 
Eretmochelys imbricata
Tortuga de carey
 
Algunas de estas especies, como la tortuga de Mapimi y el berrendo, están siendo objeto de estudios para determinar medidas que los protejan. Sin embargo, esta labor apenas comienza y requiere de mayor participación para que los estudios puedan realizarse en el mayor número posible de especies amenazadas.
 
Las personas interesadas en este tema pueden consultar toda la obra del Maestro Miguel Álvarez del Toro referente a la fauna de Chiapas.
     

____________________________________________________________

     
Ernestina Fey Alvarado
Profesora
Facultad de Ciencias, Universidad Nacional Autónoma de México.
     
_____________________________________________
     
cómo citar este artículo
Fey Alvarado, Ernestina. 1982. “Especies animales en peligro de extinción”. Ciencias núm. 1, enero-febrero, pp. 16-17. [En línea]
     

 

 

       
 
  menu2
               
 ¿Qué es... la
banda de Möbius?
R01B04
Nota de los editores
   
   
     
                     
                   
Para ilustrar una de las ideas con la que los matemáticos se
enfrentan en la topología, describiremos una superficie conocida como la Banda de Möbius.
 
A partir del rectángulo ABCD (figura 1) se identifica AB y CD, de manera que A coincida con C y B con D, obtenemos una Banda de Möbius. En este caso, los lados AB y CD están identificados en sentido opuesto. Se recomienda al lector construir un modelo de la Banda de Möbius torciendo un extremo de una tira rectangular de papel en 180° y pegándolo al otro extremo (figura 2).
 
La Banda de Möbius es un ejemplo de las superficies con una sola cara. En éstas no es posible distinguir entre interior y exterior. Un punto cualquiera en el modelo de papel de la Banda de Möbius se puede unir con cualquier otro punto mediante una línea continua que no abandone el papel ni cruce el borde.
 
Topológicamente, la Banda de Möbius es una superficie diferente al plano de un cilindro, lo que significa que las dos superficies no son isomorfas. Sin embargo, si se construyen modelos de papel de las dos superficies por el procedimiento anterior y se corta cada uno a lo largo de la línea que originalmente unía los puntos medios de los lados AB y CD del rectángulo, tendremos que un corte completo divide al cilindro en dos partes, pero en el caso de la Banda de Möbius queda un solo trozo de papel. Este trozo tiene dos semivueltas en él y es isomorfo con el cilindro; pero esta propiedad no se puede demostrar por un procedimiento físico.
  articulos  
_____________________________________________________________
     
Nota de los editores
     
_____________________________________________________________
     
 
cómo citar este artículo
Nota de los editores 1982. “¿Qué es... la banda de Möbius?”. Ciencias núm. 1, enero-febrero, p. 21. [En línea]
     

 

 

R01Articulos6   menu2
PDF
   
   
Colectivo La Habana, 1973
     
               
               
Los pueblos de la tierra conocen y condenan, desde sus
inicios, el intento de una potencia imperialista, Estados Unidos, de aniquilar una pequeña y pacífica nación: Vietnam, y se solidarizan con su respuesta inigualable, de un heroísmo fuera de toda calibración, frente al agresor criminal.
 
Los imperialistas yanquis intentaron por todos los medios, no ya derrotar militarmente a los combatientes vietnamitas, lo que fue sencillamente imposible, sino exterminar a toda la población de Vietnam en forma consciente y progresiva, y, yendo más allá en su demoniaco designio, privar a esta nación de sus recursos naturales y futuros de vida y desarrollo, poniendo ignominiosamente la ciencia y la técnica de que disponen, al servicio de la elaboración de métodos capaces de convertir a Vietnam en una zona inhabitable, al margen, incluso, de la posibilidad de restañar sus heridas cuando la victoria apetecida por todos los hombres honestos hubiera sido alcanzada plenamente por el pueblo vietnamita.
 
La guerra de agresión y destrucción contra Vietnam, Laos y Camboya presentó muy diversas facetas en las que, dentro de la estrategia general del imperialismo yanqui, cada presidente norteamericano imprimió sus particulares tendencias criminales.
 
El rasgo característico de la administración de Nixon fue la escalada técnica en la guerra contra los pueblos de Indochina y, dentro de ella, como factor esencial, el incremento de la guerra química.
 
Desde la más remota antigüedad y posteriormente durante la Edad Media, se utilizaron diversas substancias, tales como el alquitrán ardiente, el azufre en estado de combustión, el aceite hirviente, el llamado fuego griego y otras, como agentes tóxicos, irritantes y quemantes contra el enemigo. A fines del siglo XIX y principios del XX se comienza a tomar conciencia, tanto por la opinión publica en general como por juristas e internacionalistas en particular, acerca de las implicaciones criminales del uso de productos químico-tóxicos como elemento bélico y se concluyen las primeras moratorias y prohibiciones al respecto (La Haya, 1899 y 1907). Durante nuestro siglo comparte el execrable privilegio de haber aplicado este tipo abominable de armas cuatro potencias imperialistas: Alemania, en la Primera Guerra Mundial; Italia, en la Guerra de Abisinia; Japón en la Guerra de China y los Estados Unidos en Indochina.
 
Estos países actuaron (y el ultimo actúa) a despecho de las diversas convenciones cuyas conclusiones prohibían la guerra química, específicamente lo acordado en las conferencias de Washington (1922), la resolución de la Liga de las Naciones (1932) y la Conferencia de la Paz de Buenos Aires (1936). Los Estados Unidos violan, además, la resolución No. 2603-A de la ONU de 1969.
 
Durante la Segunda Guerra Mundial no se utilizaron armas químicas en las operaciones militares, pero los nazis emplearon agentes tóxicos para exterminar masivamente prisioneros en los “campos de la muerte”. Los científicos al servicio del hitlerismo investigaron profusamente acerca de las substancias químico-tóxicas de todo tipo y desarrollaron especialmente y en gran escala la producción de los llamados agentes letales o neuroparalizantes de acción mortal inmediata en casi el 100% de los casos.
 
La existencia de estos productos fue conocida por Estados Unidos al final de la contienda y, sobre la base de las investigaciones alemanas y en muchos casos con el concurso de los mismos investigadores, se continuaron, ampliaron y perfeccionaron los trabajos en este campo ya en los Estados Unidos. Es preciso señalar que Estados Unidos es la nación que más ha desarrollado el arsenal químico, incluido el incendiario, y que ha llegado a las más horribles consecuencias devastadoras y a un refinamiento criminal en su campaña química en Vietnam, que no puede menos que calificarse de barbarie.
 
Como la guerra química requiere un mínimo de personal técnico-militar y las armas químicas son muy baratas en comparación con las tradicionales, y por sus características especiales se pueden usar conjuntamente con otros tipos de armas, afectando a la población, a los cultivos, animales y medios en general, se usaron progresivamente como instrumentos de las distintas políticas y estrategias en indochina, en especial en Vietnam. Son, en suma, expresiones evidentes y concretas de la voluntad genocida de Estados Unidos.
 
El propósito de su empleo es el de “quemarlo todo, destruirlo todo, matarlo todo” y, concretamente, lograr los siguientes fines: 1) Masacrar a la población civil; 2) Privar de alimentos a la población mediante la destrucción sistemática, premeditada y progresivamente intensificada de las cosechas; 3) Crear condiciones favorables para la mejor utilización de otro tipo de armas; 4) Obligar a los campesinos a internarse en los campos de concentración; 5) Inutilizar o dañar seriamente, en forma definitiva o por largo plazo, a los sobrevivientes; 6) Crear el pánico entre los sobrevivientes afectados o ilesos; 7) Perturbar el equilibrio ecológico; 8) Destruir los bosques y la vegetación para, además, incrementar los daños de las inundaciones. Además de recoger experiencias para aplicarlas contra otros pueblos que, como los de Indochina y actualmente Centroamérica, luchen por su libertad. Prueba de ello lo constituye el hecho de que algunos socios menores, en la ya caduca empresa del colonialismo y el imperialismo, están practicando los mismos métodos genocidas mediante el empleo de defoliantes1 y armas antipersonales contra algunos pueblos de África.
 
Todo lo anterior demuestra la certeza de las palabras, que el comandante Ernesto “Che” Guevara, en su “Mensaje a la Tricontinental”, dijera refiriéndose a la directriz central de la estrategia imperialista en Vietnam: “destruir todo vestigio de civilización”.2
 
Estados Unidos ha empleado una gama extensa y variada de armas de todos los tipos y en especial de armas químicas. Dentro de su amplitud podemos relacionar, entre los tipos de armas químicas más usadas en Indochina, los siguientes: 1) Herbicidas, defoliantes o ambas cosas, como los llamados agentes Naranja, Azul, Blanco y Púrpura y sales inorgánicas de arsénico; 2) Esterilizadores del suelo, como el bromacilo y el Urox 22; 3) Gases tóxicos, como el CS, CS-1, CS-2, DM o adamsita, CN o cloroacetafenona, bromoacetato de etilo; 4) Agentes incapacitantes, como el BZ; 5) Armas incendiarias entre las que se encuentran distintos tipos de Napalm, la Gelatina IM, el fosforo, la termita, etcétera.
 
En el Anexo de este trabajo ofrecemos las características químicas de todas las sustancias mencionadas.
 
Como ya expresamos, los agresores norteamericanos no fueron los primeros en recurrir a la barbarie de la química, pero sí les cabe el triste mérito de haber empleado todo su desarrollo científico y técnico, contando con la colaboración cómplice de científicos, universidades y centros de investigación que deshonran las tradiciones y finalidades de la ciencia, en perfeccionar los métodos de aplicación masiva, genocida, de las sustancias químico-tóxicas. En el caso de los herbicidas y defoliantes estos medios son, fundamentalmente, los aviones y helicópteros y los equipos de almacenamiento de las sustancias químicas que estas naves aéreas llevan.
 
Los tipos de aviones son los conocidos por C-123, C-130 y C-47, y van equipados con tanques de 1,000 gal que se vacían en cinco minutos y, en caso de emergencias, en 30 segundos. La dispersión de los productos químicos se hace por medio de 36 tubos repartidos entre las alas y cola del avión. Vuelan a una altura de menos de 50 m, o sea, casi rasantes. La tripulación consta de un piloto, un copiloto y un técnico, ubicado en la cola del avión, que es el encargado de la aspersión.3 Los aviones vuelan en grupos de 4 ó 5, debidamente escoltados por cazas o helicópteros artillados. Para complementar y mejorar la capacidad de dispersión de las sustancias fitocidas, a los aviones C-123 se les coloca un asperjador FIDAL (Fixed Wing insecticide dispersal apparatus liquid) dotado de turbinas pulverizadoras. En la época Nixon, y también en las postrimerías de la Johnson, se intensificó el uso de los helicópteros en las operaciones agresivas de aspersión, especialmente de los tipos HU-IA, HU­1 B, H-24, AIE y el AIH, provistos de un asperjador HIDAL (Helicopter insecticide dispersal apparatus liquid). Como los helicópteros pueden detenerse para la aspersión y poseen, en general, más facilidades y maniobras en su vuelo, la operación de las sustancias químico-tóxicas son de más graves consecuencias. Conviene señalar que algunos de los helicópteros van debidamente artillados, por ejemplo, el HU-L Iroquis tiene ametralladoras M-60, de 7,62 mm; lanzacohetes de 2,75 pulg; lanzagranadas de 40 mm, cohetes antitanques SS-11 (para usar contra los refugios de la población civil) y un sistema de mira que se mantiene sobre el blanco a pesar de las vibraciones.
 
Las concentraciones empleadas para la aspersión de los herbicidas, defoliantes y esterilizadores del suelo son los siguientes:
 
Agente Naranja: 15-50 kg/ha
Agente Blanco: 16-18 kg/ha
Agente Azul: 3-8 kg/ha
Bromacilo: 15-30 kg/ha
 
La dosis y concentraciones de las sustancias químicas utilizadas en practicas agrícolas normales son mucho menores. Por ejemplo. las del 2-D, 4-D y el 2T, 4-T, 5-T son de 1 kg/ha. En Vietnam, por órdenes del Pentágono se sobrepasaron en decenas y centenas de veces, como veremos a continuación, esos valores, con la agravante adicional de que se aplican sin diluir, lo que aumenta su acción destructora y toxica y su potencialidad como causa de daños mediatos. Hay la incidencia de otra cuestión operativa. Si consideramos una dosis cualquiera, la del Agente Naranja, por ejemplo, que es de 50 kg/ha (descargando el tanque en forma habitual en 5 minutos), observaremos que en una de las descargas de las llamadas de emergencia (tiempo de descarga 30 seg.) la concentración del material químico asperjado será de 300 kg/ha. Estos son, con todo, estimados muy conservadores; en realidad en Vietnam los aviones y helicópteros agresores han rociado tóxicos químicos a concentraciones mucho mayores.
 
En contra de lo que es habitual en las practicas agrícolas normales, el riego de los herbicidas y defoliantes sobre las áreas vietnamitas fue normalmente reiterado sobre determinadas zonas. Veamos algunos ejemplos. En 1969, las comunas del distrito de Dong Giang, provincia de Quang Da, fueron sometidas a más de cien rociadas por misiones de 4 a 6 aviones C-123 o C-130. En 1970 las mismas regiones fueron rociadas decenas de veces. El 5 de abril de 1970 se rociaron 40 ton de Agente Naranja en 10 misiones de C-123 sobre la región de Tra Linh, provincia de Quang Nam, destruyendo los sembrados en un área de 20 km2. Los científicos del Departamento de Agricultura de los Estados Unidos, reveló que sobre una misma región al oeste de Tay Nohnh cerca de la frontera con Camboya se efectuaron aspersiones continuadas en el periodo comprendido del 29 de marzo al 9 de junio de 1969 mediante 113 misiones de C-123, es decir, 113 veces 1000 gal de productos nocivos, equivalentes a 400,000, esparcidos por el agresor en un área exigua, de alrededor de 100 km2, en unos dos meses. Los tres casos citados son ejemplos entre los miles que se pudieran ofrecer de lo que ocurrió cotidianamente durante más de 11 años.
 
Desde el punto de vista oficial norteamericano las operaciones de defoliación fueron llevadas a cabo por el 12° escuadrón del Comando Aéreo de la Fuerza Aérea de Estados Unidos, con base en Bien Hoa. Estas misiones se clasificaron como vuelos especiales y el programa se denominó “Operación Hades” aunque fue conocida comúnmente como “Operación Ranch Hand”. Es repetido por los norteamericanos que se trató de denegación de alimentos a las fuerzas sudvietnamitas. Fue, en realidad, un programa de hambre, de devastación y aniquilamiento de la población civil y de sus recursos naturales y producibles, una manifestación, en suma, un aspecto más del genocidio.
 
Por todo lo antes expuesto llegamos a la conclusión de que los herbicidas, defoliantes y esterilizadores del suelo diseminados en Vietnam fueron armas químicas por las razones siguientes:
 
1. Se rociaron por medios que no son los de la práctica agrícola normal como tampoco lo es el de emplearlos sin diluir y en concentraciones sumamente elevadas equivalentes a varias decenas de veces de las habituales.
2. Se diseminaron repetidamente, a veces en días sucesivos, sobre una misma área.
3. Se emplearon en zonas densamente pobladas que no tienen valor como objetivos militares.
4. Se escogieron deliberadamente para regarlas las etapas correspondientes al óptimo estado de la planta; formación de granos, crecimiento, maduración etc.
 
En cuanto a los gases tóxicos, como, por ejemplo, los CS, diremos que en otras latitudes, proclives al empleo de este tipo de sustancias contra las manifestaciones obreras y estudiantiles, se llaman “gases lagrimógenos”, “de hostigamiento”, etc. En las condiciones usadas por Estados Unidos contra los pueblos de Indochina estas últimas denominaciones serían paliativos inexcusables. Este falaz argumento es fácilmente recusable pues en esos países capitalistas los gases se usan en bajas concentraciones, nunca letales, en espacios abiertos que impiden la acumulación del producto en un volumen reducido y en ciudades, o sea, al alcance de cualesquiera de los auxilios hospitalarios que se precisen.
 
En Vietnam del Sur, por el contrario, se usaron en concentraciones que, deliberadamente, rebasan el índice de letalidad; se insuflan a presión en refugios subterráneos con la consiguiente acumulación en un exiguo volumen, lo que acarrea fatales consecuencias para los que se vieron expuestos a sus efectos, se aplicaron en simultaneidad con otras armas químicas, como las incendiarias y los herbicidas y, sobre todo, se afectaron zonas suburbanas y campesinas, carentes de recursos hospitalarios inmediatamente accesibles o de los medios de transportación para llegar a ellos, situación agravada por el masivo esparcimiento de minas antipersonales que, como colofón criminal, cierra la mayoría de los ataques.
 
Para que se comprenda el fondo genocida que hay en los gases tóxicos mencionaremos un breve detalle de su escalada técnica. El CS-1 y el CS-2 son modificaciones del CS; tienen el mismo componente activo que éste, el ortocloro-benciliden-malonidinitrilo, pero ambos se esparcen en forma de aerosol y, además, el CS-1 tiene un 5% de silicagel y el CS-2 posee una cubierta de silicona. Los efectos dependen del tamaño de las partículas del aerosol; cuando son mayores de 50 micras se afectan los ojos y cuando son menores que este valor tienen efectos irritantes sobre los pulmones.
 
Precisamente en el CS-2, último punto hasta ahora alcanzado en la escalada, las partículas tienen un tamaño menor de 50 micras para producir el efecto tóxico sobre los pulmones; la silicona (en realidad un compuesto de silicón) tienen como finalidad mejorar sus propiedades de flujo y persistencia en el área de diseminación creados (20 de ellos en total, incluida la criminal máquina insufladora “Mighty Mite”) y al incremento de su empleo contra la población civil, nos reafirma en la denominación dada de gases tóxicos. Además, han sido utilizados con carácter genocida por las razones siguientes: 1. Ataques sistemáticos contra los refugios en los que se hallaba la parte más indefensa de la población civil: mujeres, niños, ancianos, enfermos; 2. Empleo combinado de gases tóxicos con otras armas para causar el máximo de bajas entre la población. Se usaron casi siempre al mismo tiempo que las bombas explosivas, las antipersonales e incendiarias. Se nota, además, una marcada coincidencia en el riego de herbicidas y de gases tóxicos sobre casi todas las áreas del sur de Vietnam; y 3. Empleo repetido sobre las mismas áreas, siempre con gran densidad de población.
 
En relación con los gases incapacitantes, como el BZ, su propia denominación de incapacitantes proclama evidentemente su carácter de arma química cuyos efectos describiremos más adelante. Consignemos por ahora que este gas BZ se empleó varias veces en Vietnam y que en la época de Nixon se uso concretamente en febrero de 1969 en las áreas pobladas de la carretera 18 en el Trung Bo y en febrero de 1970 en zonas de igual condición al oeste de la provincia de Thua Thien. Un ataque con armas químicas se puede describir así:
 
— En horas de la mañana, un grupo de 10 helicópteros, debidamente escoltados por cazas, irrumpe sobre los campos de cultivo de un poblado vietnamita, volando varias veces sobre el área y regando sustancias tóxicas de olor irritante y molesto que saturan el ambiente y hacen difícil la respiración. A los pocos minutos los aviones dejan caer sobre la misma área sacos plásticos de gas tóxico CS y ametrallan las casas y tierras de cultivo. La población va apresuradamente a los refugios. Regresan los aviones. Esta vez dejan caer bombas de napalm o de fósforo. El calor excesivo generado por éstas obliga a muchos de los campesinos a salir de los refugios. Otro “pase” de los aviones. Nueva descarga: cientos de bombas antipersonales que al fragmentarse hieren profundamente a sus víctimas acrecentando sus ya grandes sufrimientos.4
 
Puede variar el orden de los medios agresivos, puede faltar el uso de algunos de ellos, pero nunca el empleo simultaneo de por lo menos dos, uno de ellos de naturaleza química: éste ha sido precisamente, el “gran aporte” de los genocidas yanquis, el american way de asesinar, destruir y matar.
 
La gestión de Nixon se caracterizó por el uso amplio, continuo y escalonado de las armas químicas. Durante los años 1969 y 1970 fueron destruidas en Vietnam del Sur, por sustancias químico-tóxicas, más de 1,836,950 hectáreas de tierras cultivadas y resultaron intoxicadas más de 650,000 personas, de las cuales cientos de ellas perecieron. De acuerdo con fuentes norteamericanas, desde 1961 hasta 1969, los Estados Unidos usaron en Vietnam del Sur 50,000 toneladas de defoliantes y por lo menos 77,000 toneladas de gases tóxicos. Sólo en el año de 1969 la cantidad de gas tóxico empleado fue de 6,063,000 libras de las cuales 3,885,000 corresponden a la versión CS-2. Además, como ya hemos señalado, en la época de Nixon se empleó el gas BZ para atacar la población vietnamita y se dotó ampliamente al ejército títere, de todos los medios de la guerra química. Se procedió, igualmente, a probar los efectos de nuevos herbicidas y de nuevas mezclas de los ya usados. Por ejemplo, a principios de 1970 se notó que muchos de los agentes usados causaban efectos peculiares sobre la vegetación. En varias regiones del Nam Bo oriental, Quang Nam y Quang Ngai, después del riego las hojas contaminadas se oscurecían por acción de la luz y resultaban altamente tóxicas para los animales; en otros casos, las hojas caían rápidamente pero permanecían verdes y no deformadas. En Thu Thien occidental, algunos de los agentes asperjados mataban la vegetación con rapidez, marchitando o aún quemando las hojas, pero sin deformarlas.
 
Los efectos de los tóxicos químicos empleados contra el pueblo de Vietnam sobre la salud del ser humano y, por ende, sobre la salud de la colectividad, son de índole diversa, tanto por sus características como por su gravedad.
 
El eminente médico vietnamita Ton That Tung y un grupo de colaboradores ha realizado importantes investigaciones5 sobre los efectos de las aspersiones con defoliantes, herbicidas y esterilizantes del suelo producen en los humanos. Inmediatamente después del contacto con estas sustancias químicas las victimas presentan cefalea, mareos, taquicardia, vómitos, sensación de calor en los ojos, piel, cuello; vértigos, y sobre todo, un síndrome de astenia que, cuando se instala, puede prolongarse durante meses. La incapacidad para el trabajo dura todo el tiempo que permanece establecida la afección. Aparece también un síndrome ocular, de origen tóxico general, que se manifiesta por lacrimación constante, irritación de la córnea, etcétera, y que, debemos resaltar, puede conducir a la ceguera temporal.
 
Se han reportado también varias formas de manifestación de un síndrome genético y, sobre todo, está establecido el síndrome de Down (trisomía 21) en las zonas reiteradamente asperjadas con Agentes Naranja, en una incidencia alrededor de 500 veces la incidencia media mundial.6
 
Queremos referirnos especialmente, por la importancia que entraña, a las alteraciones en las frecuencias genéticas de genes deletéreos y letales. Es conocido que las llamadas anomalías hereditarias, como el albinismo, la fenicetonuria, la anemia falciforme, la branquidactilia, etcétera, tienen una frecuencia muy baja en las poblaciones humanas. Por ejemplo, el albinismo tiene la frecuencia de 0.0001.
 
La abundancia relativa de los portadores de anomalías hereditarias dependen de la frecuencia genética de los genes que las controlan en la población y de los principios probabilísticos mendeleanos de recombinación independiente.
 
Actualmente es conocida la forma en que las poblaciones naturales con reproducción sexual y apareamiento al azar mantienen en equilibrio estos genes de tal forma que su frecuencia está al mismo nivel en sucesivas generaciones.
 
También es conocida la forma en que se puede romper ese equilibrio en la frecuencia y que una de las formas de lograrlo es la mutación, cambio brusco heredable que se produce normalmente recesivo en la manifestación de un carácter hereditario.
 
La cifra normal de anomalías hereditarias en Estados Unidos, por ejemplo, es de 20-25 en cada 1000 niños recién nacidos mientras que en Vietnam, en zonas fuertemente rociadas can agentes químicos, es de 1 en 4 en efectos que se pueden calificar prácticamente de mediatos. Nos podemos plantear qué sucederá en esa población en la que, producto de mutaciones ocasionadas por la guerra química, se producirán decenas de mutaciones deletéreas en los humanos de las regiones intensamente asperjadas al consumir alimentos contaminados, por vía de cadenas alimenticias, y que al ser recesivas no se manifestarán en el que las posee y seguirán apareciendo generación tras generación produciendo todos los tipos de malformaciones, deficiencias fisiológicas, etcétera, que tienen base hereditaria. El crimen de genocidio llega al punto increíble de comprometer no sólo a la población actual sino al patrimonio hereditario de un pueblo.
 
En cuanto a la teratogeneidad de los agentes, podemos dar por probada la del 2,4,5,-T por su impureza de fabricación o, sin contar ella con este factor, por tener como ingrediente la dioxina. Conviene destacar la importancia de esto, pues el imperialismo norteamericano por medio de sus voceros oficiales y criptoficiales, reconociendo de hecho la acción teratogénica de la dioxina, viene anunciando desde hace algún tiempo, que tiene en proyecto la fabricación industrial de 2,4,5,-T libre de dioxina, como falaz argumentación destinada a excusar por anticipado la continuación de la guerra química.
 
Además, hay que recordar que, aun cuando se eliminasen el 2,4,5-T y sus derivados de mezclas fitocíficas, los demás componentes de dichas mezclas son tóxicas en las concentraciones empleadas, y en el caso de algunos de ellos, como el picloram, están demostrados los efectos carcinógenos, teratogénicos y genéticos en hámsters y, por consiguiente, cabe esperarlos con seguridad en los casos humanos.
 
En efecto, las dosis a que está expuesta la población vietnamita en las regiones en que se empleó el Agente Blanco, del cual forma parte el picloram, son similares a las dosis que producen cambios degenerativos y carcinogenéticos, sobre todo hepáticos, en los hámsters de laboratorio. También se ha demostrado que el picloram produce mutaciones, evidenciadas por cambios bioquímicos, en insectos y en la Escherichia coli.
 
Es preciso destacar la acción irritante de los gases tóxicos, tipo, CS, sobre la conjuntiva ocular, ya que el tracoma es endémico en el sudeste asiático (alrededor del 80% de la población de esta parte del mundo sufre o ha sufrido de tracoma). No es difícil comprender las tremendas consecuencias de una afección irritativa ocular en un tracomatoso.
 
Las irritaciones cutáneas ocasionadas por los productos tóxicos son de importancia, pues constituyen puerta de entrada para infecciones (por ejemplo, glomerulonefritis), particularmente en un país tropical como Vietnam. Es conocido —y lo citamos en refuerzo de nuestro aserto anterior— que el impétigo en los trópicos tienen casi siempre secuelas infecciosas.
 
Desde el punto de vista médico-social, la destrucción de los bosques y cultivos agrícolas (fundamentalmente plantaciones de arroz), acompañado de la destrucción de las aldeas por bombardeos incendiarios y de demolición y por el arrasamiento absoluto de las tierras por equipos como el arado Roma, liquida el hábitat de grupos enteros de campesinos que se hacinan en las ciudades compelidos por el terror. La consiguiente promiscuidad implica la proliferación de enfermedades infectocontagiosas, incluso hasta el grado de epidemias.
 
Alrededor de este aspecto vale señalar también que el campo vietnamita está densamente poblado en muchas zonas (hasta 160 habitantes/km2), sobre todo en las llanuras y como las aspersiones químicas se llevaron a cabo por ocho aviones C-123 en fila, que cubren alrededor de un kilómetro de ancho y 14 de largo, y a muy baja altura, es en absoluto evidente la estricta intención genocida.
 
Por último señalaremos que los incapacitantes, psicotrópicos y alucinógenos, son agentes que tienen efectos singulares, realmente sorprendentes, sobre el psiquismo humano. Podemos citar entre estos efectos las alucinaciones, las sensaciones de ingravidez y de vuelo, el sentimiento de omnipotencia, la ruptura de los mecanismos de inhibición moral con sus lamentables consecuencias en el orden ético, la subversión emocional del individuo, la abulia (manifestada en la incapacidad de obedecer ordenes), etc. El BZ pertenece a este tipo de armas químicas.
 
Hemos visto los efectos de las armas químicas sobre el ser humano. Veamos ahora, en breve síntesis, los efectos sobre el medio con el cual este ser está relacionado.
 
En un país subdesarrollado, con típica vegetación de pluriselva, como Vietnam, la flora, y dentro de ésta el bosque, constituye un recurso natural básico.
 
Sobre este recurso fue volcado toda la furia de la escalada química norteamericana. Los objetivos perseguidos por el agresor imperialista, al intentar la destrucción de los bosques vietnamitas, son complejos y es necesario hacer una cuidadosa distinción entre lo declarado por los jerarcas norteamericanos y lo que subyace, lo no declarado, que constituye la médula de esta cuestión.
 
Oficialmente la campaña de defoliación, como hemos dicho, era un programa conjunto del Gobierno norteamericano y de sus títeres vietnamitas, destinado, según ellos, a privar a las guerrillas patrióticas de la cobertura del follaje para sus operaciones. En realidad se pretende mucho mas: se quiere, además del fin puramente operativo, provocar, al destruir los bosques protectores que constituyen alrededor del 80% de los bosques de Vietnam, el desequilibrio de la distribución natural del agua en el territorio, de suerte que las violentas inundaciones que así se originan devasten las llanuras, zonas densamente pobladas y dedicadas al cultivo del arroz, alimento básico en la dieta del pueblo, lo que constituye un propósito evidentemente genocida.
 
Como datos de los daños ocasionados por la guerra química a la riqueza forestal vietnamita, citamos que el 44% de los bosques ha sido seriamente afectado, y si se tiene en cuenta que el 20% del territorio sur de Vietnam está cubierto de bosques, se llegó a que el 13.2% del territorio del país ha sido dañado por la defoliación; el 25% de los bosques ha sido rociado más de una vez; el 65% de los bosques semideciduos asperjados han sido destruidos; el 40% de los pinos ha sido devastados por armas incendiarias.
 
Los daños históricos a largo plazo no son evaluables en la actualidad, pero puede tenerse una idea de ello sabiendo que la reposición de un manglar típico demora, como mínimo, veinte años y, desde luego, que este dato no tiene en cuenta la esterilización del suelo que es ya un hecho en amplias zonas.
 
Dos ejemplos históricos nos ilustrarán claramente acerca de la magnitud del daño que representa la destrucción de los bosques. La erupción del Krakatoa en 1883 devastó casi totalmente la vegetación de la isla del mismo nombre; las nuevas plantas crecieron tan pronto la lava se transformo en suelo, pero, 90 años después del cataclismo los bosques no han alcanzado su estado y nivel originales. La ciudad sagrada de Ankor, que desde el siglo XII fue centro de la gran civilización khmer, fue destruida y abandonada hace 600 años; las áreas correspondientes a la antigua zona urbana han sido invadidas por el bosque, pero, seis siglos después éste es aún, bosque secundario.
 
Al igual que la flora, la fauna vietnamita es muy rica y variada, cuenta con especies autóctonas de gran valor. La destrucción que los ataques químicos han causado al hábitat natural ha provocado que no pocas especies se encuentren en vías de extinción y que otras emigren, en especial las aves, al verse privadas del follaje de las plantas y árboles. Se comprende que este proceso lleva implícito, además de la evidente ruptura de los distintos sistemas de equilibrio ecológico, un peligro potencial de transmisión y propagación de diversas patologías animales.
 
Después de haber considerado los daños a los recursos naturales, veamos las consecuencias sobre la producción. Los recursos agrícolas han sido gravemente afectados y en un alto grado el arroz.
 
Veamos algunos datos (en miles de kg de arroz destruidos):
 
1966: 23660
1967: 50280
1968: 38680
1969: 28160
 
El ensañamiento especial contra el arroz se explica por ser éste el alimento principal de los pueblos de Indochina, de uso tradicional durante siglos, además de constituir un elemento importante de vinculación con la tierra y con la aldea. Las plantaciones de arroz son rociadas inmediatamente antes de la formación del grano, lo que trae como consecuencia la pérdida del 60% al 90% de la cosecha. Sobre el arroz actúa específicamente el Agente Azul, pero otros herbicidas dañan la planta a las altas concentraciones en que se les emplea. El Agente Naranja, por ejemplo, provoca la disminución del contenido de nitrógeno en el arroz. La relación entre los contenidos de nitrógeno no-protéico y protéico es mayor después de la contaminación; el contenido de almidón disminuye. La gran combinación de herbicidas y defoliantes ha tenido como finalidad el asegurar la destrucción de todos los tipos de cultivo agrícola. Así, el maíz, el boniato, el plátano, la yuca, etc., han sido afectados seriamente por el riego de los tóxicos químicos y se ha quitado, como hemos repetido, la base de alimentación de la población.
 
Contrariamente a lo que se afirma por los agresores, los productos diseminados bajo el rubro hipócrita de herbicidas, son tóxicos para los animales. La toxicidad sobre estos está originada, fundamentalmente, por las fuertes dosis y, además, por la relación entre éstas y su transmisión a través de la cadena alimenticia. Se ha reportado la muerte en masa de puercos, búfalos, vacas y aves de corral, en zonas asidua y extensivamente afectadas por herbicidas y defoliantes, en las que las dosis empleadas han sido altísimas. Los animales sobrevivientes permanecen débiles y raquíticos y entre muchas especies (vacas y puercos) son frecuentes los abortos. Las dosis subletales de 2, 4-D pueden afectar en forma inestable el metabolismo de algunas plantas y traer, entre otras, la consecuencia de la acumulación de nitratos. Al ingerir los animales esas plantas, el nitrato se transforma en nitrito, éste se absorbe en la sangre y provoca metahemoglobinemia, con la consiguiente carencia de oxigeno en los tejidos, lo que puede causar la muerte o provocar abortos. El peligro potencial aumenta al no rehusar los animales el consumo de los pastos rociados con sustancias arsenicales y mercuriales o beber en fuentes contaminadas con estas sustancias.
 
En los ríos y lagos de Vietnam vive una gran cantidad de peces que resultaron envenenados directamente por los compuestos tóxicos. Además, la ruptura de la trama alimentaria al dañarse el fitoplancton que sirve de base al desarrollo de zooplancton y, por tanto, de los peces que se alimentan de ambos, condujo a la reducción de la fauna acuática. Daños similares ocurren entre los peces de mar, sobre todo, cerca de la desembocadura de los ríos, en los que aparecen desarreglos vasculares y lesiones en el hígado. Algunos herbicidas han demostrado ser altamente tóxicos, como el caso del monourón, que en concentraciones de 1-2 ppm afecta notablemente a los peces.
 
La desaparición de la vegetación y de la capa vegetal determina un incremento de la erosión del suelo. Para darnos cuenta de la magnitud de esta consecuencia, señalaremos que la naturaleza emplea centenares de años en transformar las rocas en suelos de un centímetro de espesor; basta, sin embargo, la caída de unos cuantos aguaceros para arrastrar una capa del espesor mencionado.
 
La destrucción y empobrecimiento de la capacidad productiva de los suelos, provocados por la erosión, tiene consecuencias catastróficas para cualquier nación, pues compromete seriamente su desarrollo y agrava o anula la productividad de las tierras.
 
Deliberadamente se utilizó contra Vietnam un tipo de sustancia química: los esterilizadores del suelo, que al penetrar en las caras u horizontes superiores del mismo, ocasionan la muerte de las bacterias y microorganismos que desempeñan un papel vital en las relaciones suelo-planta.
 
Estas relaciones, de carácter complejo, constituyen ecosistemas definidos, cuyo equilibrio comienza a ser alterado por la defoliación y el subsiguiente empobrecimiento general de las tierras; se empeora por la acción de los esterilizadores del suelo; se agrava por la acción de las bombas incendiarias y de napalm que someten los suelos a altas temperaturas durante un tiempo prolongado, y llega a su clímax cuando son arrastrados volúmenes enormes de suelos por la erosión, provocándose, con la pérdida de la microfauna bacterial, una total esterilización del área afectada.
 
En los suelos totalmente denudados, ha sido detectada la aparición de costras o corazas impermeables, que representan un impedimento para la agricultura. Los suelos residuales, formados como consecuencia de la acción de los fenómenos del intemperismo, son abundantes en Vietnam; resulta en ellos una corteza de intemperismo con un perfil geoquímico definido, coronado por un horizonte de ocres inestructurales friables, que contienen cantidades apreciables de perdigones o concreciones ferruginosas.
 
Estas concreciones a veces se cementan y forman corazas o costras en forma de bloques redondeados o de estratos alargados. La formación de costras es siempre inadecuada para las labores agrícolas.
 
El gobierno imperialista de Estados Unidos roció sobre Vietnam del Sur una cantidad tal de productos químicos que equivale a seis libras por habitante, lo que permite hablar de un nuevo crimen: el ecocidio.
 
En la naturaleza, las especies vegetales y animales se relacionan entre sí y con el medio, manteniéndose en un equilibrio elaborado o ecosistema. La aplicación sistemática de herbicidas; la tala excesiva de los bosques; el incendio con napalm, fósforo o magnesio, que elevan la temperatura a 2000°C o más y calcinan cuánto está cerca y hasta una profundidad en el suelo que alcanza varias pulgadas, eliminado hasta la microflora del mismo; o las prácticas agrícolas realizadas sin tener en cuenta las posibilidades ecológicas de la región, han sido motivos de cambios irreversibles y del abandono de numerosas zonas antes productivas.
 
Si analizamos los graves efectos de la guerra química encontramos síntomas inconfundibles de severos cambios ecológicos:
 
1. En grandes zonas el régimen de lluvias ha cambiado.
2. La temperatura a distintas alturas, y especialmente cerca del suelo, ha sufrido violentos cambios.
3. Las aguas, al no encontrar obstáculo alguno, adquieren mayor velocidad y temperatura.
4. Los cráters formados por las bombas rompen la estructura del suelo, cambiándola.
5. Al no haber vegetación, la incidencia de los rayos solares los hace más quemantes, lo que aumenta la evaporación y aleja, con la elevación de temperatura. la posibilidad de lluvias.
 
Y todo este desastre, como consecuencia de la subversión del equilibrio ecológico vietnamita por las armas químicas y las bombas de demolición, se produjo a tal grado que progresivamente se llegó a la aniquilación de los ecosistemas básicos, con la inminente transformación del territorio vietnamita en un páramo lunar, incapaz de sostener la biota.
 
No existe calificativo en nuestro idioma, y dudamos que exista en idioma alguno, un vocablo que represente la destrucción premeditada y sistemática de seres humanos, flora, fauna, suelo y clima de una sola población.
 
Conclusiones
 
1. Los agresores norteamericanos atacaron sistemática y escalonadamente, durante más de once años, con sustancias químico-tóxicas al pueblo y naturaleza vietnamitas, contraviniendo todas las normas jurídicas y de cultura universales.
 
2. El imperialismo yanqui corrompe la esencia misma de la ciencia y la técnica, medios destinados al bienestar y progreso humanos, al ponerlos al servicio de una política genocida.
 
3. Los yanquis son responsables únicos de haber causado con armas químicas la intoxicación de unos dos millones de personas y muerte de muchas miles de ellas, en Vietnam.
 
4. El gobierno de Estados Unidos diseminó sustancias químico-tóxicas y productos incendiarios en Vietnam con los propósitos evidentes de asesinar, causar bárbaros sufrimientos y aterrorizar a la población civil, destruir las riquezas naturales y producidas, e inutilizar el territorio vietnamita para la vida, en la mayor extensión posible. Las autoridades norteamericanas mintieron y lo siguen haciendo al negar que utilizaron medios no lesivos al ser humano y a los recursos de toda índole, pues ha quedado plenamente demostrado todo lo contrario.
 
5. En un intento de llevar a cabo con mayor eficacia sus propósitos genocidas, el agresor imperialista devastó en forma deliberada y metódica, con armas químicas, el medio natural indochino. Es, pues, culpable del crimen de ecocidio y ha abierto, de esta manera, una nueva senda criminal de genocidio al privar, a la comunidad humana atacada, de sus bases materiales de supervivencia y desarrollo futuro.
 
6. El comprobado carácter letal de los productos químicos utilizados contra el pueblo de Vietnam, implica el aniquilamiento de todas las formas de vida animal, vegetal y microbiana: el imperialismo yanqui responderá al crimen de biocidio.
 
7.La guerra química alteró y aún está minando las bases mismas del patrimonio genético vietnamita: el imperialismo yanqui responderá ante los pueblos y ante la Historia de este horrendo crimen.
 
Y a pesar de todo los pueblos de Indochina vencieron. Los pueblos que resistieron con firmeza los embates de un poderío criminal enormemente desproporcionado para sus fuerzas, que hicieron frente a la descomunal conjugación de recursos destinados por el imperialismo yanqui a aniquilarlos, vencieron.
 
¡Vivan los pueblos de Indochina!
 
     
Anexo

I. Herbicidas, defoliantes o ambos

a) Agente Azul (Phytar 560 gr): ácido cacodílico (3.9%); cacodilato sódico (22.6%), materiales inertes (cloruro de sodio, cloruro de calcio, sulfato de calcio); un surfactante; un esterilizador
b) Agente Blanco (Torden 101). Ingredientes activos (25%: Picloran, sal potásica del ácido 4 amino —3,5,6— tricloropicolínico, 20%; tri-iso popanolanina del 2,4 —diclorofenoxiacético, 80%. Disolvente: queroseno. Otros ingredientes: un surfactante
c) Agente Naranja: éter n-butílico del ácido 2,4, diclorofenoxiacético (2,4-D), 50%; éter n-butílico del ácido 2,4, 5-triclorofenoxiacético (2, 4, 5-T), 50%. Solvente: queroseno
d) Agente Púrpura: éter n-butílico del 2, 4-D, 50%; éter n-butílico del 2, 4, 5-T, 30%; éter insobutílico del 2, 4, 5-T, 20%
e) 2,4-DNP, 2,4 dinotrofenol
f) Cianamida cálcica
g) Arsénico blanco: trióxido de arsénico
h) Arsenitos de sodio: artoarsenito monosódico, ortoarsenito disódico, ortoarsenito trisódico
i) Metaarsenito de calcio
J) Metaarsenito cúprico
k) Ortoarsenito disódico

II. Esterilizadores del suelo

a) Bromacilo: 3-bromo-3 sec-butil-6 metil-uracilo
b) CMU: N-(4 clorofenil) N,N-dimetilurea
c) UROX 22: tricloroacetato del CMU
d) DNC o DNOC: 4,6-dinitro-ortocresol

III. Gases tóxicos

a) CS: ortoclorobenciliden-malonodinitrilo, 40%, más productos fumígenos, 60%
b) CS-1: ortoclorobenciliden-malonodinitrilo, 95%, más silicagel, 5%
c) CS-2: CS-1 más silicona
d) DM o adamsita: difenillaminocloroasina
e) CN: cloroacetofenona

IV. Agentes incapacitantes

a) BZ: ésteres del 3-quinoclidinol
b) DITRAN: cloruro del fenilciclopentilglicolato de M-etilpiperidilo

     
 
Notas

1. Smith, R.M.; The New York Times, 9 de dic. de 1970.
 
2. Revista tricontinental; suplemento especial, La Habana, 16 de abril de 1967.
 
3.Whiteside Thoms; Defoliation, New York, 7 de feb. de 1970.
 
4. Informe Delegación I a Vietnam (1971).
 
5. Ton that thung, et. al., Estudes Vieinamiennes, No. 29, Hanoi, 1971.
 
6. Grummer, Gerhard; Genocide With Herbicides, Berlín, 1971.
     
 
Referencias bibliográficas

Blattner, R. J.; Congenital defets: impacts on the patient family and society, Second Int. Conference on Congenital Malformations, Int. Med. Congr., Nueva York, 1968.
Hardy, G. H., "Mendelian population in a mixed population", Science. No. 28 págs. 19-50.
Falconer, D. F., Introduction to Quantitative Genetics, Edición Revolucionaria, La Habana, 1970.
Strickberger, D. S., Genetics, Edición Revolucionaria, La Habana, 1968.
Verret, J., Nature, 1970.
Westing, A.; "El programa yanqui de destrucción de los productos alimenticios en Vietnam del Sur", Comisión Internacional de Investigación de los Crímenes yanquis en Indochina, segunda sesión, Oslo, 20-25 junio de 1971.
Duang Hong Dat, Etudes Vietnamiennes, No. 29, Hanoi, 1971.

     
____________________________________________________________      
Colectivo La Habana, 1973
 

Artículo tomado del “Tercer simposio contra el genocidio yanqui en Vietnam y su extensión a Laos y Camboya”, celebrado en La Habana en 1973.

     
_________________________________________________      
cómo citar este artículo
Colectivo La Habana, 1973. 1982. “La guerra química en Vietnam”. Ciencias núm. 1, enero-febrero, pp. 22-31. [En línea]
     

 

 

You are here: Inicio Búsqueda Titulo revistas revista ciencias 1