revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 

       
 
  menu2
               
  R02B01

 
"San Cayetano": el ocaso de una reserva ecológica
Javier Hirose López
   
   
     
                     
                   
Cruzábamos la estación por la brecha principal cuando una
nube de humo se interpuso en el camino. Era uno de los tantos incendios que últimamente han destruido el bosque de la estación de San Cayetano, seguramente provocado de manera intencional por algún desconocido saboteador. Constantes incendios y roturas igualmente intencionales de la malla que bordea la estación han sido utilizados para justificar, ante un supuesto funcionamiento “inadecuado”, la transformación de la Estación Experimental de Fauna Silvestre en un “parque estatal” de tipo recreativo; pasando de manos del gobierno federal (Dirección General de Fauna Silvestre, SARH) al gobierno del Estado de México.

Como era de suponerse, todo el mundo está queriendo llevarse una buena tajada del pastel, de tal suerte que el otrora hermoso y tupido bosque de pino-encino, está siendo devastado de manera impresionante (y deprimente). Por supuesto, el negocio es perfectamente redondo, pues bajo el pretexto de crear un hermoso parque estatal “al alcance del pueblo” (el cual también representará ganancias, ya que contará con lanchas para alquiler, venta de comida y un flamante trailer park —Welcome everybody— se están extrayendo volúmenes de madera (incluyendo una de las mejores, la del “pino chino”, mejor conocido como Pinus patula), que representan millones de pesos en ganancias.

Para poder ubicar y comprender mejor el problema veamos algunos datos generales de la estación, incluyendo los de tipo histórico.

La estación experimental de Fauna Silvestre de San Cayetano, se localiza sobre el kilómetro 5 de la desviación a Valle de Bravo de la carretera México-Morelia. Cuenta actualmente con poco más de 390 hectáreas, cubiertas por una abundante vegetación de pino y pino-encino, que resguardaban una fauna compuesta principalmente por venados cola blanca (Odocoileus virginianus), ardillas (Sciurus spp.), mapaches (Procyon lotor), y cacomixtles (Bassariscus astutus), conejos (Sylvilagus spp.), comadrejas (Mustela frenata) y numerosas especies de aves (incluyendo la “coa”; —Trogon mexicanus— hermoso pájaro pariente del quetzal), entre otros. Además la estación cuenta con corrales e incubadoras para la cría de faisán chino (Phasianus colchicus), gallina de Guinea, (Numida meleagris) y guajolote silvestre (Melleagris gallopavo), así como varios corrales para venados y uno para jabalíes (Dicotyles tajacu). En la estación hay varios manantiales (con agua todo el año), el más grande de los cuales alimenta una pequeña represa que contiene abundante flora (algas y otras plantas acuáticas) y una fauna representada por crustáceos, moluscos, anélidos, batracios, reptiles y peces, de los cuales el principal es la trucha arcoíris (Salmo gairdnieri).

Los terrenos que ocupa la estación pertenecieron oficialmente a una compañía papelera, de donde pasaron a manos del gobierno federal para fundar ahí la “Estación de Fauna Cinegética de San Cayetano” en el año de 1950, a iniciativa del doctor Bernardo Villa, quien se encargó de su cuidado por cerca de 20 años, durante los cuales se construyó la represa, una casa con habitaciones y un pequeño laboratorio, así como corrales e incubadoras. A pesar de que en el tiempo transcurrido no haya funcionado realmente como centro de experimentación de la fauna silvestre o como reserva biológica siquiera (es bien sabido que en todo el país no hay un sólo lugar de esta índole que funcione adecuadamente), de alguna manera ha servido para reproducir o proteger aves y mamíferos de importancia cinegética y mantener una vegetación que hasta hace pocos años permaneció inalterada. En la estación, además, se han realizado varios trabajos de investigación que incluyen aspectos de vegetación, la fauna y la vida acuática en la represa.

Lejos de ser considerada como un verdadero centro de experimentación y protección de la fauna silvestre, la estación siempre ha estado bajo el acecho de los “señores licenciados”, quienes más bien la ven como un pequeño cofre lleno de monedas de madera. En el año de 1975 se llevaron el primer botín.

Con el pretexto de que “había demasiados árboles, y los venados ya no podían caminar por el bosque” (según palabras del señor licenciado, director de la Fauna Silvestre en aquel entonces), se hizo un “corte cultural” en el que, según ellos, se iban a tirar “únicamente los árboles viejos y enfermos”, cuando lo único que se veía salir de la estación a bordo de enormes camiones eran hermosos y sanos troncos de pino.
En esta ocasión el objetivo es el mismo, aunque el pretexto sea otro.

Las comunidades campesinas que rodean la estación (en especial el pueblo de San Cayetano) siempre la han visto como un oasis: manantiales, abundante yerba y agua para el ganado y leña para el hogar; pero nunca antes habían tenido acceso a toda esta riqueza. Ahora que el gobierno del estado está haciendo esfuerzos porque sea para “beneficio del pueblo” (aunque por supuesto el mayor de ellos es sacar unos pocos cientos de toneladas de madera para que la gente pueda caminar a gusto por el bosque), me pregunto si entonces les tocará, ahora sí, a los campesinos del pueblo de San Cayetano parte de la ganancia…

¿O siquiera un poquito de leña pa’calentar las tortillas?

Nota

Este artículo fue escrito en 1979 y las cosas, seguramente han cambiado ¿existirá aún la estación San Cayetano?

  articulos  
_____________________________________________________________
Javier Hirose López
Pasante de la carrera de Biología, Facultad de Ciencias, Universidad Nacional Autónoma de México.

cómo citar este artículo
Hirose López, Javier. 1982. “San Cayetano”: el ocaso de una reserva biológica. Ciencias núm. 2, julio-agosto, pp. 6-7. [En línea]
     
 
     

 

       
 
  menu2
               
  R02B05a

 
Amham Ibn Hazam y la constante de Planck
Ana María Sánchez
   
   
     
                     
                   

I

Pocos de ustedes han de saber que en el siglo XV de nuestra era, época en que España se encontraba bajo el dominio de los árabes, Amhad lbn Hazam calculó, por primera vez en la historia, el valor de la constante de Planck. Hecho insólito a no dudar.

Amhad lbn Hazam, estudioso de las ciencias ocultas legadas a los árabes por los sacerdotes egipcios, vivía en las afueras de la ciudad de Córdoba. Desde el amanecer hasta el ocaso, Ibn Hazam permanecía sumido en la sabiduría de los gruesos volúmenes que cubrían su mesa de trabajo, interrumpiendo sus estudios sólo a la hora de las plegarias en dirección a la Meca.

¿Qué estudiaba lbn Hazam? ¿Qué misterio atado a una labor aparentemente interminable? ¡Por qué con tanta frecuencia consultaba un papiro amarillento!…

En el párrafo tercero de la parte XLII del Libro de los Muertos, se lee:

“El gran Ra salió de su morada celeste para castigar a los impuros que habían despreciado a los dioses en su corazón. Los rayos emanados del disco solar, al tocar sus cuerpos, se convirtieron en candentes proyectiles de oro de tamaño tan pequeño que podían verse, e hirieron a los impuros, aniquilándolos”.

El carácter de estas líneas permaneció velado hasta que, en el año 642 d.C., cuando Amr Ibn Al-As ocupó Egipto, los libros sagrados de los egipcios fueron conocidos por los árabes. Con el correr del tiempo, los estudios terminaron viendo en aquel trozo una revelación respecto a la naturaleza de los rayos solares y su posible conversión en oro.

Fue Abul Al-Mansur, maestro de maestros, el primero en dedicarse seriamente a encontrar la fórmula cabalística que permitiera hacer realidad la revelación contenida en el Libro de los Muertos. A la edad de 109 años la muerte lo sorprendió, dejando a Ahmad lbn Hazam, su discípulo predilecto, la continuación del cálculo.

En el año de 1486, casi al final del dominio musulmán en la península ibérica, lbn Hazam logró concluir el laborioso trabajo. Previendo los malos tiempos por venir y temeroso de que la valiosa fórmula se perdiera, la apuntó en una página de su Corán, partiendo unos días después con rumbo al África.

No se conoce nada sobre el resto de la vida de Amhad Ibn Hazam, ni de la manera en que el Corán que contenía la fórmula cabalística, sobrevivió durante cinco siglos sin ser destruido, ni su significado descifrado.

II

En el año de 1974, durante un viaje por varios países de Europa y Asia, tuve la oportunidad de conocer la biblioteca de la Universidad de Riyadh, famosa por sus libros antiguos. En esa biblioteca, entre el De División naturae, de Erígena y el original de Novum Organum de Bacon, encontré el Corán que perteneció a Amhad lbn Hazam.

La curiosidad de conocer un libro tan antiguo me hizo hojearlo detenidamente, aún sin entender un solo símbolo arábigo. Pero no dejó de sorprenderme que, entre la regularidad de la escritura característica de todo el manuscrito, en la página 2089, intercalada entre las líneas originales, se encontraba una escritura de aspecto muy diferente.

La circunstancia afortunada de que la siguiente escala de mi viaje era la ciudad de Khaibar, donde se lleva a cabo en esos días la reunión anual de los Sunnitas, me decidió a obtener una fotocopia de la hoja en cuestión, pensando que la escritura aludida podría ser de ayuda para los estudiosos de las fuentes de la fe.

En la sede de la reunión fui amablemente recibido por el doctor Abul-Abbas, uno de los más grandes conocedores del Corán en nuestra época.

Tres días tardó el sabio en descifrar el párrafo añadido, haciendo finalmente de mi conocimiento que no se trataba de un comentario religioso. Más bien parecía ser una fórmula de las que se utilizaban en el antiguo Egipto con fines mágicos. La traducción rezaba así:

“El uno dividido tantas veces la altura de la Gran Pirámide, dividido tantas veces como minutos tarda Venus en dar la vuelta al Sol, dividido tantas veces como el cometa Al-Araz tarda en pasar entre Mercurio y el Sol, dividido tantas veces como el Sol es más luminoso que la Luna, dividido tantas veces como se puede partir un pfad de oro sin que deje de serlo, dividido tantas veces la distancia del Sol a la Tierra doblemente. Alá es el único Dios”.

III

Al regresa de mi viaje me dediqué a llevar a cabo los cálculos que se indicaban en la fórmula de Amhad lbn Hazam. Debo decir que fue un trabajo más arduo, en parte, por las unidades de medida utilizadas hace tanto tiempo por los árabes y, en parte, por los datos astronómicos que, como comprendí más tarde, debían corresponder exactamente a los de aquella época, incluyendo errores atribuibles al estado de la ciencia de entonces. Tuve que investigar, también, el dato que correspondía al cometa Al-Araz en Occidente y la equivalencia de un “pad”. El problema de la luminosidad del Sol y la Luna, contrariamente a lo que esperaba, no presentó mayor dificultad, pues es un valor, aunque disparatado en nuestra época, viene dado en el famoso tratado Six Centuries of Arabian Astronomy del fallecido Sir Lewis Arnold.

Al cabo de varios meses de trabajo obtuve como resultado:

0.0000000000000000000000000000000000006625

¡que es igual a la constante de Planck!

Algunos de ustedes me preguntarán que objeto hubiera podido tener en el siglo XV una constante que hasta el siglo XX tuvo sentido en la ciencia. Esta es una pregunta que, por ahora, no me es posible responder. Sin embargo, me he propuesto estudiar concienzudamente el árbol genealógico de Planck en busca de sangre árabe en alguna de sus ramas. Ruego a ustedes esperar pacientemente mi
próxima publicación al respecto.

  articulos  
_____________________________________________________________

cómo citar este artículo
Sánchez, Ana María. 1982. “Amhad Ibn Hazam y la constante de Plank”. Ciencias núm. 2, julio-agosto, pp. 60-61. [En línea]
     
 
     
R02Articulos6   menu2
   
   
Miguel Ángel Izquierdo S.
     
               
               
En la actualidad, es ampliamente aceptada como un
hecho la independencia científica y tecnológica de México respecto a Estados Unidos, y otros países desarrollados. No obstante, su reconocida evidencia no suelen señalar los sectores específicos de la producción e investigación norteamericanos, o de otros países, que generan esas ciencias y tecnologías de las cuales somos dependientes.
 
En el presente trabajo se pretende aportar datos que sirvan para identificar a los principales sectores norteamericanos interesados en el desarrollo de la investigación “pura” y aplicada, a los cuales han estado ligados gran cantidad de autores de textos de consulta de la licenciatura de Matemáticas de nuestra Facultad de Ciencias.
 
Datos como estos pueden ayudarnos a evaluar el contenido y orientación de nuestra curricula, por tanto dan indicios de sí en su formación, pues entran en juego intereses que nos son ajenos, como el de la dominación de unos hombres por otros. Veremos que ocurre así en más de un sentido.
 
La lista de los libros de consulta recomendados para su uso en los cursos regulares se tomó de la Comunicación Interna núm. 1 de 1979, publicada por el Departamento de Matemáticas y titulada “Programa de las asignaturas obligatorias y optativas de Actuaría y Matemáticas”.
 
Esta publicación contiene los programas y las bibliografías respectivas de todas las materias obligatorias y 66 materias optativas de la carrera de Matemáticas.
 
En el presente trabajo se ha investigado a los autores incluidos en las bibliografías de todas las materias obligatorias y 38 (de 66) optativas, es decir, el 100 por ciento de unas y el 60 por ciento de otras. Se seleccionaron estas materias optativas porque cubren los troncos comunes correspondientes a las orientaciones de probabilidad y estadística, investigación de operaciones, Álgebra, Análisis, Geometría y Topología. Sin embargo, en la publicación de base (Comunicación interna) no estaban incluidas la bibliografía de las materias Geometría moderna I y Geometría moderna II, ambas del tronco común de las orientaciones de probabilidad y estadística, econometría e investigación de operaciones. El resto de materias optativas consideradas corresponde a las opciones de probabilidad, aunque no las cubren por completo.
 
En total se registraron 215 autores diferentes, que incluyen:
 
18 soviéticos
8 mexicanos
6 alemanes
6 franceses
8 ingleses
6 de otras nacionalidades
10 de nacionalidades desconocidas y
153 norteamericanos o nacionalizados norteamericanos.
 
De acuerdo con el listado anterior, los norteamericanos (por nacimiento o nacionalizados) representan 71% del total.
 
De los norteamericanos, 62, el 40%, han firmado al menos un contrato de investigación para el Departamento de Defensa norteamericano después de la Segunda Guerra Mundial, el cual, al ofrecer el contrato, precisa qué entiende por investigación:
 
Investigación. Estudio científico y experimentación dirigidos a:
 
1) El incremento del conocimiento en aquellos campos de las ciencias físicas, de la ingeniería, del medio ambiente y biológicas relacionadas con las necesidades de seguridad nacional a largo plazo; 2) Proveer el conocimiento fundamental requerido para la solución, de los programas militares; 3) La formación de una parte de la base para:
i) sucesivos desarrollos exploratorios y avanzados en tecnología relativa a la defensa; y ii) capacidades militares de funciones nuevas o mejoradas en áreas tales como comunicaciones, detección, rastreo, vigilancia, propulsión, movilidad, dirección y control, navegación, conversión de energía, materiales y estructuras y apoyo de personal”.1
 
El contralmirante Thomas B. Owen, ex jefe de la Oficina Nacional de Investigación (ONR) pionera en contratar científicos de alto nivel ha expresado lo siguiente:
 
“Para ser más específicos, la investigación naval puede definirse como el esfuerzo dirigido al incremento del conocimiento general en áreas que creemos de interés potencial para la Marina. Esto incluye estudios en las ciencias físicas, matemáticas e ingeniería. Los objetivos de estos estudios son producir ideas, examinar fenómenos y desarrollar teorías que puedan posteriormente conducir a la obtención de materiales avanzados, aparatos, vehículos, y equipos de uso para la marina. Como he indicado, la investigación no necesariamente tiene que ver con los problemas de aplicación militar inmediata; son generalmente a largo plazo por naturaleza y no orientadas en el tiempo”.
 
Y añade más adelante:
 
“Un investigador, en alguna universidad, que busca nuevas verdades en un área especial, tiene una nueva idea o un nuevo enfoque que desea explorar. Solicita nuestro apoyo y quizás también a otras agencias federales. Si la ONR decide financiarlo con nuestro presupuesto, que es limitado porque hemos sopesado cuidadosamente las siguientes consideraciones”:
 
“Primero, estamos suficientemente familiarizados con la reputación y los antecedentes del científico particular, como para tener la confianza de que se presenta con una importante pieza de nuevo conocimiento”.
 
“En segundo lugar, nuestra comprensión de los futuros problemas de la marina nos lleva a creer que este nuevo conocimiento será una pieza clave en un rompecabezas cuya solución beneficiará generosamente a la armada y finalmente, le otorgamos el apoyo porque es la única garantía de que esta pieza de investigación que tiene tal significancia potencial para la marina se realizará de una vez por todas”.2
 
Con lo dicho hasta aquí basta para una primera a programación a las justificaciones militares en su demanda por las ciencias. Otro recurso del que se valen los militares es la consulta de los “expertos”.
 
Un total de 16 autores (10% de los norteamericanos) han sido consultores o científicos (8 y 8) de la RAND Corporation, que, necesario es remarcarlo, ha sido desde su fundación en 1948 un semillero de “expertos” en asuntos de investigación y desarrollo con objetivos militares, incluido los de intervención y contrainsurgencia a nivel mundial.
 
Por esa institución han pasado los iniciadores y propulsores de teorías matemáticas tan conocidas como la teoría de juegos, teoría de redes, programación (dinámica, lineal, etc.) y otras, proporcionando su correspondiente asesoría científica a los diseñadores de operaciones militares o paramilitares, en especial contra aquellos países de importaciones estratégicas para el imperio norteamericano.
 
De género similar a la RAND son el Instituto para el Análisis de la Defensa (IDA) y la Mitre Corporation. En ellas han trabajado tres autores en estudio (uno de ellos miembro del patronato del IDA*).
 
Diecisiete autores (esto es, 11% de los norteamericanos) trabajaron alguna vez en laboratorios de investigación aeroespacial o atómica, con fines directa o indirectamente militares. Estos laboratorios estaban financiados por la extinta Comisión de Energía Atómica, el Departamento de Defensa o la NASA.
 
Suman 9 los autores que han sido asesores gubernamentales de organismos diferentes al DOD; tres de ellos fungieron como asesores del Consejo Nacional de Seguridad (NSC) organismo que tiene como funciones (con ligeras variantes de redacción): “asesorar al presidente respecto a la seguridad nacional, de manera que se facilite a los servicios militares y a otros departamentos y agencias de gobierno; cooperar más efectivamente en asuntos que involucren la seguridad nacional”.3
 
Otro sector importante en lo que se refiere al empleo de matemáticas es el industrial, en el que destacan los subsectores aeroespacial y de misiles, electrónico, automotriz y petrolero.
 
De los autores bajo estudio, 46 (30% de los norteamericanos) han trabajado como científicos o consultores científicos de 75 organismos industriales, habiendo prestado 102 servicios para las 75 empresas, esto porque algunos de ellos se emplearon en más de una empresa (en promedio 2.2 veces).
 
Entre esas 75 empresas se encuentran 25 que tienen contratos con el Departamento de Defensa en la fabricación de equipos o programas de investigación y desarrollo. Cabe aclarar que las 25 empresas se encuentran entre las primeras contratistas del DOD (entre más de        20 000)* respecto al monto de los contratos. Por lo demás esas 25 empresas, 23 de las cuales pertenecen a los sectores aeroespacial y de misiles, absorbieron 48 servicios de nuestros autores.
 
Si separamos a los autores que prestaron servicios al sector de la industria militar sin haberse contratado con el Departamento de Defensa, obtenemos la cantidad de 22 autores. Estos últimos sumados con aquellos 84 americanos, más tres extranjeros, arrojan un total de 109.
 
Así, tenemos que el cuarenta por ciento del total de los autores estudiados y el 53% de los norteamericanos, alguna vez se han contratado con al menos un organismo del complejo industrial militar norteamericano, en el cual quedan incluidos, por el momento, el conjunto de organismos de Defensa y la industria contratista del DOD en equipo, investigación, desarrollo y evaluación.
 
Estos datos están en concordancia con el hecho de ser ese complejo el que más gasta por concepto de investigación y desarrollo en Estados Unidos.
 
En este momento, es útil presentar una tabla de financiamiento federal para la investigación básica y aplicada en matemáticas e informática teórica (ciencias de la computación), la cual ofrece una idea de la fuerza relativa del Departamento de Defensa en el financiamiento de esta especialidad. (Ver cuadro)
 
Financiamiento Federal (Estados Unidos) de la investigación básica y aplicada en matemáticas e informática teórica (ciencia de la computación) para los años de 1958 a 1977*
Año 1958 1962 1965 1968 1971 1974 1977
Total 40.4 68.9 100.8 111.9 121.7 127.4 176.3
DOD 14.4 38.5 71.5 78.5 66.0 70.2 76.2
NSF  1.4 7.3 12.3 18.6 26.5 23.7 42.3
NASA  0.0 17.2 7.2 3.7 1.5 11.9 25.9
HEW  0.03 0.1 4.2 5.3 15.7 29.2 8.4
AEC  1.9 4.1 5.6 5.8 5.3 5.6 9.0
                                                                    ERDA + EPA
* Fuente: “Science Indicators 1979”, en National Science Foundation, Estados Unidos, 1980.
 
La agencia norteamericana para el desarrollo internacional (USAID) y los libros de texto científicos en español
 
Un apartado especial merece la USAID como difusora de la cultura, incluidas las ciencias y la tecnología, y los intereses norteamericanos. En particular, sabemos que esta es una agencia del Departamento del Estado, organismo (junto con el Nat. Sec. Council) responsable de la política exterior norteamericana. Por años, la USAID ha contado con asesores científicos que estructuran los programas de ayuda científica y tecnología acorde a la política exterior de “fuerza” y “seguridad nacional”. Entre sus reglamentos se señala su función de “ayuda" científica y técnica a los países del mundo libre, del que quedan necesariamente fuera los países socialistas europeos: Angola, Etiopía, Vietnam y Cuba, entre otros. Algunos de sus canales de operación son los Centros Regionales de Ayuda Técnica (hasta hace 2 años operó uno en México). Estos centros suelen auspiciar la publicación de manuales y textos de ciencia y tecnología por parte de editoriales de los países dependientes o “en desarrollo”. En México, por lo menos 25 editoriales han recibido este tipo de apoyo, el cual viene, por supuesto condicionado ya que la publicación debe ser traducción de un autor norteamericano recomendado por los consejeros científicos de la USAID y no debe distribuirse en países ajenos al “mundo libre”.
 
Dentro del área de matemáticas, por ejemplo, más de 15 editoriales latinoamericanas han recibido este tipo de fondos de la USAID y son, por cierto, las más activas (McGraw Hill, Trillas, CECSA, Fondo Educativo Interamericano, Aguilar, Reverté, UTEHA, Limusa y otras).
 
Me atrevo a creer que buena parte de los textos de matemáticas en español que se han usado en nuestra facultad han pasado por el filtro de la USAID, pero esto habría que confirmarlo.
 
Ocurrió ya en Colombia, durante los años 1969 y 1970, que la USAID patrocinó una reforma en los planes de estudio de matemáticas desde licenciatura hasta doctorado con asesores y todo. Pero es claro que este tipo de intervención no necesita ser tan directa para obtener los resultados deseados, a saber, el acoplamiento de un proyecto educativo a los intereses de Estados Unidos y, con ello, a las necesidades del modo de producción imperante allí.
 
La consideración de la extrema susceptibilidad de nuestro sistema científico-tecnológico, respecto a las políticas científicas y exterior norteamericanas conduce al análisis de la tendencia que probablemente asumirá nuestra dependencia bajo la administración de Ronald Reagan.
 
El presidente actual de Estados Unidos, tiene, entre sus asesores científicos, a típicos representantes del complejo industrial militar, como lo muestra la siguiente lista (los números entre paréntesis indican el rango de la institución o empresa en relación a los contratos firmados con el DOD en 1978 el primero y en 1977 el segundo):
 
Simon Romano de la corporación TRW (31-10)
William A. Niremberg del lnstituto Scripps
Autor Beuche Senior vicepresidente de tecnología de la General Electric
(5-2) (Ex Ramo)
Harold Agnen, Presidente de General Dynamics (1-3)
William O. Baker, ex presidente de la Board Bell Telephone Co. (IIT, 21)
Eduard E. David presidente Exxon (33)
Gral. Bernard Schriever (SAF retirado, presidente del Consejo de la Schreiver Mckee Inc.)
Willen K. Tilley, California University (en R´D, 54 del DOD)
Albert D. Wheclar, vicepresidente de Hughes Aircraft (8)
 
Las empresas de donde provienen estos asesores son, en buen número, aquellas en las que se emplean abundantemente las matemáticas.
 
La plataforma de investigación y desarrollo sostenida por la actual administración norteamericana, derivada fundamentalmente de su política exterior de “fuerza”, “seguridad nacional”, es perfectamente concordante con los intereses de las empresas del complejo industrial-militar.
 
Esa plataforma, ahora en su fase de implantación, sostiene que: “la investigación y el desarrollo proveen de medios críticos, mediante los cuales nuestra nación puede mantener su seguridad. En el pasado, la cualitativa superioridad tecnológica de Estados Unidos constituyó sobre la base de nuestra preeminencia militar. Estamos a punto de perder esta ventaja sobre la Unión Soviética debido a la oposición del señor Carter para el incremento real del esfuerzo de investigación y desarrollo”.
 
En respuesta a la atribuida incuria de Carter, la administración reaganeana propone lo siguiente:
 
“Vigorosa investigación y desarrollo de un efectivo sistema antibalístico; desarrollo de la tecnología aérea y naval; desarrollo acelerado de la tecnología de misiles estratégicos lanzados desde tierra, aire, barcos y submarinos”.
 
Como en el pasado, estos proyectos ya en curso, requieren de programas de investigación en ciencias básicas, difusión de sus problemas en revistas y libros de circulación internacional con el fin de atraer la atención de la “comunidad científica” mundial y hacerla partícipe de su proyecto social de dominación. Los mecanismos mediante los cuales se pretende lograr apoyo a sus políticas, son más o menos sutiles y no siempre fáciles de identificar.
 
No por ello dejamos de advertir que el complejo industrial militar norteamericano tiene una poderosa infraestructura, ocupada en orientar, hacia su propio beneficio, los esfuerzos de otros sistemas científicos tecnológicos.
 
Es necesario conocer cómo opera dicho complejo, si nos proponemos desvincularnos de los intereses imperialistas que, por supuesto, también se manifiestan en el terreno de las matemáticas, aunque no lo parezca.
     
Notas
 
1. Federal Code Regulations, Title 32, Gpo., USA 1979, p. 749.
 
2. “The Broad Application of Naval Research”, RADM, Thomas B. Owen, en Naval Research Review, Oct., 1968.
 
3. Timothy W. Stanley, American Defense and National Security, Washington, 1956, p. 28.
 
* Para mayores detalles sobre Mitre Corp. e IDA, ver “La Guerra sin Fin”, de Michael Klare.
     
____________________________________________________________
     
Miguel Ángel Izquierdo
Ayudante de profesor del Programa Ciencia y Sociedad                                         Facultad de Ciencias, Universidad Nacional Autónoma de México.
____________________________________________
cómo citar este artículo
Izquierdo S., Miguel Ángel 1982. “El complejo industrial militar estadounidense y algunos autores de nuestros textos de matemáticas”. Ciencias núm. 2, julio-agosto, pp. 55-59. [En línea]
     

 

       
 
  menu2
               
  R02B02

 
Laboratorio de estadística de la Facultad de Ciencias
Nota de los editores
   
   
     
                     
                   
Mejorar la calidad de la enseñanza en el área de estadística
es, sin duda, el propósito central de los investigadores que participan en el laboratorio de esa especialidad que funciona en la Facultad de Ciencias.

En opinión de Gustavo Valencia, Manuel Mendoza y Francisco Aranda, investigadores del Laboratorio de Estadística, ésta es una disciplina fundamentalmente de aplicación. En este sentido, su enseñanza no debe limitarse a la presentación y discusión de los conocimientos contenidos en una serie de textos, sino que los cursos deben ser complementados con aplicaciones en contextos que permitan, tanto a los alumnos como a los profesores, adquirir experiencia práctica.

El camino que el Laboratorio de Estadística se ha propuesto seguir, consiste en involucrar a su personal en trabajos de asesoría y consultoría estadística, durante los cuales se ponen en práctica los conocimientos relacionados con los cursos que imparten. Además, de esta manera colaboran en la solución de algunos problemas de investigación originados en esta universidad.

Se considera que en la medida en que el personal desarrolle este tipo de actividades no sólo adquirirá experiencias reales que luego transmitirá a sus alumnos, sino que podrá contar con una diversidad de ejemplos ilustrativos y eventualmente podrá, incluso, proponer líneas de investigación de acuerdo con las necesidades del personal local. Por lo que respecta directamente a los alumnos, tendrán la posibilidad de aplicar los conocimientos recibidos a problemas reales y bajo la supervisión de sus profesores, lo que seguramente conducirá a obtener una mejor formación. Diversos grupos de estudiantes de los cursos de “Diseño de experimentos”, “Análisis de regresión” y “Estadística bayesiana” han hecho uso ya de estas facilidades.

El trabajo en el Laboratorio está apoyado por la minicomputadora NOVA 3, y la microcomputadora Olivetti p652, aseguraron nuestros informantes. Estas máquinas de cómputo, explicaron, han permitido desarrollar rutinas esenciales aplicables a una variedad de problemas. Por lo demás, han propiciado la familiarización y el entrenamiento de los estudiantes con este tipo de herramientas.

Los servicios que presta el Laboratorio pueden ser clasificados en dos grandes grupos: los servicios al Departamento de Matemáticas, al que está adscrito, y los servicios fuera del propio departamento. En lo que concierne a los primeros, todos ellos, de una u otra forma, están asociados al fin fundamental de la enseñanza de la estadística. Es necesario mencionar que de los distintos proyectos de investigación en esa área se han publicado una serie de reportes en las “comunicaciones internas del departamento”, con la idea de promover la divulgación del proceso estadístico y sus aplicaciones.

En cuanto a los servicios que presta al exterior destaca el apoyo técnico a investigadores, profesores y alumnos de los distintos centros y facultades de la UNAM en la elaboración de tesis profesionales, de maestría y proyectos de investigación originales. En el caso de algunos centros universitarios como el Instituto de Investigaciones Biomédicas, la Facultad de Psicología o el Centro de ciencias de la Atmósfera, entre otros, se tienen planes de colaboración a mediano y a largo plazo, con miras a formar grupos interdisciplinarios de investigación.

Como puede advertirse, las perspectivas de trabajo del Laboratorio de Estadística se encuentran en su propia actividad. Cada vez más, investigadores y alumnos, principalmente de Actuaría, solicitan apoyo y se interesan en conocer los servicios que prestan. Esta circunstancia puede conducir a un desbordamiento de la capacidad de trabajo del Laboratorio, lo que resulta muy comprensible si se toma en cuenta que sus recursos humanos se limitan a las tres personas mencionadas al principio de esta nota.

  articulos  
_____________________________________________________________

cómo citar este artículo
Nota de los editores y (reportaje). 1982. “El laboratorio de estadística de la Facultad de Ciencias”. Ciencias núm. 2, julio-agosto, p. 34. [En línea]
     
 
     
R02Articulos5
  menu2
   
   
José Antonio Peralta
     
               
               

En el campo de la física aplicada y en general en la investigación científica aplicada, es corriente que los investigadores se desentiendan de las posibilidades de utilización o del uso real que se dé al resultado de sus investigaciones, desembarazándose de tal cuestión con respuestas tales como “nosotros hicimos nuestra parte, lo demás ya no nos concierne…”. En realidad este tipo de actitud no es privativo de los físicos; se da en todos los ámbitos de la producción social; los médicos, por ejemplo, aceptan prescribir tratamientos o recetar medicamentos que manifiestamente caen fuera del alcance real del paciente. Esta actitud de indiferencia hacia el destino objetivo de los productos de nuestro trabajo pasa por ser una característica inherente a la investigación científica. Sin embargo, nosotros pensamos que es más bien una característica inherente a determinada forma de concebir y hacer ciencia, y que “semejante trabajo intelectual parcelado, fragmentario, que ha perdido toda visión de conjunto de las actividades sociales en que está insertado, no puede ser sino un trabajo enajenado.1

Los estudios sobre los procesos de contaminación y descontaminación del agua presentan una gran variedad de aspectos atractivos para la investigación científica; la fisicoquímica, la física de superficies, la termodinámica, la hidrodinámica, etc., son ramas de la Física que encuentran en este campo grandes posibilidades de aplicación. Ahora bien: ¿qué posibilidades reales existen en nuestro país de que los estudios sobre contaminación y descontaminación de aguas tengan alguna incidencia efectiva sobre la realidad? Puesto que no compartimos el punto de vista “desinteresado” de hacer ciencia, hemos tratado de dar respuesta a la anterior pregunta. Por lo tanto este trabajo, más que referirse a los procesos de contaminación o descontaminación en sí, analiza con cierto detalle el medio social sobre el cual estas investigaciones se han de desarrollar, con el fin de determinar si el medio es susceptible a este tipo de investigaciones, a qué tipo de intereses sociales se ha de enfrentar, en qué otro tipo de intereses sociales puede encontrar apoyo, etc. En particular este tipo de indagaciones previas a lo que es propiamente el trabajo de investigación científica es muy necesario, creemos, en un país como México, en donde la situación del científico es peculiar; en efecto, nuestra sociedad no asigna ningún papel específico a los investigadores ni en el ámbito de la economía ni en el de la cultura, en contraste con lo que sucede en los países desarrollados en donde, por ejemplo, el sistema económico asigna tareas muy claras a la investigación científica. Sin embargo, a diferencia de lo que ocurre en países más atrasados, en donde no hay tareas específicas para la investigación pero tampoco hay científicos ni instituciones que se ocupen de la investigación, en México ya existe un numero considerable de científicos, de instituciones y de recursos. Así pues, en los países desarrollados tenemos órganos y funciones, en los países atrasados no hay ni órganos ni funciones, y en México tenemos órganos pero no funciones.

Abastecimiento de agua para la zona metropolitana

Los aproximadamente 45 m3/s con los que la zona metropolitana satisface sus necesidades de agua esencialmente para usos domésticos e industriales se obtienen en su gran mayoría de pozos a través de los cuales se extrae el agua de los mantos del subsuelo. En la siguiente tabla se especifican los gastos y los sistemas mediante los que se abastecen el Distrito Federal y las zonas urbanas adyacentes:
 
Tabla 1. Sistema de abastecimiento de agua del Distrito Federal y zonas urbanas adyacentes2
 
Sistema Lerma 13 m3/s
Sistema Alto Lerma 10 m3/s
Sistema Xochimilco 5 m3/s
Sistema Chiconautla 3.5m3/s
Sistema del Peñón 0.5m3/s
Pozos Municipales  7 m3/s
Fuentes Diversas (Desierto de los Leones, Bosques de Santa Fe, San Bartolo, Ameyalco, etc.) 3.6m3/s
Pozos particulares 2.5m3/s
Total 45.1m3/s

Hay que señalar, sin embargo, que el sistema de control que el Estado ejerce sobre la cantidad de agua extraída es sumamente deficiente, que en muy contados casos las cantidades extraídas se obtienen directamente de la lectura de medidores, en lo que a la industria se refiere, y que más bien las anteriores cifras se obtienen a través de deducciones. Una forma de deducir los gastos de extracción es, por ejemplo, midiendo el caudal que transporta el Gran Canal en épocas de estiaje (ausencia de lluvia) y multiplicando este caudal por un factor de corrección que toma en cuenta el porcentaje de agua consumida que no se desecha al drenaje. Obviamente este método solo es aplicable cuando se intenta medir la extracción de las zonas que largan sus desechos al sistema del Gran Canal, es decir, no incluye a las zonas que desaguan en los otros sistemas que drenan a la zona urbana. Otra forma de deducir los gastos de extracción y que se aplica exclusivamente para la industria, es asignar una determinada cantidad de agua (véase la Tabla 2) necesaria pare procesar 1 kg de producto y entonces calcular la cantidad total de agua extraída por la industrial en función del valor declarado de la producción. Queda claro, pues, que la posibilidad de que los gastos de extracción calculados sean correctos o no depende de lo correcto de las suposiciones de las cuales se deducen estos. En realidad, las medidas directas de la cantidad de agua usada se realizan sobre todo en el terreno del uso doméstico, donde el uso de medidores está más o menos extendido; en 1970, por ejemplo, la SHR4 reportó que el 75.6% de la población total del Valle de México disponía de agua entubada. Para la industria la cosa es diferente, ya que una importante fracción de ella dispone de pozos particulares sobre las cuales no se lleva ningún control, y de ahí la necesidad de obtener los gastos de extracción mediante formas indirectas. Así, la SARH5 reporta la existencia de unos 16 mil pozos clandestinos en el Valle de México, de los cuales 4000 están situados en el Distrito Federal y sus alrededores.

Tabla 2. Cantidad de producto procesado por cada m3 (1000 L) de agua3.
 
Producto Cantidad procesada con cada m3 de agua
Acero 30 Kg
Pulpa de madera 70 Kg
Pulpa de papel 9 Kg
Hule sintético 12 Kg
Azufre 33 Kg
Sosa 6 Kg
Carbonato de sodio 14 Kg
Carbón 1.25 Kg
Aluminio 0.75 Kg
Tela 4 Kg
Prod. Petroquímicos 29 Kg
Algodón pluma 0.3 Kg
Gasolina 50 Lts
Cloro 18 Lts
Agua purificada 0.2 garrafones
 
Consecuencias de la extracción
 
La obtención del agua por medio de la perforación de pozos es una técnica que se utilizó de una manera sistemática a partir de los años treinta, cuando a consecuencia del crecimiento acelerado de la ciudad hubo necesidad de obtener agua de la manera más rápida posible. En apariencia el método era simple y económico, ya que para satisfacer las necesidades crecientes de agua potable con una “simple instalación de equipos de bombeo” y la colocación de tuberías de distribución local. En realidad se actuó sin previsión, puesto que las consecuencias negativas de la “simple instalación de equipos de bombeo” son ahora evidentes: 1) la cuenca del Valle de México está desforestada y erosionada en un 23%; 2) el nivel de los mantos acuíferos del subsuelo ha descendido a niveles críticos; 3) la extracción excesiva ha provocado el hundimiento general de la Ciudad de México; 4) la resequedad del suelo, en las zonas de extracción, ha provocado un estado de pauperización entre la población campesina que cultiva esos suelos, antiguamente ricos en humedad.

En particular, quisiéramos señalar con cierto detalle los efectos del hundimiento sobre el sistema de drenaje de la Ciudad de México. En efecto, el abatimiento de las presiones piezométricas debido a la extracción excesiva ha provocado que la ciudad se hunda varios centímetros por año, tal como se aprecia en la Tabla 3.

Tabla 3. Evolución del hundimiento de la Ciudad de México6

Primer cuadro 1891 - 1938 5 cm/año
  1950 - 1951 46 cm/año
  1963 - 1969 cm/año
Ciudad en conjunto 1952 - 1959 14 cm/año
  1959 - 1963 11 cm/año
  1963 - 1969 8 cm/año

En la actualidad el hundimiento global es del orden de los 9 m; es natural, por tanto, que con tales hundimientos las pendientes originales asignadas al sistema de drenaje para que funcionase por la simple acción de la gravedad hayan sido gravemente dislocadas (las pendientes son del orden de 1 metro por kilómetro). Así, el hundimiento ha traído como una de sus consecuencias más negativas el cambio del antiguo sistema de drenaje que funcionaba por gravedad a uno que tiene necesidad del uso de bombas, con el consiguiente incremento en los costos de operación y de mantenimiento.

También la pérdida de consistencia del terreno merece algunos comentarios. Según lo señalan los técnicos mismos de la SARH, el agrietamiento del suelo es un peligro potencial para la estabilidad de las presas y otras estructuras hidráulicas construidas en los Valles de México y Toluca, y de ocurrir su falla pueden ocasionar situaciones de desastre. En particular, expresan los técnicos, debe establecerse una estrecha vigilancia en las presas Guadalupe Mandín, José Antonio Alzate e Ignacio Ramírez y en los sistemas hidrográficos que tienen relación con servicios de control de avenidas para proteger áreas urbanas.8

Usos del agua en la zona metropolitana

Dos son los usos principales del agua en la zona metropolitana: el doméstico y el industrial. Puesto que no disponemos aún de las estadísticas más recientes, expondremos los datos publicados por la SRH9 para 1970 y también los que aproximadamente se pueden calcular en la actualidad con base en informaciones fragmentarias; en todo caso, las conclusiones esenciales que emanarán de toda esta información serán las mismas.

Los 8 millones 417 mil habitantes que poblaban el Distrito Federal y sus alrededores en 1970 satisfacían sus necesidades de agua con un gasto aproximado de 26 mil litros por segundo, es decir, un promedio de 270 litros al día por habitante. Si consideramos que la dotación de agua que se calcula suficiente para satisfacer las necesidades de un individuo, en condiciones climatológicas semejantes a las nuestras, es de 200 litros, las anteriores cifras podrían hacer pensar que la cosa no andaba del toda mal. Sin embargo, en realidad, la distribución de agua presentaba notables diferencias, en efecto, de los 8 millones y medio de habitantes, 1 millón 700 mil tenían que recurrir al uso de hidrantes públicos, pipas o acarreo manual; por otra parte, aunque en las estadísticas de la SRH a los individuos que habitan en vecindades se les reporta con servicio de agua entubada —colocándolos de esta manera en el mismo nivel de servicios que, por ejemplo, los habitantes de las zonas residenciales—, es claro que los dos millones de individuos que vivían en vecindades disponían de un servicio deficiente de agua, ya que en general en las vecindades los servicios de agua para el baño y el lavado de ropa son comunitarios.

A nivel industrial las 32 mil 800 industrias instaladas en la zona metropolitana extraían para sus necesidades 13 700 litros por segundo (el equivalente a una población de 6 millones de habitantes). Por otra parte, el 80% de la extracción total del Valle de México se concentraba en las siguientes delegaciones y municipios: Benito Juárez, Cuauhtémoc, Miguel Hidalgo, Venustiano Carranza, Azcapotzalco, Ecatepec, Tlalnepantla, Gustavo A. Madero y Álvaro Obregón. De este 80% una fracción considerable se destinaba a la industria; en Ecatepec, por ejemplo, las 530 industrias instaladas en el municipio consumían 5 veces más agua que sus 216 mil habitantes, en Tlalnepantla 836 industrias consumían 1.7 veces más que los 366 935 habitantes del municipio, y en Azcapotzalco 2029 industrias usaban 1.4 veces más agua que los 534 664 habitantes de esa delegación.

En la actualidad la extracción de agua destinada a la industria se ha incrementado en términos relativos y absolutos, ya que según Luis Sánchez de Carmona, Director de Ecología Urbana de la SAHOP, de los 45 mil litros por segundo que llegan a la capital, cuando menos la mitad corresponde a la industria. Pero si la dotación de agua asignada a la industria se ha incrementado notablemente —siendo el incremento de un 70%—, para los habitantes de la zona metropolitana la cosa es muy diferente; en efecto, si en 1970 la dotación promedio al día para cada habitante era de 270 litros, en la actualidad ésta se ha reducido a 150 litros.

Consumo y desecho

Si observamos la Tabla 2 vemos que, aún cuando la industria usa una gran cantidad de agua para procesar cada kilo de producto, en realidad para una gran cantidad de industrias casi nada se incorpora directamente al producto final; algo semejante ocurre a nivel doméstico pero en mucho menor medida, ya que del total de agua extraída para este uso en promedio sólo un 30% se consume y el resto se desecha, mientras que la fracción consumida en la industria es de sólo un 7% en promedio. En 1970 el gasto de agua residual —sin incluir los gastos del agua de lluvia— era de 34 m3/s y de éstos, 19.4 m3/s le correspondían a los desechos domésticos contra 14.1 m3/s de residuos industriales (datos para todo el Valle de México); en la actualidad y sólo para la zona metropolitana el gasto total de aguas residuales es de aproximadamente 37 m3/s y más de la mitad de este gasto corresponde a la industria. A pesar de que la industria lanza a las redes del drenaje más desechos que los que lanzan los 13 millones de habitantes de la ciudad de México y sus alrededores, no es en el nivel cuantitativo donde el impacto de los residuos industriales se hace sobre todo sentir, sino en el nivel de la calidad de estos desechos. En efecto, tanto los desechos de origen doméstico como industrial sufren procesos de degradación y en cada paso de estos procesos en general consumen una determinada cantidad de oxígeno; sin embargo, el consumo de oxígeno que se realiza en los procesos de degradación de los residuos industriales es bastante mayor que el de los desechos domésticos. Así, si un individuo causa con sus desechos un consumo de oxígeno diluido en el agua de 54 g por día, tenemos que en un año consumirá 19.7 kg mientras que sólo las industrias de pastas de celulosa, papel y cartón, consumen al año 47 mil 550 toneladas de oxígeno, lo cual equivale al consumo de una población de 2 millones 413 mil habitantes. En 1970 la contaminación de la industria para todo el Valle de México equivalía a una población de 30 millones de habitantes; en la actualidad y sólo para la zona metropolitana la contaminación equivalente en cuanto a consumo del oxígeno debe ser de unos 40 millones de habitantes. Es necesario señalar, por otra parte, que aun cuando los residuos industriales consumen gran cantidad de oxígeno, para una gran cantidad de ellos al final de sus cadenas de degradación no resultan materias alimenticias para la flora y la fauna —a diferencia de lo que ocurre con la mayor parte de los residuos domésticos—, sino que muchas industrias provocan una contaminación irreversible de las aguas.

El drenaje en la Ciudad de México

Hemos visto que una ciudad de 13 millones de habitantes, como es el Distrito Federal, produce una cantidad excesiva de aguas residuales y que, además, la calidad de los desechos industriales incrementa la contaminación de las aguas hasta el equivalente de una población de 50 millones de habitantes. ¿Cómo se deshace el Distrito Federal de esta cantidad impresionante de desechos?

Tabla 4. Contaminación industrial y equivalentes en población para algunos tipos de industrias asentadas en la zona metropolitana.10

Tipo de industria No. de establecimientos Extracción m3/s No. equivalente de habitantes Contaminación DBO, ton/año No. equivalente de habitantes
Pastas de celulosa, papel y cartón 1346 3.208 1 394 782 47 550 2 412 667
Productos químicos diversos  1751  2.312  1 005 217  72 187  3 662 748
Productos de minerales no metálicos  675  1.912  831 304  2 315  117 479
Industrias básicas del hierro y el acero  98   1.474  640 869  864  43 830
Productos químicos esenciales  85  0.970  421 739  31 642  1 602 249
Artículos de papel, de cartón y de pastas de celulosa  291  0.775  336 956  7 331  371 722
Molienda de caña de azúcar y remolacha, alcohol etílico  2  0.668  290 434  17 691  896 964
Fabricación de productos metálicos  3 807  0.422  183 478  665  33 752
Industrias básicas de metales no ferrosos  79  0.314  136 521  465  23 583
 Construcción, ensamble y reparación de vehículos  316  0.267  116 086  480  24 364
Producción de cerveza 27 0.245 106 525 29 947 1 519 495

Esencialmente son tres los sistemas a través de los cuales el Distrito Federal elimina sus aguas residuales:11 el del Gran Canal, el del Interceptor Poniente, y el nuevo sistema de Drenaje Profundo que funciona ya parcialmente. El Gran Canal es el sistema más antiguo y se terminó de construir en 1910; inicialmente fue diseñado para funcionar por la simple acción de la gravedad, pero —como señalamos anteriormente— por estar asentado sobre terrenos del antiguo lago que han sufrido fuertes deformaciones y hundimientos debido a la extracción excesiva, se tuvo que recurrir al empleo de bombas y a la modificación de las líneas del alcantarillado para que el sistema siguiera funcionando con cierta eficacia. En efecto, en 1970 el sistema de alcantarillado constaba de 8 000 km de atarjeas, subcolectores y colectores, y para elevar las aguas negras al Gran Canal se recurría al uso de 78 estaciones locales de bombeo y 10 de mayores dimensiones. Por otra parte, las redes de colectores originalmente constituían un sistema tipo peine con todos los colectores que atraviesan la ciudad de Poniente a Oriente para descargar al Gran Canal, que sigue la dirección general Sur a Norte; pero en la actualidad este sistema se ha transformado en una serie de ductos intercalados que le dan apariencia de una malla irregular, conforme se van corrigiendo las dislocaciones e intercalando las plantas de bombeo para salvar los columpios que se formaron debido al hundimiento desigual.

En cuanto al interceptor Poniente, es un conducto de sección circular de 4 m de diámetro que trabaja por gravedad con un escurrimiento de Sur a Norte y con capacidad de 25 m3/s; su longitud es de 17 km y su pendiente media es de medio metro por kilómetro. A diferencia del Gran Canal, que drena esencialmente la parte baja de la ciudad, el interceptor Poniente drena la parte alta de la ciudad y además intercepta los ríos Churubusco, Piedad y Consulado, ríos que se alimentan con la lluvia de zonas donde la precipitación pluvial es hasta un 80% mayor que la precipitación sobre la zona urbana. El interceptor Poniente descarga en el emisor Poniente que comienza en el extremo norte del Vaso de Cristo —en las confluencias de los ríos Hondo y Chico—, y que después atraviesa por debajo al cerro de Xocayalmalco y cruza el lomerío de Barrientos hasta terminar en canal abierto a lo largo del cauce del río Cuautitlán hasta el sitio en que comienza al Canal de Santo Tomás.

En lo que concierne al Drenaje Profundo, éste consta de los interceptores —el Central y el del Oriente— que descargan en el emisor Central, en un punto cercano al río de los Remedios llamado Tenayuca. Ambos interceptores se han construido a niveles profundos —más de 200 m en algunos puntos— con el objeto de que el hundimiento de la ciudad, que persiste en la actualidad, no afecte su funcionamiento por gravedad. El interceptor Central es un conducto de concreto de sección circular con una longitud de 25 km y con diámetro de 4 y 5 m; está calculado para funcionar con un gasto máximo de descarga de 62 m3/s para diámetro de 5 m y 35 m3/s para diámetro de 4 m. El interceptor del Oriente tiene una longitud de 27 km con diámetro de 4 y 5 m también calculado para funcionar con gastos máximos de 92 y 41 m3/s respectivamente, el emisor Central, al cual van a descargar los dos interceptores, es un ducto de sección en forma de herradura con una longitud de 47 km, un diámetro de 6.5 m y un gasto máximo de 200 m3/s.

Ahora bien, tanto el Gran Canal a través de los túneles de Tequisquiac, como el interceptor Poniente a través del Tajo de Nochistongo, y así como el Drenaje Profundo por intermedio del emisor Central, depositan sus aguas en la cuenca del Río Moctezuma, que es a su vez afluente del Río Pánuco, el cual finalmente desagua en el Golfo de México a la altura del Puerto de Tampico.

En función de lo anterior es natural que la cuenca del río Pánuco aparezca como la de mayor contaminación en la República, con índices de contaminación notablemente mayores que los de la cuenca del río Lerma, que es la que le sigue en contaminación, tal como se aprecia en la Tabla 5.

Tabla 5. Características principales de las cuencas de primer orden.12

Cuenca Área de la cuenca km2 Escurrimiento medio anual miles de m3 Población hab. Aportación de OBO total kg/año Valor bruto de la producción individual miles de $
1.Pánuco 67 872 21 810 000 11 079 696 668 971 606 88 879 416
2.Lerma 129 263 7 277 000 7 454 257 257 482 010 25 007 575
3.Balsas 111 300 14 045 000 5 146 011 113 510 513 11 199 163

4.Blanco

2 738 1093 200 444 860 40 625 690 2 911 777
5.Gunyalejo 17 084 2 195 000 156 311 67 827 326 1 209 074
6.San Juan 32 618 129 000 1 606 214 118 470 904 23 615 991
7.Culiacán 21 677 3 141 280 368 784 57 711 496 831 602
8.Fuerte 33 590 5 007 800 252 026 51 886 407 797 293
9.Coahuoyane 7 301 1 812 000 194 770 26 330 002 657 403
10.Nazas 59 632 274 000 720 378 53 963 094 3 715 197
11.Conchos 71 964 1 079 400 712 146 25 542 840 3 385 016

El agua de lluvia

Al parecer es natural que el agua de lluvia que se precipita sobre la Ciudad de México y sus alrededores desaparezca por las alcantarillas; la medida en que esto suceda podría indicarnos incluso qué tan cerca se está del óptimo funcionamiento. Ahora bien: evidentemente las inundaciones causadas por las lluvias deben desaparecer, pero lo que ya no es tan evidente es que el agua de lluvia deba mezclarse con aguas de tan diferente calidad como son las aguas negras. En efecto, si consideramos que en promedio la precipitación anual sobre el Valle de México es de unos 700 milímetros,13 y que la superficie urbanizada cubre un área aproximada de 600 km2, tenemos entonces que al año caen sobre la zona urbanizada 420 millones de metros cúbicos, lo que es equivalente a un gasto continuo de 13.3 m3/s, que constituye un caudal muy considerable. En la mayoría de las ciudades desarrolladas el agua de lluvia se recoge en un sistema de drenaje separada del sistema de drenaje que recoge las aguas negras, lo que posibilita su posterior almacenamiento y utilización. Sin embargo, en la Ciudad de México —que con la construcción reciente del drenaje profundo posee el sistema de drenaje más caro del mundo— el agua de lluvia no sólo se mezcla con las aguas negras de origen doméstico, sino lo que es peor, con las aguas negras de origen industrial. Así pues, el nuevo sistema de drenaje mantiene intactos los defectos estructurales del anterior sistema, es decir, la recepción de agua de lluvia junto con aguas negras y el permitir que los residuos industriales —de efectos catastróficos— en las cuencas del Valle de México y del Pánuco sean depositados en la red municipal de drenaje sin previo tratamiento.

El gran desperdicio que implica mezclar 13 m3/s de agua de lluvia con los gastos correspondientes de aguas negras se visualiza mejor si recordamos que la ciudad de Monterrey satisface sus necesidades de agua —tanto a nivel industrial como doméstico— con un gasto aproximado de 7 m3/s; también el desperdicio se visualiza mejor si recordamos que toda la población del Valle de México satisfacía sus necesidades de agua en 1970 con un gasto de 27.5 m3/s. De hecho los técnicos de la SARH14 han señalado que si el agua de lluvia que se precipita sobre el Valle de México se controlara racionalmente, eso bastaría para satisfacer las necesidades de una población de 15 millones de habitantes.

Una característica del agua de lluvia es que se precipita en ocasiones sobre la ciudad en cantidades enormes pero en tiempos relativamente cortos; eso quiere decir que los gastos de flujo que provocan en el drenaje superan a los máximos calculados, sobre todo en los puntos en que la continuidad del desagüe exige el uso de bombas. Obviamente esto repercute en inundaciones transitorias, pero sobre todo en altos niveles de contaminación. En efecto, el agua de lluvia que supera la capacidad de desagüe del sistema sale de las alcantarillas en los puntos en que la continuidad es interrumpida, pero en su salida arrastra a los residuos domésticos e industriales inundando con aguas negras a las zonas aledañas a los puntos de salida. Si el drenaje fuese de tipo separado esto no sería así, puesto que de las alcantarillas se escaparía el agua de lluvia, pero no las aguas negras.

Algunas conclusiones y comentarios

En general, en la prensa diaria abunda la información sobre los diferentes aspectos del uso del agua en el Distrito Federal. Con todo y ser abundante, esta información tiene un defecto fundamental, aun cuando a veces sea exacta, es fragmentaria.

Lo que hemos querido demostrar en las páginas anteriores es que justamente el significado de cada cifra o hecho sólo se alcanza a partir de una visión global que contemple los momentos esenciales que comporta el uso del agua, a saber, extracción, consumo y desechos, además de las diferentes formas en que ésta se usa (doméstico e industrial). Hemos visto así que aun cuando la propaganda oficial que demanda prudencia en el uso del agua no lo incluya, es el uso industrial el más importante, tanto desde el punto de vista de la extracción como del despilfarro y los efectos contaminantes.

En función de lo anterior podemos, pues, establecer una serie mínima de conclusiones:

1) Dado que la industria extrae tanta agua del subsuelo, que consume tan poca y que lanza al drenaje tan gran cantidad de aguas residuales con alto índice de contaminación, se debería o bien exigir el reciclamiento del agua en los procesos industriales —es decir, el tratamiento de las aguas que emergen al final de un proceso industrial para ser utilizadas de nuevo en el mismo proceso, o bien que la industria se abasteciera con aguas negras tratadas, tal como ocurre en gran parte de la industria en Monterrey, y que sus residuos fuesen tratados antes de ser desechados a la red de drenaje; 2) Es necesario implantar en la Ciudad de México un sistema separado de drenaje, puesto que el sistema tipo mixto que funciona en la actualidad implica el desperdicio de los grandes volúmenes de agua de lluvia que se precipitan sobre la zona urbana; 3) Si la industria no extrajese tal cantidad de agua del subsuelo, el hundimiento de la ciudad de México se detendría. Consiguientemente, los gastos de mantenimiento y de reestructuración de la red de alcantarillado que de ahí se derivan se reducirían en la mínima proporción; y 4) Si se impidiese el uso irracional del agua por parte de la industria, y si el agua de lluvia se captara por medio de una red de drenaje separado, la escasez de agua que sufren cotidianamente amplias capas de la población no tendría razón de ser.

¿Qué es lo que en el sentido anterior ha hecho o piensa hacer el Estado?

a) La Ley Federal para Prevenir y Controlar la Contaminación Ambiental.

En primer lugar, hay que señalar la existencia de la Ley Federal para Prevenir y Controlar la Contaminación Ambiental. En el artículo 14, Capítulo Tercero, leemos:

“Queda prohibido arrojar a las redes colectoras, ríos, cuencas, cauces, vasos y demás depósitos de aguas, o infiltrar en terrenos aguas residuales que contengan contaminantes, materias radiactivas o cualquier otra sustancia dañina a la salud de las personas, a la flora o a la fauna, o a los bienes. La Secretaría de Recursos Hidráulicos, en coordinación con la de Salubridad y Asistencia, dictará las medidas para el uso o el aprovechamiento de las aguas residuales y fijará las condiciones que éstas deban cumplir para ser arrojadas en las redes colectoras, cuencas, cauces, vasos y demás depósitos corrientes de aguas así como para infiltrarlas en los terrenos”.

Sobra decir que esta Ley es letra muerta.

b) Los Distritos de Control de la Contaminación.

En un nivel más especifico, la SARH ha determinado15 que, de todas las cuencas existentes en el país, sólo 54 presentan serios problemas de contaminación. De éstas, 11 requieren de una atención inmediata, y tienen la particularidad de que en ellas se localizan el 64% de la carga orgánica del país, el 59% de la población, el 52% de la superficie bajo riego, y el 77% del valor bruto de la producción industrial.

Después de analizar diferentes alternativas de solución al problema de las aguas residuales, la SARH ha optado por un sistema regional de control de las aguas desechadas, estableciendo para ello el plan de los Distritos de Control de la Contaminación del Agua. Dentro de este plan de distritos, al decir de la SARH, “un organismo administrador se encarga de planear, construir y operar las obras de recolección, tratamiento y disposición de las aguas residuales del área de su jurisdicción, en forma integral, de manera que no exista una sola descarga mal dispuesta y que no satisfaga las condiciones establecidas. Estos distritos funcionan en forma autosuficiente, a través del cobro que el organismo administrador realiza a los usuarios del sistema por los servicios que se le proporcionan”. Las ventajas que la SARH adjudica al sistema de distritos son:

— Facilitan al usuario el cumplimiento del Reglamento para la prevención y control de la contaminación de aguas, ya que al contratar los servicios del distrito, y con sólo pagar las cuotas requeridas, el usuario no tiene necesidad de vigilar la conducción ni el tratamiento de sus aguas residuales, ya que esto será responsabilidad del organismo que opera el Distrito.

— Se reduce al mínimo el número de plantas y el personal de operación, garantizándose que dicho personal se encuentre altamente capacitado para llevar a cabo un manejo y operación eficientes, tanto de la conducción como de la plante de tratamiento, para que su afluente sea de la calidad requerida.

— Se evita que las industrias utilicen su capacidad de crédito, necesario muchas veces para ampliaciones e incrementos de producción, en el financiamiento del sistema de tratamiento.

— Se obtiene un ahorro en los costos de capital y de operación, debido a la economía de gran escala del sistema de tratamiento. A mayores volúmenes tratados, menores costos unitarios resultantes.

— Al tratar volúmenes mayores, se reduce la frecuencia y magnitud de los caudales máximos en relación con el caudal medio a tratar, redundando en ahorro de obras y en una mayor seguridad y flexibilidad en el tratamiento.

— Al ser obras comunales, se propicia un mayor acercamiento y una mayor comunicación entre los habitantes de la región.

— La construcción, operación y mantenimiento del sistema es autofinanciable y como la inversión se recupera en mediano plazo, se facilita la obtención de créditos para la realización de las obras.

A la fecha, sólo opera un distrito en la zona de CIVAC, en el estado de Morelos, y se piensa que a corto plazo comenzarán a funcionar los distritos de la zona Toluca-Lerma en el Estado de México, y el del Valle de Aguascalientes. Por otra parte, 22 distritos se encuentran en etapa de estudio y se piensa que para 1983 estarán totalmente terminados… a nivel de proyecto ejecutivo.

En cuanto al distrito de CIVAC, su funcionamiento real difiere apreciablemente de lo previsto dentro de los planes ideales de la SARH y esto se aprecia en una nota que apareció en el periódico unomásuno, el 11 de junio.

c) Nuevas fuentes de agua para la ciudad.

En lo que resta del sexenio se invertirán 16 mil millones de pesos para dotar de más agua al Distrito Federal trayéndola desde el río Cutzamala, y al igual que en el Sistema de Drenaje Profundo, las nuevas obras dejarán intactas las evidentes fallas estructurales que padece el actual sistema de abastecimiento. En efecto, es necesario dotar de más agua a esta ciudad que crece con ritmo vertiginoso… y es necesario también dejar intocados los intereses del capital, es decir, permitir que los industriales sigan perforando pozos sin control y que utilicen en sus procesos de producción el agua potable que se les niega a grandes sectores de la población, por tanto, dado el progresivo desgaste de los mantos acuíferos del subsuelo, sólo queda una opción, traer el agua de más lejos. Una vez más, se ha optado por la “solución” más onerosa para el pueblo —puesto que él será con su trabajo quien pague los altos costos de la obra— y al mismo tiempo la más redituable para los intereses del capital. Para el proyecto Cutzamala —que se espera terminar justamente antes de que termine el sexenio— “habrá que construir dos presas derivadoras, 180 kilómetros de tubería de concreto presforzado de 2.50 metros de diámetro, 4.50 kilómetros de tubería de acero de 3.10 metros de diámetro, 120 kilómetros de caminos de acceso y operación, una planta potabilizadora para 24 mil litros por segundo y 7 plantas de bombeo que elevarían el agua a un total de mil 100 metros”.16

Así pues, hasta antes del Proyecto Cutzamala el agua que satisfacía las necesidades de la metrópoli se extraía de los mantos del Valle de México, desechando los residuos altamente contaminados al mar por intermedio del río Pánuco, ahora, cuando el Proyecto Cutzamala se haga realidad, se alcanzará si no la racionalidad en el uso del agua sí, cuando menos, la simetría geográfica en la irracionalidad: se traerá el agua desde Guerrero, recorriendo esforzadamente cientos de kilómetros cuesta arriba, y después de ser usada, los residuos altamente contaminados mezclados con el agua limpia de lluvia se mandarán, a través de intrincadas tuberías profundas y sistemas de bombeo, hasta un lugar en el Golfo de México, a la altura del Puerto de Tampico.

Perspectivas y sentido de los estudios sobre contaminación

En función de lo anterior, ¿qué perspectivas le esperan, pues a los estudios sobre contaminación y tratamiento de aguas negras?

Sabemos que en otros países tales estudios están altamente desarrollados y, además integrados en gran medida a los procesos de producción; Estados Unidos sería el mejor ejemplo. ¿Será, acaso, porque los industriales norteamericanos tienen un sentido más desarrollado al respecto hacia las riquezas naturales? De ninguna manera: la respuesta hay que buscarla, ante todo, en los mecanismos esenciales de la dinámica capitalista; a saber, la necesidad de obtener siempre la máxima ganancia. En efecto, si allá la investigación sobre contaminación ambiental está muy desarrollada, y las técnicas anticontaminantes gozan de amplia difusión, es porque son “funcionales” al sistema, es decir, porque se pueden integrar de una manera coherente a los procesos de valorización de capital de los sectores capitalistas más representativos. Y no sólo eso. Además de que la aplicación de equipos anticontaminantes preserva los niveles de rentabilidad de las empresas que los usan, la fabricación de equipo anticontaminante es en sí una industria rentable; esto explica que cierto tipo de movimientos ecologistas hayan sido promovidos en forma activa y directa por algunos grandes trusts. En México la cuestión es muy diferente, ya que el nivel general de modernización de las empresas no acepta la introducción de equipo anticontaminante sin que resulte lesionada la rentabilidad de éstas. En cuanto al Estado, la existencia inofensiva e inoperante de una serie de leyes y programas que en principio atentarían contra el interés capitalista, sólo revela que en la sociedad actual existe una ley más fundamental que la ley escrita: la ley de la máxima ganancia. Así pues, dado el nivel general de desarrollo del capitalismo en México no se espere que, bajo una aplicación capitalista, es decir, dentro de un proceso de producción de mercancías, las investigaciones sobre los procesos de contaminación y técnicas anticontaminantes encuentren un gran desarrollo y aplicación extensiva. Así pues, ¿la investigación en México no tiene ningún sentido? Creemos que no, en general, si los cauces por los cuales pretende realizarse son los del interés capitalista. Pero hay otros cauces. En efecto, a los sectores sociales a los cuales les afecta la carencia de agua potable, la mala calidad de agua que pretende ser potable, la intoxicación del aire, el ruido, etc., sí les interesa desde luego la aplicación de técnicas racionales desde el punto de vista del valor de uso de las cosas y no del valor de cambio a los procesos de producción. A esos sectores sí les interesa que el conocimiento científico de tales procesos se desarrolle a un nivel que permita su control y dominio, también les interesa conocer el estado real de destrucción del medio ambiente. Por tanto, si los científicos que practican la ciencia aplicada miran hacia esos otros sectores, encontrarán que entre los sectores amplios de la población existe un fuerte interés potencial en sus investigaciones. Pero no solamente en el terreno de las previsiones fundamentadas podemos encontrar un sentido definido a la actividad de los investigadores en México. En la vida real se puede encontrar ya este sentido. Ciertos científicos mexicanos han jugado un papel fundamental como contestatarios de la ideología oficial. ¿Cuál sería el estado real de nuestros conocimientos sobre el desastre del lxtoc si nuestra única fuente de conocimiento hubiese sido la de PEMEX? Afortunadamente la intervención de distinguidos investigadores de la Escuela Nacional de Ciencias Biológicas nos permitió disponer de otra versión objetivamente fundamentada a partir de la cual se pudo poner en evidencia la irresponsable ligereza con la que oficialmente se enfrentó el problema. Los problemas del agua, del aire, del ruido y del medio ambiente en general requieren también de científicos contestatarios. Sin embargo, nosotros creemos que todos estos papeles que el estado actual de cosas asigna al científico en México son, en términos históricos, provisionales. Cualquier científico que mantenga un apego real al objeto de su estado deberá necesariamente aspirar a que sus conocimientos se difundan entre la sociedad y se integren prácticamente a la vida cotidiana de las masas y a los procesos de producción de la sociedad, pero esto, en las condiciones actuales, es imposible.

¿Qué más podríamos decir, pues, si no es que la ciencia, considerada como fuerza productiva, no puede ya en nuestro país integrarse al proceso de producción y que por tanto está en contradicción con las relaciones sociales de producción?

     

Notas

 * Artículo tomado de la revista de la Escuela Superior de Física y Matemáticas (ESFM) del Instituto Politécnico Nacional, (Dic. 1979).1. E. Mandel, La Proletarización del Trabajo Intelectual, Folletos de Bandera Socialista.

2. C. Bataillon y H. Riviera D'Arc. La ciudad de México, Sep. Sesentas Diana, 1979.

3. Ingeniería hidraúlica en México, Vol. IV, núm. 1, 1975.

4. Usos del agua en la cuenca del Valle de México, Memorias de la Subsecretaría de Planeación General de Uses del Agua y Prevención de la contaminación, S.R.H., s.f.

5. D. Siller, “S.A.R.H.: “Baja peligrosa de los acuíferos”, Uno más uno, Oct. 5 de 1979.

6. G. F. Figueroa Vega, “El hundimiento de la Ciudad de México; Breve descripción”, Recursos hidraúlicos. Vol. II., núm. 4, 1973.

7. R. J. Marsal y M. Mazari., El subsuelo de la Ciudad de México, UNAM, sept. de 1959.

8. Véase ref. 6.

9. Véase ref. 4.

10. Véase ref. 4.

11. K. Vázquez, Procedimiento de construcción para lumbreras del Emisor Central, Tesis Profesional, Fac. Ingeniería, UNAM, 1969.

12. S. Henriquez Aybar, “La Contaminación del Agua en México”, en F. Szekely, comp., El medio ambiente en México y América Latina, Editorial Nueva Imagen, 1978.

13. Véase ref. 11.

14. Declaraciones de Luis Sánchez Carmona, Director de Ecología Urbana de la SAHOP, Uno más uno, marzo 16 de 1978.

15. J. Aguirre y J. L. Calderón, “Los Distritos de Control de la Contaminación, una Solución al Problema de la Contaminación del Agua en México”, Tercer Coloquio sobre fisicoquímica de fluidos, I.M.P y Conacyt, 1979.

16. D. Siller, “Excesiva extracción de agua en la Cuenca del Valle, Uno más uno, diciembre 5 de 1979.

     
____________________________________________________________
     
José Antonio Peralta
Investigador del Departamento de Física de la Escuela Superior de Física y Matemáticas, Instituto Politécnico Nacional.
     
cómo citar este artículo
Peralta, José Antonio 1982. “El uso del agua en la ciudad de México”. Ciencias núm. 2, julio-agosto, pp. 42-53. [En línea]
     
R02Articulos3   menu2
   
   
José Luis Alonso
     
               
               

Cuando se enfrenta la tarea de realizar un trabajo histórico sobre algún tópico particular de la ciencia. La primera dificultad que se presenta es la pregunta: ¿sobre qué aspectos se construye una historia de la ciencia?

En la medida que se establece una concepción particular acerca de la ciencia, se justifica la inclusión de ciertos aspectos que pudiesen estar fuera del contexto según otras concepciones.

De acuerdo con lo anterior y debido a la gran diversidad de ideas que se tienen respecto a la ciencia, es necesario plantear como premisa principal que se concibe a la ciencia según las características que señala John D. Bernal, a saber “…(1.1) como una institución; (1.2) como un método; (1.3) como una tradición acumulativa de conocimientos; (1.4) como un factor principal en el mantenimiento y el desarrollo de la producción; y (1.5) como una de las influencias más poderosas en la formación de las opiniones y actitudes respecto al universo y al hombre”.1

Esta premisa permitirá presentar una visión más amplia del desarrollo de algunos puntos de interés que ofrece la termodinámica, el cual presentamos no sólo en la forma de relato cronológico, sino que intentaremos hacer evidente la relación entre requerimientos económicos, requerimientos técnicos y generación de conocimientos. Como corolario a la premisa planteada es necesario añadir la no neutralidad de la ciencia y acabar así con el mito de que la ciencia se ha construido y se construye por genialidades casuales e ingenuas.

El capitalismo y el surgimiento de la termodinámica

Al finalizar la Edad Media en Europa el sistema feudal se enfrentaba ante el elemento revolucionario de esa época, la burguesía. El mejor representante del sistema feudal era la Iglesia católica romana que se extendía por toda Europa occidental y a pesar de que empezaban sus conflictos internos, poseía, por lo menos, la tercera parte de toda la propiedad territorial del mundo católico. Esto implicaba que para que la burguesía conquistara el poder fuera necesario que destruyese esta organización central. Paulatinamente, con la evolución de la burguesía, se requería de una ciencia que impulsara el desarrollo industrial, es decir, una ciencia que investigase las propiedades de los cuerpos físicos y el funcionamiento de las fuerzas naturales. Esto motivó a que la ciencia se rebelara contra la iglesia y traspasara las fronteras establecidas por la fe.

La campaña de la burguesía para llegar al poder no sólo incluía los aspectos económicos, filosóficos y científicos, sino también la parte política y social. Esta última se llevó a cabo a través de la actividad bélica. Así pues, durante los siglos XVI, XVII y XVIII se suceden una serie de revoluciones burguesas en países como Francia e Inglaterra, que tratan de abolir los regímenes absolutistas monárquicos y establecer sistemas parlamentarios. Además, surgen conflictos entre naciones (ya que se empiezan a conformar los centros industriales, mercantiles y de consumo) para obtener recursos (litorales, ríos, carbón, etc.) y asegurar su supremacía en el campo económico.

Sin embargo, la burguesía no llegó al poder repentinamente, tuvo que hacer una transacción con los grandes feudales. De esta forma los cargos políticos, los grandes sueldos y otros privilegios les fueron respetados a las familias de la aristocracia rural, a condición de que defendiesen cumplidamente los intereses económicos de la clase media financiera, industrial y mercantil.

La iglesia no fue destruida sino que fue transformada en un aliado de la nueva clase en el poder. Esta alianza se fortalece cuando aparece el materialismo, doctrina que desenmascara a la burguesía como usurpadora del poder a costa del sacrificio de vidas campesinas. El materialismo no sólo critica a la religión, sino a todas las tradiciones científicas y a todas las instituciones políticas, tratando de demostrar su aplicación universal.

El desarrollo del capitalismo tiene un número de etapas caracterizadas por los diferentes niveles de madurez. La etapa de la Revolución industrial es una etapa de transición de una fase primitiva de capitalismo a otra fase que constituye la producción a gran escala. Esta transición se produce bajo las ideas económicas del libre juego de las fuerzas autorregulables del mercado y las constantes innovaciones técnicas.

Este periodo de actividad económica está íntimamente relacionada con un periodo de actividad científico-técnica, cuya temática central fue el desarrollo del conocimiento acerca del calor, la energía y el trabajo.

Génesis del concepto de energía

Las raíces que dieron lugar al concepto de energía son las mismas que permitieron establecer el concepto de cantidad de movimiento y el principio de su conservación, esto es el problema de las variaciones de movimiento que tienen lugar cuando los cuerpos chocan unos con otros. Luego de estudiar este problema, Christian Huygens (1629-1693) propone en 1669, como parte de su solución, la regla de que para un sistema de cuerpos en colisión, la suma de los productos de la masa por el cuadrado de la velocidad de cada uno de ellos permanece constante antes y después del choque de una colisión perfectamente elástica (sin pérdida de energía). A la cantidad mv2 se le dio el nombre de vis viva y fue utilizada como base de la teoría mecánica del filósofo y científico alemán Gottfried Wilhelm Leibnitz y en otros trabajos del propio Huygens publicados alrededor de 1700.

Utilicemos un ejemplo concreto para analizar el postulada de Huygens. Dos esferas desiguales y perfectamente rígidas se aproximan una hacia la otra con distintas velocidades, chocan y se separan. Sabemos que el principio de conservación de la cantidad de movimiento exige que:
 
fórmula (1)
 
pero Huygens proponía que, a la vez, se cumple la relación
 
fórmula (2)
 
Hay que aclarar que la expresión (2) no puede deducirse de la (1), que se trata de una ecuación escalar en la que no intervienen las direcciones del movimiento y que es válida en esta forma, tanto si A choca contra B como si B choca contra A, así la velocidad de A y B se encuentran formando un ángulo cualquiera. La primera ecuación es siempre cierta en todas las colisiones, ya sean elásticas o inelásticas; la segunda es una aproximación casi correcta para cuerpos que chocan con un coeficiente de restitución cercano a la unidad, pero no es aplicable a colisiones inelásticas.

Huygens no puso mucho interés en la vis viva, pero Leibnitz (1646-1716) la retomó y aplicó para atacar la física de Descartes. Leibnitz mantenía que la vis viva era la verdadera medida del movimiento, en contra del punto de vista geométrico de Descartes (1596­1660).

D’Alembert (1717-1783) clarificó el problema apuntando que todo el debate fue sobre palabras. El inició un nuevo tratamiento del principio de conservación de la vis viva a partir de principios mecánicos anteriores. A pesar de que Leibnitz detectó que la vis viva dependía del peso del cuerpo y la distancia recorrida, no identificó el producto del peso por la altura como una cantidad independiente importante.

La ingeniería mecánica jugó un papel importante en la formulación del concepto de energía. Su interés en las máquinas y su eficiencia le llevó a relacionar la vis viva con la potencia. La necesidad de medir la eficiencia mecánica conduce desde la noción general de potencia a la formulación del concepto de trabajo mecánico, que será definido matemáticamente como la vis viva gastada por la máquina.

La máquina hidráulica fue el modelo básico de máquina durante los siglos XVII y XVIII. En 1767, Borda (1733-1799) desarrolló el problema básico de la eficiencia mecánica de las máquinas hidráulicas, aplicando el concepto de vis viva y relacionándolo con el cambio de altura del fluido de la máquina.

Lazare Carnot (1763-1823) realiza un notable avance: relaciona la vis viva con el producto de la distancia vertical por el peso (P X h), al que llama fuerza latente o momento de actividad.

Coriolisis fue el primero en usar el término general “trabajo” para designar la integral de la fuerza y la distancia transformando:
 
fórmula
 
Algunos años más tarde, J.L. Lagrange, en su Méchanique analitique estableció que para un sistema conservativo . Sin embargo, las fuerzas disipativas de los sistemas no conservativos no cumplían con la afirmación de Lagrange, por lo que era necesario estudiar el efecto de estas fuerzas, es decir, el fenómeno del calor.

Desarrollo de las ideas sobre la naturaleza del calor

Queda todavía una extensión final del concepto de energía, la cual tiene que ver con los problemas relacionados con el calor. Fue justamente esta extensión, obtenida a mediados del siglo pasado, la que, en efecto, clarificó y amplió los diversos conceptos separados de la energía. Es, pues, importante mencionar el desarrollo de las ideas sobre la naturaleza del calor antes de discutir los aspectos cuantitativos de las transformaciones entre el calor y otras formas de energía.

Aristóteles consideraba al fuego como uno de los cuatro elementos fundamentales cuyo lugar natural se encontraba en las alturas, con lo que gran parte de la conducta observada en los cuerpos calientes podía explicarse en forma cualitativa. Los atomistas griegos explicaron las diferencias de temperatura de los cuerpos imaginando al calor como una sustancia especial, no perceptible directamente, atómica en estructura como las restantes, que se difundían a través de los cuerpos rápidamente y que, posiblemente poseía algún peso. Este concepto es útil en conjunto para explicar la mayor parte de las observaciones casuales, incluyendo el equilibrio de temperaturas que alcanzan dos cuerpos cuando, eventualmente, estén en contacto entre sí.

Sin embargo, algunos filósofos científicos del siglo XVII, como Bacon, Galileo, Boyle y Newton, tuvieron sus dudas, desconfiando de la teoría del calor como un fluido y, en su lugar propusieron que el calor podía explicarse directamente como una vibración de los cuerpos calientes. Pero ninguno de ellos pudo desarrollar esta idea de manera convincente.

El siglo XVIII presenció una proliferación de teorías basadas en fluidos imponderables. El principio de inflamabilidad, llamado flogisto, era visto como un fluido ganado y perdido por los cuerpos durante una combustión y otras reacciones químicas. Los efectos magnéticos y eléctricos eran descritos en términos de fluidos y efluvios. En este clima general de pensamiento resulta natural concebir al calor como un fluido imponderable y más y esta teoría fue, naturalmente, reforzada fuertemente por la clara y definida demostración de la conservación del calor en los experimentos calorimétricos. No es sorprendente, por tanto, que las especulaciones de los físicos del siglo XVII fueran hechas a un lado; Black, Lavoisier y otros las rechazaron explícitamente.

Lavoisier (1743-1794), cuyas investigaciones demolieron finalmente la teoría del flogisto, dio al principio fulídico del calor el nombre de calórico y la teoría de éste fue lanzada a una larga y fructífera historia llegando hasta mediados del siglo XIX, cuando abrió paso al principio de conservación de la energía. Se postuló que el fluido calórico tenía las siguientes propiedades: a) es una sustancia material que no puede ser creada ni destruida; b) el fluido es elástico y sus partículas se repelen entre sí, pero son atraídas por las partículas de otras sustancias, siendo la magnitud de la atracción diferente para distintos materiales; c) el fluido calórico puede ser sensible o latente; en el primer caso se difunde rápidamente entre las partículas atractivas y rodea a cada una con una atmósfera del fluido; en el último caso, el fluido calórico se combina con las partículas atractivas de una manera muy semejante a las de las combinaciones químicas.

Con el desarrollo de termómetros confiables, calibrados en forma reproducible, fue posible llevar a cabo experimentos cuantitativos sobre el calentamiento y enfriamiento de diversas sustancias. Black (1728-1799) fue de los que más aportó a la teoría del calórico y respecto al empleo de los termómetros afirmó: “por el uso del termómetro hemos aprendido que si tomamos… diferentes clases de materia, tales como metal, piedras, madera, corcho, plumas, lana, agua y una variedad de otros fluidos, aunque al principio entre todos ellos existen diferencias de temperatura, y si los ponemos juntos en un cuarto, sin fuego y dentro del cual brille el sol, el calor será comunicado del más caliente de estos cuerpos al más frío, durante algunas horas quizás o en el curso del día; al final de este tiempo, si aplicamos un termómetro a todos ellos en sucesión dará precisamente la misma lectura. El calor por tanto se distribuye en este caso hasta que ninguno de estos cuerpos tiene una mayor demanda o atracción por el calor que cualquier otro… El calor es llevado así a un estado de equilibrio… Debemos adoptar, por tanto, como una de las leyes más generales del calor, el principio de que todos los cuerpos que se comunican libremente entre sí y que no están expuestos a desigualdad alguna, debida a acción externa, adquieren la misma temperatura como es indicada por un termómetro”.2 De esta manera, la temperatura queda definida como un número observado en una escala y el calor como algo intercambiado entre los cuerpos, además, se vislumbra lo que será luego la ley cero de la termodinámica.

La expansión térmica se explicaba diciendo que las partículas de la sustancia en expansión obedecen a una fuerza gravitacional inversa al cuadrado de la distancia y la atmósfera calórica a una ley logarítmica; el punto donde cruzan las gráficas de ambas propiedades es la distancia entre las partículas. Así, a mayor temperatura la ley logarítmica cruza la gráfica de la fuerza gravitacional a mayor distancia. Se afirmaba además, que la fuerza de atracción gravitacional era menor en los líquidos que en los sólidos y despreciable en los gases, por ello, el coeficiente de expansión de los líquidos es mayor que en los sólidos y en los gases es el mismo. Sin embargo, el comportamiento extraño del agua nunca lo pudieron descubrir bajo estos argumentos.

Durante la realización de experimentos con agua a distinta temperatura se construyó el concepto de calor específico; al mezclar masas iguales a distintas temperaturas encontraran que ΔTa= -ΔTb. Por otra parte mediante la combinación de masas distintas de agua a distintas temperaturas se estableció que:
 
ΔTa/ΔTb = -mb/ma
 
Y al mezclar con una sustancia diferente se encontró que:
 
CxmxΔTx = -mAΔTA
 
donde el factor de proporcionalidad fue definido como el calor específico del material, y donde la cantidad Cxmx era interpretada como la cantidad equivalente de agua; por ejemplo, en el caso del mercurio Cx = 0.033 y mx = 100 g de mercurio cantidades que equivalen a 0.033 X 100 g = 3.3g de agua en relación a la capacidad de absorber calor. Así, se estableció finalmente la relación general para la combinación de n sustancias diferentes a distintas temperaturas:
 
CAmAΔTA + CBmBΔTB + CCmCΔTC + ... = 0
 
Por otra parte, las fenómenos de cambios de fase resultaban ser particularmente interesantes. Respecto a la fusión del hielo, Black fue el primero que dio una descripción correcta:

“La fusión había sido universalmente considerada como producida por la adición de una cantidad muy pequeña de calor a un cuerpo sólido, una vez que había calentado hasta su punto de fusión, y el regreso del líquido al estado sólido, como dependiente de una disminución muy pequeña de su cantidad de calor… Se creía que esta pequeña adición de calor durante la fusión era necesaria para producir una pequeña elevación de la temperatura como era indicada por un termómetro”.

“La opinión que me formé… es como sigue. Cuando el hielo o cualquier otra sustancia sólida es fundida… una gran cantidad de calor entra en ella… sin hacerla aparentemente más caliente, cuando era medida por (un termómetro)… Yo afirmo que esta gran condición de calor es la causa principal y más inmediata de la licuefacción inducida”.3

Black describe una variedad de experimentos diseñados para demostrar su argumento, entre ellos una demostración de que la temperatura del hielo expuesto en un cuarto caliente no cambia, mientras que la temperatura en una cantidad igual de agua fría se eleva significativamente. Argumenta que tanto el hielo como el agua deben estar absorbiendo el calor del aire aproximadamente en la misma proporción. Otro experimento de carácter cuantitativo le permitió calcular el calor latente de fusión del hielo en 70 cal/g. Además encontró, por analogía, el calor latente de vaporización alrededor de 539 cal/g.

A pesar de la aceptación que llegó a tener la teoría del calórico en 1780, había dos hipótesis difíciles de sostener: a) la posibilidad de que tuviera peso, y b) el fluido calórico se conserva en cualquier proceso térmico.

Un pequeño número de investigadores no estaba satisfecho con la hipótesis de que este fluido material tuviera tantas propiedades especiales. Uno de estos inconformes fue Benjamín Thomson (1753-1814). El primer punto que atacó fue el peso del calórico y después de fallidos intentos por medirlo escribió en 1799: “Creo que puedo sacar la conclusión, con toda seguridad, de que todos los intentos para descubrir cualquier efecto del calor en el peso aparente de los cuerpos, serán inútiles”.4

Thomson también dedicó su atención al calor producido por fricción y cuando estuvo supervisando la perforación de cañones en los talleres del arsenal militar en Munich hizo la siguiente consideración “la notable circunstancia de que la fuente de calor generada por la fricción en estos experimentos evidentemente parecía inagotable. Difícilmente, es necesario añadir, que cualquier cosa que el cuerpo aislado o sistema de cuerpos pueda continuar suministrando sin limitación no puede, posiblemente, ser una sustancia material; me parece que es extremadamente difícil, si no imposible, formar alguna idea clara de algo capaz de ser excitado y comunicado de manera la cual al calor fue excitado y comunicado en estos experimentos, que no sea movimiento”.5

En 1830 Humphry Davy continuó el ataque de Thomson al calórico. A pesar de las múltiples objeciones la teoría del calórico no fue abandonada inmediatamente, sin embargo, Laplace y Lavoisier, en su Memoria sobre el calor, de 1786, consideraron las hipótesis rivales del calor como movimiento y del calor como fluido calórico y escribieron: “Nosotros no decidiremos en absoluto entre las dos hipótesis anteriores. Varios fenómenos parecen favorables a una, tal como el calor producido por la fricción de dos cuerpos sólidos, por ejemplo; pero existen otros que son explicados en forma más simple por la otra; quizá ambas sean válidas al mismo tiempo… En general, uno puede cambiar la primera hipótesis a la segunda cambiando las palabras calórico libre, calórico combinado y calórico liberado por vis viva, pérdida de vis viva e incremento de vis viva”.6

Hacia 1830 Europa se encontraba en pleno apogeo de la revolución tecnológica. La industria dependía de la máquina de vapor para obtener la potencia mecánica generada por el calor suministrado por los combustibles. Faraday (1791-1867) había descubierto la inducción electromagnética y construido generadores eléctricos primitivos que se estaban usando en experimentos de todas clases. En esta atmósfera, James Prescott Joule (1818-1889), que concibió la idea de una posible relación cuantitativa entre el trabajo y el calor, realizó una larga serie de experimentos cada vez más exactos sobre la producción de calor en el agua por efectos de fricción. En 1850 publicó un extenso resumen de resultados con una aseveración final:

“La cantidad de calor producida por la fricción de cuerpos, ya sea en sólidos o líquidos, es siempre proporcional a la cantidad de trabajo gastado. La cantidad de calor capaz de aumentar la temperatura de una libra de agua… en 1°F requiere para su evolución el gasto del trabajo mecánico representado por la caída de 772 lb a través del espacio de un pie”.7

Los experimentos de Joule, junto con el trabajo y el pensamiento de algunos de sus contemporáneos, condujeron a la formulación de la ley de conservación de la energía. Esta síntesis prodigiosamente fértil de la mecánica y la teoría del calor invitaba a retornar al punto de vista inicial del calor, considerándolo como asociado con el movimiento de las partículas constituyentes.

Conservación de la energía

La generalización y extensión del principio de conservación durante la década inicial en 1840 condujo, finalmente, al abandono de la teoría del calórico. La primera enunciación publicada del principio de la conservación de la energía apareció en un trabajo altamente especulativo, casi metafísico, en Annalen der Chemie und Pharmacie de Justus Liebig en 1842. El autor era Julius Robert Mayer (1814-1878) y el trabajo se titulaba “Comentarios sobre las fuerzas de naturaleza inorgánica”. En él, Mayer establecía lo siguiente:

“Las fuerzas (energías) son causas; consecuentemente, podemos, en relación con ellas, hacer una aplicación total del principio causa aequat effectum. Si la causa c tiene el efecto e, entonces c = e, a su vez, e es la causa de un segundo efecto f, tenemos e = f así sucesivamente… Es una cadena de causas y efectos, un término o una parte de un término; nunca puede, como aparece claramente en la naturaleza de una ecuación, volverse igual a nada. Esta primera propiedad de todas las causas la llamamos su indestructibilidad. Si la causa dada c ha producido un efecto e igual a sí misma, en ese mismo acto ha dejado de ser c y se ha vuelto e… Esta capacidad de tomar varias formas es la segunda propiedad esencial de todas las causas. Tomando ambas propiedades juntas, podemos decir, las causas son cuantitativamente indestructibles y cualitativamente objetos convertibles”.

“Dos clases de causas ocurren en la naturaleza, las cuales, hasta donde va la experiencia, nunca pasan una a la otra. La primera clase consiste de tales causas que poseen las propiedades de peso e impenetrabilidad, estos son tipos de materia; la otra clase está compuesta de causas que están faltando en las propiedades apenas mencionadas, a saber fuerzas (energías)… Las fuerzas son, por tanto, indestructibles, convertibles, objetos imponderables”.8

Este razonamiento metafísico de dudosa lógica difícilmente iba a encontrar respeto en la comunidad científica a su tiempo. Además, la cuestión de la convertibilidad e indestructibilidad de la energía depende de la prueba experimental por un lado y, por otro, de una definición apropiada del concepto de energía, más bien que de una identificación a priori de la energía basada en nociones vagas de causa y efecto. Sin embargo, Mayer trató de justificar sus afirmaciones y mediante los pocos trabajos experimentales que realizó, encontró una nueva expresión para el trabajo dada por W = PΔV, así como un equivalente mecánico del calor.

Pero fue Joule el que más se esforzó por encontrar una equivalencia entre el calor y la energía mecánica. Con su amigo William Thomson llevó a cabo una cuidadosa investigación del comportamiento de los gases, para determinar hasta qué punto la energía potencial podría ser almacenada o liberada durante la expansión, sometiendo el análisis, hecho inicialmente por Mayer, a una prueba más crítica. En una conferencia ofrecida en Manchester en 1847 Joule expresó:

“La opinión que más ha prevalecido últimamente, ha sido que (el calor) es una sustancia que posee, como cualquier otra sustancia, impenetrabilidad y extensión. Nosotros hemos demostrado, sin embargo, que el calor puede ser convertido en fuerza viviente (energía cinética) y en atracción a través del espacio (energía potencial). Es perfectamente claro, por tanto, que salvo que la materia puede ser convertida en atracción a través del espacio, que es una idea demasiado absurda para considerarse por un momento, la hipótesis de que el calor debe ser una sustancia debe abandonarse. Por tanto, el calor debe consistir ya sea en fuerza viviente o en atracción a través del espacio… Estoy inclinado a creer que se encontró que ambas hipótesis eran correctas;… se encontrará que el calor sensible consiste en la fuerza viviente de las partículas de los cuerpos en los cuales es inducido; mientras que en otros (casos), particularmente en el caso del calor latente, los fenómenos son producidos por le separación de partícula a partícula, de manera que haga que se atraiga una a otra a través de un espacio mayor”.9

Luego de una aceptación lentamente creciente del principio enunciado por Mayer y Joule, el concepto fue extendido cuantitativamente para que incluyera otros fenómenos mecánicos, tales como propagaciones ondulatorias y flujo de fluidos. El físico alemán Helmholtz (1821-1894) publicó un trabajo en 1847 en el cual dio un tratamiento cuantitativo de la energética de ciertos fenómenos eléctricos, magnéticos y químicos, simples. La conservación de la energía tuvo un importante papel en el desarrollo de una comprensión de la luz y el electromagnetismo; es, por otra parte uno de los pilares fundamentales de la teoría de la relatividad.

En un periodo de más de 120 años, los científicos han desarrollado una profunda fe en la validez fundamental de las leyes de la conservación como expresiones de orden en la naturaleza. Es, por tanto, deseable analizar poco más profundamente el estado lógico de estas aseveraciones. ¿Son las leyes de conservación definiciones o convenciones esencialmente convenientes?, como Poincaré implica en algunas de sus discusiones. Si, en algunos casos, la ley de la conservación de la energía pareciera que fallara ¿podremos siempre ser capaces de rehabilitarla inventando una nueva partícula o una nueva forma de energía?

Al respecto, Karl Popper, el lógico y filósofo de la ciencia, argumenta que las hipótesis científicas nunca pueden ser conclusivamente verificadas debido a que es imposible probarlas para cada uno de los infinitos casos particulares a los cuales podrían aplicarse, pero señala que las hipótesis científicas podrían, por lo menos, diferenciarse de los sistemas matemáticos o aún metafísicos por el criterio de falsificación; debe ser posible, en principio, refutarlas o demostrar que son falsas recurriendo a la experiencia:… “lo que caracteriza al método empírico es su manera de exponer las falsificaciones, en toda forma concebible, al sistema que va a ser puesto a prueba. Su mira no es salvar las vidas de sistemas insostenibles sino, por el contrario, escoger aquél que por su comparación sea el que más se ajusta, exponiéndolos a todos ellos a la más fiera lucha por la supervivencia".10

El profesor Bridgman argumenta que sus leyes de conservación son realmente infalsificables en este sentido; que están lejos de ser tautologías o convenciones puras:

“Un comentario de Poincaré es a menudo citado al efecto de que si alguna vez encontramos que la ley de conservación de la energía pareciera fallar, la recobraríamos inventando una nueva forma de energía. Esto me parece a mí que es una engañosa y parcial caracterización de la situación. Si en cualquier situación específica la ley claramente fallara, indudablemente nosotros trataríamos primero de mantener la ley inventando una nuevas forma de energía, pero cuando la hubiéramos inventado demandaríamos que fuera una función (de números o parámetros, que describen el estado del sistema) y que la ley continuara siendo válida para toda la infinita variedad de combinaciones, en las cuales los nuevos parámetros podrían hacerse intervenir. Que la conservación continuara siendo válida bajo tales condiciones extendidas, podría determinarse solamente por el experimento. El concepto de energía está muy lejos de ser simplemente una convención”.11

     

Notas

1. Bernal, John D. La Ciencia en la Historia, ed. Nueva Imagen, México, 1979, p. 40.
 
2. Citado por Arons, Arnold B. Evolución de los Conceptos de la Física, ed. Trillas, México, 1970, pp. 432-433.
 
3. Citado en Arons, Arnold B., op. cit., p. 438.
 
4. Citado en Holton, Gerard y Brush, Stephen G. Introducción a los conceptos y teorías de las Ciencias Físicas, ed. Reverté, México, 1979, p. 386.
 
5. Idem, p. 446.
 
6. Citado en Holton, Gerard y Brush, Stephen G., op. cit, p. 443.
 
7. Idem, p. 446.
 
8. Idem, p. 458.
 
9. Idem, p. 458.
 
10. Idem, p. 451.
 
11. Ibídem.
     
____________________________________________________________
     
José Luis Alonso
Estudiante de la carrera de Física                                                                                       Facultad de Ciencias, Universidad Nacional Autónoma de México.
 
 
cómo citar este artículo
Alonso, José Luis 1982. “Energía, trabajo y calor: un enfoque histórico”. Ciencias núm. 2, julio-agosto, pp. 26-33. [En línea]
     

 

       
 
  menu2
               
  R02B03

 
Estudios sobre radiación solar en el Instituto de Geofísica-UNAM
Nota de los editores 
   
   
     
                     
                   
La geofísica ha contribuido indudablemente al avance de la
civilización moderna. Sus estudios han ampliado el entendimiento de los fenómenos que tienen lugar tanto en el interior de la Tierra, como en la superficie, en la atmósfera y en el llamado espacio circunsterrestre; así como la comprensión de las leyes que los gobiernan, incluyendo los efectos que las radiaciones electromagnéticas y corpusculares del Sol ejercen sobre nuestro planeta.

El Sol, con un diámetro de 1.4 millones de km y a una distancia promedio de la Tierra equivalente a 150 millones de km., es la fuente principal de la energía que regula los fenómenos atmosféricos terrestres. Su espectro de emisión corresponde aproximadamente a la emisión de un cuerpo negro con temperatura de 5785 °K. La Tierra, al moverse alrededor del Sol en una órbita elíptica, da lugar a que la energía que sobre ésta incide varíe durante el año de 1.44 X 103 watts/m2 a principios de enero, hasta 1.35 X 103 watts/m2 a finales de junio. Esta variación origina en parte, la asimetría observada en la climatología de los hemisferios norte y sur.

Actualmente, el grupo de investigación en “radiación solar” del Instituto de Geofísica de la UNAM, el único de su género en América Latina, lleva a cabo trabajos de investigación en torno a la emisión de energía solar, al tiempo que realiza estudios sobre su interacción con la atmósfera y superficie terrestre.

Estas investigaciones tienden a establecer las regularidades del comportamiento de la energía solar, tanto en el espacio como en el tiempo, así como a utilizar la información contenida en las mediciones espectrales de radiación solar relacionadas con los diferentes componentes­, gases y partículas que forman la atmósfera.

El enfoque interdisciplinario de los estudios en esta área, como todos los de Geofísica, contiene no solamente el planteamiento matemático como expresión en los modelos físicos, sino que éstos a su vez están fundamentados y se ven enriquecidos por los trabajos experimentales de campo y laboratorio. Tan es así, que los estudios toman en cuenta la naturaleza física y química de los fenómenos considerados y se intenta, en todos los casos, encontrar no sólo las regularidades sino también las interrelaciones que existen entre ellos, estimando que la abstracción necesaria para poder diseñar los modelos es sólo el primer paso para entender la dinámica compleja de la naturaleza.

El grupo de “radiación solar” trabaja sobre el transporte de energía radiante a nivel planetaria, problema que incluye el estudio de fenómenos como la disipación de perturbaciones térmicas y procesos de emisión y absorción en la atmósfera superior. Se investigan, también, las variaciones que determinan la climatología solar de algunas regiones con base en largas series de datos de flujos de radiación a nivel de superficie.

El Instituto de Geofísica está equipado con un observatorio de radiación solar y atmosférica, que forma parte de la Cadena Mundial de Estaciones Actinométricas, el cual cuenta con un espectrofotómetro estándar —el número 98 de la Red Ozonométrica Mundial—, cuyas observaciones permiten registrar las variaciones que a la latitud de la Ciudad de México sufre la capa de ozono. Como se sabe, variaciones significativas de la cantidad de O3 pueden afectar las condiciones normales de la vida en la tierra.

En el grupo de radiación también se estudia el fenómeno del aerosol atmosférico, esto es, el sistema de partículas en suspensión en el aire y que por la gran variedad de fuentes que lo producen, naturales y antropogénicas, constituye uno de los componentes más complejos de la atmósfera terrestre. En esta dirección se mantienen dos grupos de trabajo: uno que analiza directamente las propiedades físicas y químicas del aerosol y otro que las estudia indirectamente a través de la recuperación de la información que, sobre dichas propiedades, contienen las características radiacionales observadas a nivel de superficie. Los mismos trabajos se aplican al estudio de materia en suspensión en medios acuosos: oceános, lagos, etc., con el propósito de desarrollar modelos teóricos que sean de utilidad en técnicas de percepción remota para la determinación de las características físicas y biológicas de esos medios.

Como parte del equipo con el que cuenta el grupo de “radiación solar” se tienen aparatos patrones que permiten garantizar la confiabilidad de las observaciones. Además, se han desarrollado nuevos instrumentos que permiten ampliar las posibilidades experimentales en el estudio del campo de la radiación solar.

  articulos  
_____________________________________________________________

cómo citar este artículo
Nota de los editores y (reportaje). 1982. “Estudios sobre radiación solar en el Instituto de Geofísica”. Ciencias núm. 2, julio-agosto, p. 35. [En línea]
     
 
     

 

       
 
  menu2
               
  R02B05

 
Evolución estelar
Nota de los editores
   
   
     
                     
                   
La formación de una estrella en el universo y su destrucción
son cosas verdaderamente maravillosas que tal vez nunca tengamos oportunidad de admirar; no obstante, gracias a la ciencia podemos saber cómo ocurren estos fenómenos, cuáles son sus características y cuál es su desarrollo.

Un caso del “nacimiento de una estrella” es el fenómeno llamado Nova, y se debe a un agrupamiento de gases en el espacio exterior. Su formación es el resultado de un proceso evolutivo que tarda miles, y a veces millones de años. Estos gases realizan un movimiento circular en el que se combinan los diferentes elementos de los que se componen, provocando múltiples reacciones atómicas de gran magnitud, hasta que llega el momento en que los gases son tan densos y se atraen con gran fuerza que se forma un núcleo que emite una fuerte cantidad de energía. A esta conformación estelar los científicos le han dado el nombre de Nova.

La actividad de estas estrellas dura millones de años y la energía que emiten es causada por las reacciones atómicas provocadas en la superficie estelar. Al llegar la actividad atómica y al núcleo, éste se sobreexcita a tal grado que se produce una explosión de enormes proporciones, lanzando fragmentos de materia a velocidad de miles de km/seg, liberando gases en todas direcciones, y creando, en lo que fuera el centro de la estrella, un vacío completo ya que la explosión barre con todo tipo de gases y materiales que se encuentren alrededor de la estrella. A esta súbita liberación de energía provocada por la explosión del núcleo estelar se le conoce como Supernova.

los fragmentos y gases expulsados al espacio, debido al fenómeno de la Supernova, se les llama remanentes y son el principio de otras nuevas estrellas. Asimismo, esos gases y los fenómenos nucleosintético, que transmutan el hidrógeno y el helio en elementos como carbón y fierro, forjaron las substancias químicas necesarias para la aparición de la vida. En otras palabras, con su muerte, las viejas estrellas, hicieron posible la vida de las siguientes generaciones.

  articulos  
_____________________________________________________________

cómo citar este artículo
Nota de los editores 1982. “Evolución estelar”. Ciencias núm. 2, julio-agosto, p. 54. [En línea]
     
 
     
R02Articulos4   menu2
   
   
Nota de los editores
     
               
               
Rastrear el origen de alguna de las instituciones o
dependencias univesitarias presupone la existencia de la propia universidad, de modo que cuando preguntamos al maestro Juan Manuel Lozano*, director de la Facultad de Ciencias en el periodo 1969-1973, acerca de los inicios de la Facultad, tuvimos la sospecha de que el relato se remontaría a la fundación de la Universidad Nacional; no nos equivocamos. He aquí sus palabras en relación con lo que él llama "la parte vieja de la historia".

Revista Ciencias: ¿Cómo surge la Facultad de Ciencias en México?

Juan Manuel Lozano: ¿Qué tan atrás me voy?, porque los antecedentes son la fundación de la Universidad en 1910.

RC: Más bien tenemos la curiosidad de saber qué necesidad hubo para que se hicieran las carreras de tipo científico.

JML: Yo creo que el hombre clave en lo referente a los estudios de Física y Matemáticas en México, fue un tipo que no hizo la carrera, ni estuvo nunca en la Facultad de Ciencias: Sotero Prieto.

Pero déjame platicar brevemente la parte vieja de la historia. La Universidad se fundó en 1910 por una iniciativa de Justo Sierra quien en el discurso de inauguración, señaló con bastante claridad que esta Universidad no es una especie de resurrección de la anterior, y que la otra es simplemente el pasado. Esto me parece muy importante pues podría uno pensar a la ingenua, que al desaparecer la vieja Universidad en la época de Maximiliano (lo que le pareció muy bien a Juárez) se disgregó y quedaron algunas escuelas profesionales aisladas, y después, lo que hizo Justo Sierra fue volverlas a juntar administrativamente; eso no es cierto. La Universidad nació de juntar a la escuela de Ingenieros (que nunca había estado en la Universidad vieja, pues era aparte, era el tal Colegio de Minas), la Escuela de Bellas Artes que incluía la carrera de arquitecto y que nunca estuvo en la Universidad; la escuela de Medicina, que era una casa nueva que se creó en la época de Gómez Farías y que se llamó Establecimiento Médico Mexicano, donde querían enseñar medicina más moderna, no ver historia de la medicina, sino estudiar medicina (porque en la Universidad seguían estudiando medicina con las obras de Galeno y de Hipócrates). Además, la escuela de Derecho, que creo es la única que sí estaba, más la preparatoria que había sido fundada en la época de Juárez.

Justo Sierra reunió esas cinco escuelas y agregó una completamente nueva, que era la Escuela de Altos Estudios (EAE). Ésta era para que algunos fulanos hicieran estudios más a fondo sobre algunos temas, entre los cuales debería estar ciencias naturales. En principio, la EAE iba a preparar gente en filosofía, letras, historia, matemáticas, física y biología.

RC: ¿Así específicamente en estas áreas?

JML: Sí. Querían que se desarrollaran ciencias, pero la que más o menos lo hizo fue biología; de física que yo sepa no se enseñó nada y de matemáticas se enseñó un poquito, poco pero se enseñó algo con Sotero Prieto. Ya en el año de 1912, Sotero Prieto dio un curso de funciones analíticas.

Me parece muy sorprendente que un mexicano hubiera aprendido matemáticas completamente solo, y que, además, hubiera alguien que se inscribiera a tomar la materia, pero en fin, comenzó a dar esto; por otra parte, Sotero Prieto se daba cuenta de que la gente no sabía ni física ni matemáticas. Aunque él tenía bastantes dudas, según me han dicho, de que los mexicanos pudieran hacer ciencia, decía que por lo menos debían estar enterados de las ciencias para no quedarse rezagados y que no les dieran atole con el dedo.

Don Sotero era un profesor extraordinariamente bueno; sus alumnos dicen que era una maravilla. Daba clases de matemáticas en la preparatoria y en la Escuela de Ingenieros y como había pocos alumnos, prácticamente él era “el profesor” de matemáticas. Ahí entusiasmaba a algunos tipos. Quizá el primero que se entusiasmó con las matemáticas, muy en serio, era un muchachito, se llamaba Manuel Sandoval Vallarta, que fue alumno de Sotero en el año de 1914-1915; quedó tan entusiasmado que se fue al MIT (Instituto Teconológico de Massachusetts ), en donde se doctoró en física.

Por otra parte existía; no sé si todavía existe, la academia de Ciencias Antonio Alzate, aquí estaban algunos que habían sido alumnos de Sotero Prieto y él mismo. Se juntaban una vez por semana a platicar de matemáticas o de física y platicaban de lo que leían:… “fíjense que me encontré tal cosa, está muy interesante”…, y se lo platicaban a los demás. Entre estos estaba, por ejemplo, Nápoles Gándara, Mariano Hernández y otros ingenieros y profesores.

Alrededor de 1930 fue cuando llegaron de estudiantes Graff y Barajas, entraron a tomar clases con Sotero y él los invitó a ir al seminario.

Sandoval Vallarta tenía una costumbre un poco especial de venir a México todos los veranos, que para mí era una proeza deportiva, porque se venía manejando él solo desde Boston. Para entonces, don Manuel ya era un tipo de prestigio y creo que una de las cosas que contribuyeron a entusiasmar gente es que en el seminario de la Academia Alzate, de repente había un mexicano (que además nunca quiso hacerse gringo aunque se lo ofrecieron; creo que hasta lo presionaron, pero nunca quiso) que no hablaba de lo que decían los libros sino de lo que él había hecho. Eran así las primeras veces que se podía hablar de investigación hecha por un mexicano. Yo creo que de ahí se generó mayor interés y se vino a crear algo de ciencia.

Así pues, estaba Sotero Prieto que era el profesor de todos los alumnos, incluyendo a don Manuel, de la generación anterior, Nápoles, Hernández y los alumnos jóvenes del momento que eran Graff, Barajas y Carrillo. Tomaban clases con Sotero Prieto, pero no sólo la clase de la carrera de ingeniero, sino que ofrecía otras cosas; por ejemplo, un curso de Análisis pero sin créditos ni nada y sin prisas; entonces estudiaban eso porque les daba la gana, por interés. También les platicaba de cosas de física que él conocía, que había estudiado solo y así crecía el interés de los alumnos.

Por otra parte, estaba Monges López, que era muy buen ingeniero y le interesaba mucho el asunto de la Geofísica. Tengo entendido que Monges López quiso estudiar física más en serio, más de lo que debía saber un ingeniero mexicano de la época, pero ya estaba viejo para empezar, para entonces ya era un cuarentón. Pero se le ocurrió que sería importante que hubiera un lugar dentro de la Universidad en donde fuera posible estudiar física o matemáticas, entonces lo que hizo fue la “grilla” necesaria para que se fundara un centro para eso. Primero se crearon dos departamentos uno de física y otro de matemáticas, tengo entendido que era una especie de superestructura de la escuela de Ingenieros. El departamento de matemáticas estuvo a cargo de Sotero Prieto, y no recuerdo quién era el encargado del departamento de matemáticas.

RC:Entonces, ¿las carreras surgen por interés de algunas personas, más que por una necesidad social?

JML: No creo que se tuviera una idea clara de la necesidad social, se tenía una idea de que hubiera mexicanos que estuvieran al día, hasta ahí. Lo que sí se veía es que todo era extranjero, principalmente gringo, inglés o francés, incluso los técnicos eran gringos ingleses o franceses; lo malo fue que Sotero Prieto murió en 1935, era un hombre de 50 años, no estaba viejo.

Al año siguiente, en 1936 promovió Monges López la creación de una escuela Nacional de Ciencias Físico-Matemáticas ya con cierta independencia, una escuela como tal, en donde se podía en principio, estudiar más física y más matemáticas de lo que se estudiaba en la Escuela de Ingenieros.

En 1936 se creó la Escuela de Ciencias Físico-Matemáticas, sobre todo porque en la Escuela de Altos Estudios, que se había convertido en la Facultad de Filosofía y Letras en 1929, y que fue la primera facultad que hubo en la Universidad, se enseñaba Biología en forma regular y había fulanos que obtenían su papel al final, su grado; pero Física y Matemáticas, no.

Si acaso Nápoles Gándara daba alguna clase, pero un tanto aislado, o sea, nunca se estructuró nada en Física o en Matemáticas; entonces Monges López quiso que esto se hiciera, recurriendo a profesores como algunos de los ingenieros que habían estudiado con Sotero Prieto y sabían un poco más. Luego, en 1938, se le ocurrió a Monges López crear un Instituto, que se llamó Instituto de Investigaciones Físico-Matemáticas (IIFM).

Por otra parte ya existía en la Casa del Lago el Instituto de Biología que se había fundado varios años antes fuera de la Universidad, pero en 1929 pasó a formar parte de la UNAM. También existía el Observatorio que tenía muchos años, desde la época de Díaz Covarrubias y el general Rivapalacio; existía el Instituto de Geología también, pero no había nada de Física y de Matemáticas.

En 1938 regresó a México el ingeniero Alfredo Baños, que había conocido a Sotero Prieto y se había ido al MIT, donde estuvo trabajando con Sandoval Vallarta y se doctoró allá. Entonces era un primer mexicano que iba a vivir en México —porque Sandoval Vallarta no vivía en México sino en Estados Unidos— y que tenía un doctorado en Física. Entonces se nombró a Baños, que era muy joven para dirigir el Instituto (IIFM) y algunos amigos para que trabajaran con él.

RC: ¿Qué estudiaron?

JML: Radiación cósmica, que era la rama que trabajó Baños con don Manuel. Apenas se creó el Instituto, Monges López siguió moviendo las cosas y se le ocurrió una nueva estructura, de la que estuvo hablando con Baños, con Ochoterena, que era el director del Instituto de Biología y con Alfonso Caso, que en esa época era director de la Facultad de Filosofía; entonces los cuatro mandaron al Consejo Universitario un proyecto nuevo.

Lo que propusieron a fines de 1938 fue que se creara una Facultad de Ciencias que abarcara todas las ciencias, en donde se formaran profesores e investigadores; además quería que la Facultad tuviera organización departamental y que asociado a cada departamento hubiera un Instituto de Investigación, independientes administrativamente pero formando una especie de unidad académica.

Una cosa que revela el tipo de ideas que tenía Monges López es esto: no pensaba que la facultad debía tener investigadores; sino que los investigadores estuvieran adscritos a los institutos y que se dieran clases en la Facultad. Se constituyó también el Consejo de la Investigación Científica, pero con la idea de coordinar no de mangonear. El coordinador era el que presidía las reuniones del Consejo, era el director de la Facultad de Ciencias y la presidencia se rotaba entre los directores.

Entonces la idea es que se creara una Facultad de Ciencias, esencialmente formada con, me parece seis departamentos: Matemáticas, Física, Biología, Química, Astronomía y Geofísica, y que entonces se aprovechara el Instituto de Biología y de Astronomía, que ya existían, el de Físico-Matemáticas que debería partirse en dos para ser uno de Física y otro de Matemáticas, y que se creara el de Química y el de Geofísica, con la idea de que los investigadores de los institutos fueran los profesores de la Facultad, y que los egresados de la Facultad se convirtieran en los nuevos investigadores de los Institutos.

El Consejo Universitario aprobó el proyecto y lo primero que se creó dentro de esta estructura, ya formalmente, fue el Instituto de Física a fines de 1938, y la Facultad de Ciencias que empezó a trabajar, ya con ese nombre y con la idea de que esas estructuras se llegaran a consolidar, a partir del primero de enero de 1939.

Pero hubo problemas, por una parte el Instituto de Matemáticas no se creó en ese momento, estaba dentro de toda la idea, pero su creación formal tuvo que esperar como tres años. Creo que fue para 1942 cuando se fundó oficialmente. Por otra parte, el departamento de Química funcionó creo que nada más un año, porque hubo oposición por parte de la Escuela de Química.

La otra dificultad que hubo en los primeros años, eran los biólogos, que tenían una carrera formalmente constituida en la Facultad de Filosofía, no quisieron cambiarse, insistieron en seguir en Filosofía y fue hasta el año de 1945 más o menos, que decidieron que sí se pasaban a Ciencias. Entonces el departamento de Biología de la Facultad empezó a funcionar de hecho con bastante retraso como 5 o 6 años respecto a los otros dos.

El de Astronomía nunca se consolidó, aunque crearon una carrera de astrónomo no hubo nunca un egresado de ella. La idea que había era que el astrónomo debía ser primero físico y que después, en los estudios de posgrado, se hiciera astrónomo.

Entonces las materias que oficialmente pertenecían a la carrera de astrónomo no se ofrecían, los astrónomos enseñaban unas materias especiales que no daban créditos, las cursaban aquellos físicos a los que les interesaba la astronomía. Eran cuatro cursos a lo largo de la carrera que servían de “gancho” para pescarse algunos físicos y luego convertirlos en astrónomos. Fue ahí donde agarraron a Arcadio Poveda, Eugenio Mendoza, en fin, a los astrónomos más viejos de aquí. Y además ya para entonces estaba Paris Pishmish aquí en México, y había quien hablaba de astrofísica teórica. No era la única pero indudablemente su contribución ha sido muy importante.

Hasta antes de que se incorporaran los biólogos, lo que estuvo existiendo con el nombre de Facultad de Ciencias era simplemente la Escuela de Ciencias Físico-matemáticas con el nombre cambiado.

RC: ¿Cómo le hicieron para estructurar el primer plan de estudios en Física?

JML: Cómo hicieron el primero, de verdad, no sé; pero me imagino que le pidieron a Baños que lo hiciera ya que era el único físico propiamente formado que había en México.

RC: ¿El plan de estudios que tenemos ahora es el que se reestructuró por semestres?

JML: Eso fue en 1966 y entró en vigor en 1967.

Pero el origen de ese plan es más antiguo porque lo que se hizo fue partir muchas materias en dos.

El plan de estudios de la ECFM no sé quien lo hizo, habría que preguntarle a alguien más viejo que yo, pero me imagino que intervino de manera particular Monges López. Tampoco sé exactamente cuál es el plan, sería cosa de buscar en los archivos, pero deben estar hechos un relajo o en los archivos del Consejo Universitario, ahí seguramente están. Ahora, cuando se fundó la Facultad me imagino que intervino Baños, que ya era físico.

RC: ¿Y los actuarios?

JML: ¡Ah! Eso fue así. El ingeniero Velarde, y me parece también el ingeniero Solórzano estuvieron “grillando” un poco a Nápoles Gándara, que era el jefe del Departamento de Matemáticas, porque los jefes de Departamento eran los directores del Instituto correspondiente, y a Monges López para que se creara dentro del departamento de Matemáticas, la carrera de actuario.

El argumento que daban era que un actuario debería saber más matemáticas que las que se estudiaban en otras escuelas, y que entonces para que tuvieran más álgebra, más analítica y más cálculo, debían estar dentro de la Facultad de Ciencias, eso fue el argumento central.

Entonces la carrera de actuario se empezó a ofrecer formalmente en el año de 1947, en el que hubo un alumno, que fue el primero que obtuvo el título de actuario en México, Alejandro Hazas (quien fue profesor de la Facultad).

Pero las materias de actuaría las iba a tomar a los despachos de los profesores; resultaba más cómodo ir a platicar un rato al despacho de un profesor que ir a dar clase a un solo alumno. De cualquier modo, éramos muy pocos alumnos, digo éramos, porque en 1947 entré yo. En esta época a los alumnos nos veían como bichos raros y hasta tengo la impresión de que había gente a la que no le gustaba que existiera la Facultad.

El costo por alumnos de ciencias, ha de haber sido elevado y aunque era muy pequeña, tenía muchos votos en el Consejo Universitario. Sí, porque si se suman los directores de los Institutos, más el director de la Facultad, más el profesor, más el alumno, era un grupo muy grande de votación y muy chico el número de personas involucradas.

En la época que estuvo Monges López (8 años) y por lo menos el primer período de Barajas, yo creo que un trabajo central era hacer la ”grilla” para mantener viva la Facultad. Había profesores muy buenos, como Graff y Barajas que eran sembradores del entusiasmo. Uno tomaba clases con Graff o Barajas y salía uno contento, muy satisfecho de esas clases.

Antes de 1947, se crearon dentro del departamento de Física dos carreras, que eran la de Físico-teórico y la de Físico experimental y así se quedó bastante tiempo.

El año de 1953 es un año importante, porque es el año en que la Facultad se cambia de casa, y dejamos de estar arrimados en la escuela de Ingenieros y nos venimos a la Ciudad Universitaria.

¡Ah! por cierto en 1952 también ya estaba el edificio de Van de Graaf y el primer grupo que trabajó en la Ciudad Universitaria fue el Instituto de Física. Todavía no se podía entrar normalmente a la Universidad, estaba en construcción y todavía no se entregaba Ciudad Universitaria a la Universidad.

Se entregó el 20 de noviembre de 1952, 10 días antes de terminada la presidencia de Miguel Alemán. En donde por cierto hay el único antecedente de que el Presidente de la República haya dicho quien quería que fuera rector de la Universidad. El era miembro de la Junta entonces y dice que nunca más recibieron algún tipo de indicación.

Le pidió a la Junta de Gobierno a través de alguno de los miembros, que reeligiera a Luis Garrido. El argumento que daba Alemán es que aunque ya sabía que Luis Garrido no quería, él había sido el principal promotor de Ciudad Universitaria, y quería que la entrega de Ciudad Universitaria fuera al rector que había promovido su creación y no a uno nuevo. Entonces pidió que lo volvieran a nombrar para poder entregarle la Ciudad Universitaria, y de hecho así fue.

Bueno, entonces ya estaba terminado el Van de Graaff y había gente trabajando. En el edificio actual de la Facultad de Filosofía y Letras y se instaló por unos meses la Facultad de Ciencias, pero nada más el departamento de Física y el de Matemáticas, que eran los que estaban en ingeniería, porque los biólogos estaban en Ezequiel Montes 115 donde hay ahora una escuela que se llama Leonardo Bravo. Y se pasó también el Instituto de Física y el Instituto de Matemáticas; sobraba mucho espacio.

También podría ser interesante mencionar que los primeros exámenes de Licenciatura que se hicieron en Ciudad Universitaria, fueron de la Facultad de Ciencias, y el primer examen de doctorado también; fue en Matemáticas.

A principios del 1954 empezó a haber algo de servicio de camiones, pero de cualquier modo la cosa andaba muy deficiente.

Otro cambio que también es interesante era que alrededor del año de 1945 o 1946, cuando se crearon las dos carreras de Física, se cambió el nombre de grado que se daba. Porque, antes, al terminar la carrera si presentabas la tesis se obtenía el grado de maestro, no había licenciatura entonces, sólo maestría. Los primeros que se recibieron como Barajas, Fernando Alba, Moshinsky, no tienen licenciatura, tienen maestría y después el doctorado. Hay uno, Fernando Prieto que se recibió en 1948 y que tiene título de licenciado en Física. Todos los que se recibieron en 1948 y que tiene título de licenciado en Físico-teórico o de Físico experimental y así fue por varios años después lo cambiaron, y aunque estaban las dos carreras, el título era uno: Físico. La maestría había quedado, como creo que debería ser, propiamente para posgrado. En 1954 se incrementó enormemente el número de alumnos, tanto que el primer año eran como 30 y eso era un gentío.

En el año de 1947 cuando yo entré éramos en total 12, sumando los físicos y los matemáticos, el actuario no cuenta porque también estaba inscrito en física, entonces éramos en total 12. Los profesores estaban asustados, ¿cómo era posible un grupo tan enorme?

RC: ¿Eran físicos teóricos o experimentales?

JML: Sí, las diferencias estaban esencialmente en 3er y 4to semestre y no eran muchas, desde luego; uno de los defectos de la carrera de física experimental era que no llevaban mecánica cuántica.

En el año de 1956 se hizo una ligera modificación al plan, pero poquita cosa, se agregó un curso de métodos matemáticos de la física en 3ero porque sólo había en 4to semestre; se incluyó la mecánica cuántica, pero sólo para los teóricos. En fin, la situación era bastante pobre, los laboratorios eran prácticamente inexistentes, la biblioteca era ridículamente pequeña. Vamos, cuando la Facultad se cambió a su edificio en 1954 tengo entendido que el número de libros de Física y Matemáticas era cero, no había un solo libro, había unos cuantos de biología que no sé qué profesor había regalado antes y eso era todo. Claro, había libros de Física y Matemáticas pero en los Institutos. No se consideraba tan importante que los tuviera la Facultad cuando estábamos todavía en ingeniería porque estaba todo pegado, en un mismo edificio y bastaba con caminar 30 metros para estar ya en un lugar donde había libros. Además estaba muy abierto, uno podía llegar y sentarse donde quisiera, antes por ejemplo, el Instituto de Física era un cuarto de 6 X 6 m por lado que tenían una ventana que daba a la calle de Tacuba, en donde estaban los investigadores, la biblioteca, el director, la secretaria y el garrafón de agua Electropura. Además disponía de un taller que estaba en uno de los patios de la escuela y ya. Eso era el Instituto de Física. No podía hacerse nada de trabajo experimental, hasta el año de 1950 o 1951, en que hicieron en la azotea del Palacio de Minería un cuartito en donde pusieron un aparato de Rayos X, que fue el primer aparato de difracción en serio que se compró y en el que trabajaban, además teníamos un salón de clases anexo al laboratorio.

En 1954 empezó aquello a crecer, luego algunos fulanos empezaron a hablar de la reestructuración de la carrera, estaba de director Guillermo Torres. Entonces Torres citó a todos los profesores —a los alumnos como que no se les ocurría consultarlos todavía—, en un salón de clases, cupimos todos y sobraban muchas bancas.

Hicimos un nuevo plan de estudios. Pero es difícil concebir una manera más mala de hacerlo: que se dé mecánica primero, los que estén porque sí que levanten la mano, ¿todos?, bueno: ¿de cuantas horas?, que sean cuatro horas, ¡no! que sean seis, bueno pues, votación, ganó el de cuatro. Ahora, que se dé electricidad, sí, ¿cuantas horas?, que sean cinco, votación, ganó el de 5. Así se hizo todo el plan.

A final de cuentas todos habían votado alguna vez por la propuesta que perdió, entonces era un plan, donde todos intervinieron, donde todo fue por votación y donde no había una sola persona que lo apoyara. Yo creo que fue la peor manera posible.

RC: ¿Pero no es el plan de estudios que está hasta ahora?

JML: No, éste ya se hizo de otro modo más sensato, que platicaré después. Cuando terminamos de hacer ese plan, después de varias reuniones, debía pasar al Consejo Técnico. Pero estábamos tan descontentos de lo que habíamos hecho que el día que se citó al Consejo nos presentamos en bola otra vez los profesores, para pedir que no se aprobara, que aquello no funcionaba, y no se aprobó.

Para esto ya estábamos a principios de los sesentas, luego, en 1966, el nuevo rector Barros Sierra tenía la idea de que deberían de darse las materias de manera más intensiva pero en menor numero, más concentradas, que la atención del estudiante no se dispersara en un gran número de asignaturas, que estuviera centrada en unas pocas, que si alguien tuviera necesidad de volver a tomar un curso, no tuviera que esperar un año para volverlo a llevar, sino nada más un semestre. Que las equivalencias de las materias anteriores a las nuevas se hicieran con mucha imaginación, que hubiera un sistema de créditos, etcétera.

Algunas escuelas hicieron esto en una hora, que fue el tiempo que les tomó tener unas tijeras y partir el plan de estudio a la mitad. En Ciencias, en cambio, fue más a fondo y tomó bastante tiempo.

En la segunda mitad del año de 1966, en el Consejo Técnico se creó una comisión para cada carrera, de puros profesores, un grupo pequeño de cuatro o cinco personas, que se dedicara mucho tiempo a eso.

Me acuerdo que, por ejemplo, en Física, el que estaba haciendo cabeza de comisión era Francisco Medina. Él se dedicaba tiempo completo a eso, o casi tiempo completo. Se pasaba toda la mañana y toda la tarde pensando en eso y hablando con profesores y alumnos. Recibir opiniones, ideas, proposiciones, comentar con todos los otros miembros de la comisión y reportar cada 15 días al Consejo el avance del proyecto.

Cuando se tuvo una primera proposición se convocó a dos reuniones, una de todos los profesores, donde con anterioridad se les había dado por escrito cómo estaban las cosas. Además ya estaban enterados porque todos habían sido llamados para opinar. Se citó unos días después a los profesores para saber qué opinaban y al mismo tiempo se citó a los estudiantes al auditorio para saber su opinión. En aquella reunión de profesores se hicieron muchas consideraciones. (Continuará...)

 
*Juan Manuel Lozano. Investigador del Instituto de Física y Profesor                  Facultad de Ciencias, Universidad Nacional Autónoma de México.
     
____________________________________________________________
     
 
Nota de los editores
 
cómo citar este artículo
Nota de los editores 1982. “Historia de la Facultad de Ciencias I. (Entrevista a Juan Manuel Lozano)”. Ciencias núm. 2, julio-agosto, pp. 36-41. [En línea]
     

 

       
 
  menu2
               
  R02B04

 
La lluvia ácida
Nota de los editores
   
   
     
                     
                   
La lluvia ácida es uno de los problemas recientemente
detectados y bien podríamos decir que es un fenómeno específico de nuestra época, puesto que se trata de un efecto de la acelerada industrialización que han vivido las sociedades en este siglo.

El nuevo fenómeno se forma de los contaminantes acidificantes del aire, y al depositarse en el suelo y el agua causa serias molestias a la ecología y afecta la salud pública. El proceso de su origen es simple, los contaminantes son arrastrados por la lluvia de tal forma que, al llegar a la tierra, las gotas han adquirido una acidez mayor al valor neutro. Por lo general, la lluvia tiene una acidez o potencial hidrógeno (pH) menor de 5.6 y la lluvia ácida tiene un pH que oscila entre 6 y 7 en esta escala.

Entre las razones atribuidas al fenómeno de la lluvia ácida se encuentran las emisiones de gases de combustibles fósiles en operaciones industriales, de transporte y calefacción residencial; o bien, por la utilización de fertilizantes y otros productos químicos agrícolas, y por la combustión de desechos urbanos.

Concretamente, algunos investigadores han atribuido la elevación de la acidez en la lluvia al incremento de sulfatos y nitratos en la atmósfera que se originan con la quema de carbón y gas natural.

Dentro de los efectos que puede causar este fenómeno se mencionan los siguientes: daños materiales en edificios y monumentos; alteraciones químicas y físicas del suelo y alteraciones biológicas de los sistemas acuáticos.

Por último, los problemas que la lluvia ácida causa a la salud pública se explican de la siguiente manera: en determinados suelos y cuerpos de agua existen metales pesados que al combinarse con lluvia ácida, se disuelven en forma de sales quedando listos para ser introducidos en la cadena alimenticia.

  articulos  
_____________________________________________________________
cómo citar este artículo
Nota de los editores 1982. “La lluvia ácida”. Ciencias núm. 2, julio-agosto, p. 54. [En línea]
     
 
     
You are here: Inicio Búsqueda Titulo revistas revista ciencias 2