revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R09Articulos4   menu2

índice 9

siguiente

anterior

PDF

   
   
       
               
               

En busca de las raíces de nuestra educación

1968: un año crucial para la universidad. En esta primera entrevista, Salvador Martínez Della Rocca* nos habla de los antecedentes de octubre.

 

 ¿Qué generación eres?

Soy de la generación 1965-1968 de la carrera de Física.

¿Cuáles eran las condiciones de la Facultad en esa época?, ¿había algo que prefigurar en 1968?, ¿cómo estaba organizado el estudiantado?

 Antes de 1968 había aspectos interesantes y desagradables. La escuela era muy elitista y los estudiantes se sentían un Einstein en potencia. Los grupitos de escuelas particulares eran importantes, y muy significativos.

Tanto los compañeros judíos como los españoles se pronunciaban por la izquierda. Cuando yo todavía no ingresaba había un grupo denominado “Prometeo” muy elitista, de izquierda, integrado con los mejores estudiantes de la Facultad. Cuando yo ingresé había “El nuevo grupo”, una facción amplia y hegemonizada del Partido Comunista Mexicano; en él participaban Deborah Dultzin, Marcelino Perelló, Gilberto Guevara Niebla, Alicia Bonfil, Pepe Barberán, Renán Cárdenas, Emilio Reza y Graciela Blackayer. Participaban para conquistar la Sociedad de Alumnos —más que en elecciones de Consejo Técnico—, el cual había estado en manos de la derecha por muchos años.

El primer presidente de izquierda en la Facultad fue Gilberto Guevara y ya entonces por primera vez en la Facultad estalló la huelga en agosto y se mantuvo hasta parte de septiembre de 1965. Fue el primer movimiento político que yo viví; la huelga de los médicos, que luchaban por reivindicaciones básicas, ya que parte de ellos —recién egresados— trabajaban hasta 18 horas diarias y les pagaban $450.00 al mes; era el inicio de una crisis que después se llamaría “proletarización del trabajo intelectual”. Uno como estudiante veía el futuro que le esperaba: se entraba a la Universidad y se pensaba que con un título se ascendería en la escala social, pero ante una huelga como la de los médicos, se percataba de que esto no sucedería.

 
El primer presidente de izquierda de la Sociedad de Alumnos en la Facultad de Ciencias fue Gilberto Guevara Niebla.

En esa época el director de la Facultad era el Dr. Fernando Prieto y con él hubo una seria de problemas sumamente violentos hasta 1968. Cuando yo conocí a Gilberto Guevara en una asamblea, denunciaba que Prieto lo quería expulsar por haber apoyado la huelga de los médicos.

A mi me tocó vivir una época políticamente muy intensa como estudiante. Se vivían una serie de movimientos internos y otros de apoyo a problemas no académicos. Por ejemplo, en Ciencias se luchaba contra el Movimiento Universitario de Renovadora Orientación (MURO), que intentó arrancar el Cine Club de manos de algunos compañeros estudiantes. El Cine Club de la Facultad era no de los de mayor tradición en la UNAM. En esa época el Dr. Prieto, para variar, prohibió el uso del auditorio y los estudiantes lo tomamos masivamente; en una asamblea que tuvimos que hacer fuera del auditorio, derrotamos al MURO impidiendo que pudieran arrebatarle el Cine Club a los compañeros.

Después de la primera sociedad de alumnos en manos de la izquierda que fue la de Gilberto, siguió la de Víctor Toledo y al año siguiente formamos una planilla que encabezábamos Rosa Luz Alegría como presidente y yo como secretario. 

 Cuando se inició el enfrentamiento, parecía darse éste contra la derecha, contra los grupos cristianos y ya a posteriori cuando dichos grupos se diferencian, nos dimos cuenta que era esencialmente un problema contra el MURO. Perdimos la votación contra el MURO, en gran parte debido a que el Dr. Prieto suspendió las clases en la tarde que era donde más fuerza teníamos. Perdimos por pocos votos contra una planilla encabezada por Rafael Mier Mazo, Miguel Yacaman y Pepe Vicon.

El voto era secreto, universal y directo, lo cual resultaba saludable y —por cierto— creo que en muchos momentos actuales sería necesario. Es verdad cuando la izquierda afirma que las votaciones son más racionales y son producto de una discusión en asamblea; sin embargo, muchas veces se quiere sustituir la votación de las masas argumentando que no hay discusión cuando hay una votación secreta, universal y directa, pero se supone que antes hubo una campaña de amplia discusión con la gente en las aulas.

 
Mayo de 1968: París es sacudido por una ola de violencia estudiantil y obrera de gran alcance.

En esa época la Universidad estaba organizada desde arriba, a través de Federaciones Universitarias de Sociedades de Alumnos; existían dos, si mal no recuerdo; la alemanista y la de rectoría. Como estas sociedades poseían una organización vertical, el personaje clave de ellas era el presidente; entonces bastaba con que transaras al presidente para que se corrompiera toda la sociedad. Lo que es incorrecto, sería derivar de lo anterior que los mecanismos de votación universal son antidemocráticos.

Recapitulando, en 1965 nos tocó vivir el movimiento de los médicos. Esto tuvo su importancia pues la Faculta de Ciencia se puso en huelga, puesto que había sido considerada siempre como una escuela donde se estudiaba seriamente. Esto demostraba que no era una huelga irreflexiva o de grillos, sino una huelga justa y correcta.

En 1966 había un problema académico de fondo en la Universidad. Era una Universidad napoleónica, feudalizada, muy poco moderna. En esa época Gilberto Guevara escribió un artículo histórico que se llamó La crisis de la educación en México, donde sostenía la tesis de que la educación estaba en crisis precisamente porque no respondía a los requerimientos sociopolíticos y económicos del país.

La preparación de los estudiantes no era la requerida. Recuerdo bien compañeros que habían estudiado doctorado en Física y trabajaban vendiendo seguros de vida; compañeros que había hecho doctorado en partículas elementales y trabajaban en Astronomía. No había fuentes de trabajo para los matemáticos, prácticamente la Universidad los absorbía. Entonces, nosotros entendíamos muy bien el problema del subempleo y desempleo.

Evidentemente, vivíamos una época muy interesante, de muchos cambios: la Revolución cubana, el debate chino-soviético, la imagen quijotesca del “Che” Guevara cabalgando por toda América Latina. Las canciones de protesta: el rock en su pleno apogeo, Elvis Presley, Beatles, Rolling Stones. Había música contestataria, pintura contestataria, literatura contestataria.

De lo que menos se hablaba en la cafetería de Ciencias era de Matemáticas. Todo mundo discutía los problemas que se estaban dando en la atmósfera política y cultural, no sólo a nivel nacional sino internacional. La escuela estaba muy unida. Llegabas a la cafetería y encontrabas a todas los chavos “grillos” leyendo El Día que constituía el periódico político de la Facultad. Ya en 68 fue el Excélsior.

Cuando llega la huelga de 1966, que se inició con la expulsión de dos gentes de Derecha que se oponían o la creación de la especialidad de criminología, la izquierda había avanzado en la Facultad; fue abriéndose paso poco a poco, siempre con planteamientos académicos y de solidaridad. Entonces, cuando los compañeros de Derecho llegan a plantear la huelga, se empieza a discutir el problema para reorientarlo hacia un movimiento de reforma universitaria. Se formó La Coordinadora Estudiantil Universitaria (CEU), precisamente como respuesta a las sociedades de alumnos, en manos de la derecha, como organismo de dirección con representación de delegados.

El movimiento de 1966 tenía tres puntos básicos: derogar los artículos 82 y 84 de la ley orgánica por medio de los cuales el rector podía prácticamente expulsar a cualquier estudiante con impunidad. Es curioso porque en 1968 pedíamos la desaparición del artículo 145 a través del cual el Estado Mexicano podía encarcelar, a criterio del juez, a cualquier individuo acusado de disolución social.

Un segundo punto era la desaparición del cuerpo de vigilancia de la UNAM, que dirigía un gánster que se apellidaba Araiza; este cuerpo de granaderos disolvía a golpes asambleas o mítines y fungía como un grupo de protección al rector. En 68 peleábamos por la desaparición de los granaderos y de las policías anticonstitucionales.

Estas dos demandas son interesantes ya que se peleaba por una modificación del sistema de gobierno de lo UNAM.

Estábamos luchando por transformar la universidad, queríamos un espacio de libertad para hacer política.

El tercer núcleo de demandas revestía importancia porque configuraba un rescate de las demandas del Politécnico en 1956. Al Poli lo clausuran en 56 con la entrado del ejército. Cierran el internado, los comedores populares, cancelan las becas, es decir, clausuran todo el sistema de educación cardenista. Lo interesante es que 10 años después las demandas son similares; se rescatan: exigencia de internados, comedores, becas.

En esta huelga la Facultad de Ciencias jugó un papel muy importante ya que mantuvo durante esta una vida política activa y permanente en asambleas masivas y mucha participación de la gente. En ese periodo los dirigentes del CEU eran Gilberto Guevara, Marcelino Perelló y Antonio Gershenson.

 
El encumbramiento de los Beatles muestra una juventud que sale de un profundo letargo. La pasividad ha quedado atrás.

El movimiento no tenía como objetivo la caída del rector Chávez, sin embargo, un día llegan los de Derecho a la Rectoría y sacan de una patada al Rector. Entonces la atención del movimiento se desviaría del pliego petitorio a la llegada del nuevo rector. Es entonces cuando entra el Ing. Barros Sierra.

El Ing. Barros Sierra es elegido por los mecanismos tradicionales de la junta de gobierno, aunque tenía una imagen de gente liberal. Lo que sucedió es que cuando Barros Sierra entra a la rectoría, si bien no ganamos todas las exigencias, logramos la desaparición del cuerpo de vigilancia y una modificación de la forma de gobernar la Universidad. Sin estos triunfos parciales no se podría explicar el 68.

El Ing. Barros Sierra reconoce inmediatamente la existencia de los grupos políticos, se les da local, parte del presupuesto, papel, tinta, derecho al uso de auditorios e instalaciones de la Universidad.

 ¿Cómo queda establecida la situación de la escuela con el director?

Sigue siendo la misma, sólo que el director había perdido fuerza por el avance del movimiento y de la izquierda. El movimiento de 1966 se inserta dentro de las luchas universitarias que caracterizan a la década: lo huelga de 1966 en Morelia con la marcha de la libertad; la de Puebla; la de 1967 en Sonora.

Con la huelga de 1966 los ciclos escolares pasan de anuales a semestrales y se rompe la seriación de materias en algunas escuelas.

Al ganar el espacio en 1967 hay muchas contradicciones al seno del sector estudiantil porque se inicia un clima de acusaciones de traición y en la Facultad de Ciencias vivimos el primer movimiento contra el MURO. Existía una izquierda con un triunfo parcial que había abierto un espacio amplio de participación política; no era lo mismo hacer política con Chávez que con Barros Sierra. Para el MURO Barros Sierra era un rector comunista a quien había que golpear y destituir, ya que con él los estudiantes tenían apoyo para participar, libertad en los Cine Clubes, permitía el uso de la infraestructura universitaria e inclusive había partidas presupuestales para las sociedades de alumnos y los grupos políticos.

Lo primero que el MURO hace es atacar a los medios de comunicación como el cine, destruyen el Auditorio de Química porque se estaba pasando una película cubana, golpean asambleas en Filosofía e intentan la mismo en Ingeniería y en Prepa 9.

En febrero de 1968 nos levantamos muy entusiasmados a nuestro primer día de clases. Lo primero que notamos es que todas las paredes de la Universidad estaban tapizadas de un letrero que decía Solana revisionista. Solana era el secretario de la rectoría que después sería Secretario de Educación Publica. Gilberto me dijo, “Solana no puede ser revisionista para el PRI ya que es priísta; tampoco puede serlo para la izquierda. Entonces lo es para el MURO por todos los antecedentes”.

 Entonces Gilberto llamó a una reunión en la Facultad de Ciencias Políticas y Sociales. Logramos reunir a Comercio con Parra, Economía representada por Pablo Gómez, Filosofía con Luis González de Alba, Roberto Escudero representaba al grupo “Miguel Hernández”. Ciencias Políticas con Paco Ignacio Taibo, Romeo González y otro de apellido Sierra, de Medicina, Wascar Peña y Raúl Moreno Wonchi, o sea que fue un grupo amplio el que se reunió y el Ing. Barros Sierra nos mandó llamar. De manera muy precisa nos dijo: “Compañeros, el MURO me quiere quitar de la rectoría porque me considera de izquierda, un comunista, porque he implantado un clima de libertad en la Universidad, porque he reconocido a los grupos políticos, les he dado los derechos que considero justamente se han ganado”. Y sin andar con rodeos nos entregó a cada uno de los allí presentes la información detallada de los nombres de los miembros del MURO, de los grupos políticos controlados por el MURO en cada una de las escuelas. Efectivamente estaban ahí el grupo “Filos” de Ciencias, el grupo “Biófilos” de Medicina, los nombres y números de cuenta de los integrantes.

Al otro día llegamos a la Facultad de Ciencias Gilberto, Flavio Baelis, Juan Estrada y yo. Armamos una asamblea impresionante, en el auditorio no cabía un alfiler. En ella, Rafael Mier Maza que era del MURO exigía que demostrásemos con credenciales que ellos eran miembros del MURO. Mier Maza había expulsado a Yacamán y Pepe Vican de la Sociedad de Alumnos y ellos en esa asamblea denunciaron que efectivamente Mier Maza no era de la democracia cristiana sino del MURO. Al día siguiente en otra asamblea, yo leí un discurso que al final decía “No tenemos comprobantes ni credenciales para demostrar que son del MURO, pero compañeros, si hablan como pato, caminan como pato y tienen plumas como pato, entonces, ¿qué son? El auditorio en masa gritó: ¡patos!, se votó y para afuera, desconocidos de la Sociedad de Alumnos. Fue un golpe para Prieto, ya que él un año antes había desconocido la Sociedad de Alumnos de Víctor Toledo.

Al tumbar al MURO se generó todo un movimiento en la Universidad con el mismo objetivo que culminó con una marcha hacia Medicina, donde también había una lucha contra el MURO a la que se unió Ingeniería y Ciencias Químicas. Cuando llegamos a Medicina éramos como 15000 estudiantes y sacamos a los del MURO de la Universidad sin que este volviera a resurgir.

 
Una de las facetas del capitalismo en la década de los 60 es la sociedad de consumo; la otra es la miseria.

¿Era el MURO una organización clandestina: la gente la repudiaba anteriormente?

El MURO, Movimiento Universitario de Renovadora Orientación, era una organización clandestina de ultraderecha. La gente la comenzó a conocer cuando aparecieron los grupos de karatecas que golpeaban estudiantes. A la gente de izquierda nos preocupaba que de ser un grupo clandestino que trataba de hacer política en la Universidad, se transformara en un grupo paramilitar. El triunfo sobre ellas fue muy importante ya que permitió a la izquierda llegar unificada a 1968.

Cuando quitamos a Rafael Mier Maza, entramos a debatir la Sociedad de Alumnos. La izquierda se divide porque había dos concepciones. Por un lado Gilberto, Flavio Baelis, Juan Estrada, Bety Puga, Isabel García y yo decidimos que el presidente de la Sociedad de Alumnos debía responder a los intereses de la escuela, y por el otro Renán Cárdenas y Marcelino Perelló decían que debía responder ante la organización que lo lleva a la presidencia. Nosotros decíamos que el presidente debía ser Juan Estrada y ellos que había que ir por la revancha y debía ser Rosa Luz Alegría. Nos dimos un agarrón de varios días. En esos momentos llegaban de Berkeley Pepe Barberán y Santiago Ramírez, entonces llegamos al acuerdo de formar un frente, pera este nunca funcionó. Nos salimos del nuevo grupo Juan Estrada, Flavio Baelis, Gilberto Guevara, las dos Isabeles y yo. Con el antecedente de la división en 67 hicimos una alianza con el grupo base de la democracia cristiana de la Facultad de Ciencias. Eran gentes de Méndez Arceo, muy buena onda, con una visión muy universitaria y clara de entrarle a luchas para democratizar el país.

Entonces en la Facultad surgen dos planillas: la del Nuevo Grupo encabezada por Rosa Luz Alegría y la planilla negra encabezada por Juan Estrada. Pero nosotros tuvimos otra idea: la formación de un sindicato estudiantil, en esa época acababa de pasar “el mayo de 68 francés”. Existía un clima de recomposición, de adopción de demandas universitarias no propiamente académicas. La Facultad de Ciencias Políticas estaba en huelga indefinida por la libertad de Demetrio Vallejo y Valentín Campa que estaban en huelga de hambre. Se inicia el proceso electoral en la Facultad y en plenos debates de las planillas se llega al 26 de julio.

Ese día el Partido Comunista organizaba de manera permanente una manifestación de apoya a la Revolución Cubana y tradicionalmente ésta era reprimida, pero en esa ocasión Arturo Sámano Escalante quien era el presidente de la CNED había solicitado al DDF el permiso para marchar y se lo habían concedido, cosa que llamaba la atención, porque estábamos en el Año Olímpico; México se preparaba para las olimpiadas.

El 23 de julio se agarran a golpes unos chavillos de la preparatoria lssac Ochotorena con la Vocacional 5 y una pandilla a la que le llamaban “Ciudadelos” por el futbol, seguramente eran de los que se peleaban todos los días y nunca pasaba nada, y en esta ocasión intervienen los granaderos, golpean a los estudiantes los de la Vocacional 5 corren y se refugian en su escuela, los granaderos irrumpen en el plantel, golpean muy violentamente a los estudiantes y uno de ellos sale muy gravemente herido, entonces curiosamente la FNET (organización priísta) organiza una manifestación el 26 de julio también, en protesta porque los granaderos habían violado el recinto de la Vocacional 5. Entonces, por un lado la CNED, comunistas, y universitarios marchan del Salto del Agua al Hemiciclo a Juárez y por el otro la FNET y politécnicos del Casco de Santo Tomás al Hemiciclo a Juárez.

El Estado siempre había fomentado la división Poli-UNAM a través de los juegos de futbol americano. Las manifestaciones iban a coincidir en el Hemiciclo a Juárez, era casi garantizado que iba a haber golpes, pero lo que sucedió es que cuando llega la manifestación del Poli, lleva la noticia de que el estudiante de la Vocacional había muerto.

En contra de esta famosa división Poli-UNAM, los grupos de izquierda habían avanzado mucho. En 1967 hubo una huelga porque Díaz Ordaz cerró la Escuela “Hermanos Escobar” de Ciudad Juárez. Ellos pidieron apoyo a Chapingo, donde estaba Luis Tomás Cervantes Cabeza de Vaca, y se ponen en huelga. El Politécnico apoya a Chapingo a través de Raúl Álvarez y de los grupos democráticos de Izquierda, fundamentalmente las Juventudes Comunistas. Entonces se da la unión Poli-Chapingo y se gana la huelga. Cuando esto sucedió la Universidad estaba de vacaciones, sin embargo, los grupos políticos participaron apoyando la huelga. Entonces había un antecedente de la superación de la pugna Poli­UNAM.

Cuando las dos manifestaciones se encuentran en el Hemiciclo a Juárez, los estudiantes del Poli le piden a los de la UNAM que marchen al Zócalo y en Palma y Madero son reprimidos violentamente, así se inicia el 68.

Los granaderos al entrar a reprimir la manifestación entran al recinto de la preparatoria que ya estaba en entrega de diplomas y había un acto de toga y birrete con los padres de familia, y los granaderos interfieren golpeando a todo el mundo. Entonces los prepos, inmediatamente se organizan y empiezan a tomar camiones y formar una barricada en el centro de la Ciudad, que fue lo que se llamó el Barrio Universitario. Hay que recordar que acaba de pasar el “Mayo de 68” en Francia y llegaban a México las noticias de medio millón de estudiantes cuestionando al Estado D'Gollista; acababa de pasar la muerte del “Che” Guevara; un grupo de estudiantes pone una bomba en la embajada de Bolivia y meten a la cárcel a Antonio Gershenson, a Luis del Toro, Quico Condés Lara, en octubre de 1967 y les dan penas que estaban por encima de su edad.

 
¡Los estudiantes exigimos solución… no queremos represión!

En ese clima se da lo del Barrio Universitario; ponen las barricadas, repelen a los granaderos y éstos no pueden controlar el movimiento. Entonces interviene el ejército el 29 de julio; golpean fuertemente a los chavos que corren a la preparatoria 1 y cierran la puerta. Hay una enorme cantidad de muchachos deteniendo la puerta y los del ejército la tiran con un bazucaso y la vuelan junto con los muchachos que estaban deteniéndola. En ese momento yo estaba con Miguel Eduardo Valle “El Búho” quien hablaba a la preparatoria 3 cuando sonó el bazucaso, empezó a llorar y me dijo “los acaban de matar”.

Gilberto, Baelis, Estrada y yo redactamos un documento que repartimos en la Facultad el lunes 29. Inicialmente la gente del Partido Comunista no estaba de acuerdo con la huelga, no los critico, todo era muy confuso. En la mañana no logramos ganar la huelga, pero en la tarde si.

Así, la Facultad se pone en huelga el lunes 29, ese día hubo ya una reunión en Filosofía con la gente del Politécnico. El proceso de votación en la Facultad se suspendió y se formó un Comité de Lucha que fue la forma de organización en 68; en él estaban: Gilberto, Juan Estrada, Miguel Yacaman, Renán Cárdenas y yo.

Durante las reuniones en Filosofía se discute la elaboración del Pliego Petitorio y la conformación de lo que seria el Consejo Nacional de Huelga (CNH).

Estaban en la cárcel Vallejo, Campa, Luis del Toro, Antonio Gershenson, Adolfo Gilly, Rico Galán, todos ellos presos a través del artículo 145 de la Constitución, del cual se decide pedir su derogación. También se pedía la destitución de Cueto y Mendiolea por ser los autores intelectuales y físicos de la represión del 26 de julio; se pedía la desaparición de los granaderos y de todos los cuerpos policíacos anticonstitucionales. Asimismo, se pedía un deslinde de responsabilidades, una indemnización a los compañeros caídos. Se pedía el diálogo público porque se argumentaba que teníamos una larga historia de negociaciones de recámara, a través de las cuales se transaban los movimientos. Por eso el Consejo Nacional de Huelga se conformó como un grupo amplio, no había un dirigente. Evidentemente Raúl Álvarez Garín era el más preparado, con más experiencia política y lo demostró con creces, creo que en un segundo lugar estaba Gilberto; ambos acababan de ser expulsados del Partido Comunista.

Al calor de la discusión que estaban dando en Filosofía nos llegaban noticias constantes de que el ejército ya iba para Ciudad Universitaria. Para ser franco, la reunión se disolvió porque nos hablaron por teléfono diciendo que estaba por entrar el ejército en CU y mucha gente salió corriendo. Pero el “comandante Guevara” (Gilberto) —así le decíamos—, nos dijo que sólo nos iríamos cuando físicamente viéramos que el ejército estaba entrando, ya que no íbamos a dejar la universidad por un rumor.

Al otro día, el Ing. Barros Sierra realizó un acto e izó la bandera a media asta y llamó a un mitin al que asistimos 30000 estudiantes; se cantó el himno nacional y el Consejo Nacional de Huelga acordó hacer una manifestación. Se da una violenta discusión en el Consejo porque Gilberto, apoyado por Raúl decían que deberíamos exigirle al rector que encabezara la manifestación y que demostrara si era el representante de los universitarios ante el Estado o si iba a ser el representante del Estado ante los universitarios, y que eso no se podía discutir en abstracto sino en concreto. Entonces se formó una comisión para hablar con el rector y éste aceptó encabezar la marcha, cosa que no hizo el rector del politécnico, —en esa época Massieu—. El papel institucional de la UNAM fue importantísimo en 68 y mucha gente se nos echó encima porque decían que queríamos poner el movimiento a la cola de las autoridades. Sin embargo, la idea de Gilberto y Raúl era que con el rector nosotros podríamos ganar la opinión pública y con eso ganar la calle. La actitud de Barros Sierra era de defensa de la Universidad, él era un universitario en el sentido más liberal de la palabra, era un tipo consecuente.

 
En 1968 los estudiantes lucharon por democratizar al país. En esos días el anhelo dominante era la obtención de un nuevo status político y social para los estudiantes

Fue verdaderamente emocionante, porque habíamos 70000 estudiantes y luego llegaron los del Politécnico y se cantaban las porras de solidaridad. Barros Sierra dijo: “Bienvenidos sean los compañeros estudiantes y profesores del Politécnico, esta es su casa”, y luego al final de su discurso: “Compañeros universitarios vayamos a la calle a manifestar nuestra discrepancia”. Era una persona que durante todo su periodo de rector su actitud política estaba regida por ciertas normas donde la discrepancia era algo que él respetaba profundamente y fue consecuente. Entonces, cuando yo escucho observaciones como que “el movimiento fue burgués”, que “el rector jugó un papel traidor”, pienso que es no es entender lo que son los movimientos de masas; se trata de gente que se conforma con los movimientos grupusculares de salones de clase que no tienen ninguna repercusión nacional.

Salimos aproximadamente 100000 gentes y lo que sucedió es que la opinión nacional que veía la imagen del rector decía muy burdamente: “¿quién tiene la razón?, ¿la policía que reprime diariamente?, o ¿los estudiantes encabezados por su rector que es el símbolo del saber y la ciencia?”. Entonces es evidente que la opinión pública se volcó a favor de los universitarios y por eso ganamos la calle.
Dos días después, el Consejo Nacional de Huelga llamó a una manifestación del Politécnico al Casco de Santo Tomas a un lugar que se llamaba el parque del “Carrillón”. Ya no se pedía permiso: yo iba marchando con Gilberto Guevara cuando Trejo y Raúl Álvarez lo invitó a marchar. Cuando llegamos al parque Raúl y Gilberto convencieron a Fausto de que hablara como profesor y se inicia en ese acto la integración del sector magisterial, que después estaría integrado de manera orgánica alrededor de la Coalición de Organismos Magisteriales.

¿Cuál fue la respuesta del gobierno a todo esto?

Las primeras fueron las respuestas típicas como: “movimientos extraños controlados por fuerzas extrañas quieren sabotear la olimpiada”; “el movimiento se gestó en la Habana”; “se gestó en Bulgaria”.

¿Cómo se conformó el Consejo Nacional de Huelga?

Era un organismos de representantes elegidos en asambleas de escuelas en huelga. Si la escuela no estaba en huelga, no estaba representada en el CNH. Ese era un mecanismo para obligar a los compañeros que si querían entrar tenían que poner a su escuela en huelga. El Colegio de México se puso en huelga; por la Ibero iba al CNH Rafael Hernández, por Ciencias Químicas, Enrique Left y Gerardo Dorantes, por Medicina, Enrique Díaz Michel y Raúl Moreno Wonchi, por Comercio, Parrra; por Ingeniería, Salvador Ruíz, etc.

El comité de lucha de Economía estaba formado por Oscar Levin Copel, Carlos Jiménez, Gustavo Gordillo y Miguel Eduardo Valle “El Búho”; el comité de Ciencias estaba formado por el Nuevo Grupo, la escisión del Nuevo Grupo y el Grupo Base. El de Filosofía era el Grupo “Miguel Hernández” que eran Luis González de Alba y Roberto Escudero.

La Facultad de Ciencias jugó un papel importantísimo, representaba la alianza entre el Poli y un sector de la UNAM. En la Universidad el movimiento tuvo un momento de definición en dos bandos: el ala de humanidades y el ala técnica. Nosotros éramos los “reformistas” y ellos los “revolucionarios”. Esto duró hasta que llegó la represión y mucha gente desapareció y entonces fuimos “los reformistas” los que tuvimos que enfrentar el golpe.

 
En los sesenta surgen los brotes guerrilleros en Birmania, Bolivia, Vietnam, El Congo, etc. Sus armas principales no eran tanto las del fuego, sino las psicológicas y políticas.

¿Cuáles eran las actividades cotidianas del movimiento de 1968?

Sin lugar a dudas, en la UNAM la Facultad de Ciencias era la que tenía una actividad de brigadas muy constante; ,estábamos muy bien organizados. Era muy bonito salir de brigadas, había que agarrar muchos camiones para llevar a toda la gente. El CNH de repente declaraba: “mañana todo el tránsito de la Ciudad de México será desquiciado”; entonces con un mapa nos dividíamos la ciudad y era impresionante lo que sucedía, desquiciábamos el tránsito con los mítines relámpagos. Al principio eran mítines rápidos, aunque después fueron de hora y media y hacíamos discusión con la gente en la calle.

Además, a partir de que aprendíamos el lenguaje del pueblo, el pueblo empezaba a participar, daba sus opiniones, las brigadas consolidaban a la gente y era una actividad que formaba cuadros de manera impresionante.

En la Facultad, el encargado de las finanzas era Manuel López Mateos, él podría dar las cifras del dinero que entraba diario a la Facultad.

La Facultad además tuvo otra participación muy importante, la de ir a las universidades de provincia y promover allí huelgas. Gilberto nos dijo a Flavio Baelis y a mi que teníamos que ir a Veracruz, donde el gobernador Sánchez Celis era muy grueso, y pues ni modo tuvimos que hacerlo, ya que nadie más quería ir.

Logramos parar la parte universitaria en Jalapa y nos avisaron que la policía nos iba a detener; entonces corrimos el rumor de que nos regresábamos a México pero en lugar de eso nos fuimos al puerto y luego a Poza Rica, donde la policía nos esperaba a la entrada de la prepa. Afortunadamente nos entrevistamos con dos dirigentes en un restaurant y nos regresamos a México. La Universidad de Veracruz se puso en huelga. Experiencias similares tuvieron todos los brigadistas que el CNH mandó a todos los estados de la república. Total, que para el 25 de agosto había una huelga casi nacional.

Para esas fechas ya no solo íbamos a centros universitarios, sino a los kioscos, a las plazuelas, era un movimiento de masas, era un movimiento que de ser estudiantil se estaba convirtiendo en un movimiento popular tanto por el pliego petitorio que no eran demandas universitarias, sino que exigían un mínimo de democracia burguesa como por ser demandas populares. Por el pliego petitorio, por la conformación de los sectores que empiezan a participar en el movimiento, y por el método de lucha que era la brigada política, el movimiento era estudiantil-popular.

La participación de Ciencias fue importante. Por ejemplo, el día 18 de septiembre, cuando se tomó la universidad. En la mañana, había llegado una carta dirigida al CNH a la Facultad de Ciencias, firmada por Luis Echeverría en donde decía: “el gobierno está interesado en resolver el problema, el hecho de que se aproximen los juegos olímpicos requiere de que hagamos esfuerzos por ambos lados para resolverlo, les pedimos a ustedes que nombren a sus representantes para iniciar el dialogo”. Con esta carta el gobierno garantizaba que el CNH estuviera discutiendo a las 8 o 9 de la noche las propuestas. Sin embargo, no contó con que la gente estaba muy cansada y aunque se citaba a las 8, la gente empezaba a llegar a las 11. El hecho concreto es que el ejército entró a las 9 y no agarró a ningún dirigente.

Otra participación importante de la Facultad fue el que a Gilberto lo nombraron en la Comisión que iba a ir a las platicas con Caso de la Vega. Los tres representantes del CNN eran Gilberto Guevara, Luis González de Alba y Anselmo Muñoz. O sea el papel de la Facultad, la vida de la Facultad fue muy importante, la unidad de la gente fue muy importante. Lo que es interesante es la historia post 68.

 
 articulos
 
       
       
____________________________________________________________
     

Salvador Matínez della Rocca
Investigador del Instituto de Investigaciones Económica de la UNAM.

como citar este artículo

     
R09Articulos2   menu2

índice 09

siguiente

anterior

PDF

   
   
Carlos F. Bunge      
               
               

… to save a planet graced by life…
Carl Sagan 

 

El 23 de marzo de 1983, en un mensaje    transmitido por la red nacional de televisión de los EE.UU., el Presidente Ronald Reagan anunció su Iniciativa de Defensa Estratégica (IDE), la cual fue inmediatamente estigmatizada por la prensa norteamericana con el mote de “Guerra de las Estrellas” o “Guerra de las Galaxias” en nuestro medio.

La Guerra de las Galaxias es el proyecto tecnológico más ambicioso de todos los tiempos. Sus objetivos son “hacer las armas nucleares [soviéticas] impotentes y obsoletas”. Sus metas son desarrollar e implementar un sistema anticoheteril para destruir misiles [soviéticos] inmediatamente después de su lanzamiento, y dos sistemas de interceptores de proyectiles: uno para actuar a distancias de miles de kilómetros cuando el cohete o las bombas siguen trayectorias más o menos identificables, y otro para operar justo por encima de ciudades sometidas a un ataque nuclear, cuando las ojivas agresoras y centenares de señuelos fueran cayendo a una velocidad de 8000 metros por segundo.

Según encuestas de opinión, el pueblo norteamericano quedó encantado con una iniciativa de defensa estratégica que les prometía seguridad total frente a una posible amenaza soviética de aniquilación completa. Sin embargo, al proponer la construcción de un escudo invulnerable para proteger a los EE.UU. y sus aliados, sin renunciar a la posesión y modernización de armas ofensivas de exterminio masivo, la puesta en práctica de la IDE ofrecería a los EE.UU. la opción de poder efectuar una destrucción completa de la URSS sin sufrir daño dentro de su propia casa.

 Indudablemente, muchos norteamericanos se sentirían ofendidos ante el hecho de que alguien pudiera imaginar que su pueblo apoyaría, dado el caso, la realización de una operación tan monstruosa como sería la aniquilación premeditada de cientos de millones de seres humanos. Al fin y al cabo los EE.UU. tuvieron esa oportunidad, entre 1949 y 1955, y no la utilizaron a pesar de las presiones que en ese sentido ejerció la Fuerza Aérea sobre los presidentes Truman y Eisenhower. Pero no sería justo ni realista pedir a los soviéticos que dejaran su propia seguridad a merced de gobernantes norteamericanos que, en estos precisos momentos, no respetan las leyes de su propio país, arrogándose para ellos la facultad de tomar decisiones que competen al Congreso de EE.UU. y que han identificado s la URSS con el “Imperio del Mal”. También sería absurdo pretender que los soviéticos confiaran su seguridad al Congreso de otra nación.

Por lo tanto, un análisis de las posibilidades de éxito de la IDE debe tomar en cuenta que tarde o temprano la URSS hará frente al desafío norteamericano con contra medidas sencillas y de bajo costo, tales como aumentar su arsenal nuclear, que tenderán a minimizar o neutralizar las ventajas estratégicas que pudieran emerger de logros o expectativas vinculadas a la IDE.

Por el lado económico, aún sin llegar a la etapa de desarrollo e implementación, la IDE ya está costando 5000 millones de dólares anuales en gastos directos y otros veinte mil millones en gastos indirectos. Una implementación de la IDE, si fuera técnicamente posible, sin considerar que la URSS tomaría contramedidas, costaría entre quinientos mil y un millón de millones de dólares en gastos directos, lo que la convertiría en el mayor negocio de todos los tiempos, con profundas consecuencias para la economía de los EE.UU. y, por ende, para todas las economías dependientes como la de nuestro país.

Si en cambio se buscara una reducción y eventual eliminación y proscripción de las armas nucleares, la IDE se tornaría irrelevante. Esta solución daría una gran oportunidad a todas las naciones involucradas en la carrera armamentista de aprovechar al máximo sus recursos para mejorar el nivel de vida de sus ciudadanos, pero no aportaría ventajas estratégicas directas para los EE.UU. en su confrontación con la URSS.

Tras tres años de duras críticas por parte de destacados científicos norteamericanos no pertenecientes al gobierno, pero también tras torrentes de dólares y una ofensiva diplomática sostenida, la IDE está más vigente que nunca: en la prensa occidental, en las negociaciones de Ginebra sobre desarme, en las cancillerías de los países de la OTAN desde Canadá hasta Turquía, entre los contratistas del Pentágono, y en la comunidad científica de los países occidentales, dentro de la cual predomina la noción de que la investigación científica de por sí no es ni mala ni buena y es independientemente del contexto dentro del cual se la lleva a cabo, relegando la ética del quehacer científico a una mera curiosidad.

A continuación, con el objeto de precisar el contexto técnico, económico y militar, y por ende facilitar la percepción política, discutiremos la historia del arma nuclear y cuáles serían las consecuencias globales de un conflicto nuclear, para finalmente avocarnos al negocio del siglo: la Guerra de las Galaxias.

 
La llamada “defensa del mundo libre” contra la “amenaza soviética” es sólo una forma de justificar la política belicista de los Estados Unidos.

KILOTONES, MEGATONES Y GIGATONES

El objetivo de los bombardeos de Dresden y Tokio, perpetrados hacia finales de la Segunda Guerra Mundial, fue el “destruir la moral de los civiles enemigos”. Naciones “civilizadas” así justificaron, por primera vez en la historia, el genocidio de personas de piel blanca. Se utilizaron casi mil bombarderos y superfortalezas volantes que arrojaron decenas de miles de bombas con un poder explosivo de unos cuantos miles de toneladas de trinito tolueno (TNT). Se estima que solamente en Dresden fueron inmolados 140000 seres humanos, mientras que en Tokio el saldo de muertes fue aún mayor.

En ambas ciudades el efecto causado por el bombardeo fue mucho más grande que la suma de los efectos que podría haber causado cada bomba actuando por separado. Para conseguir esto, los aviadores fueron instruidos para concentrar los lanzamientos de bombas con el objeto de generar altas temperaturas que pudieran originar los que pasaron a llamarse “huracanes de fuego”, que además de quemar las ciudades afectadas, consumieron todo el oxígeno circundante; se dice que en el viejo centro de Dresden la gente murió asfixiada dentro de sus propios refugios por falta de oxígeno.

Meses más tarde, en Hiroshima, se necesitó de un solo avión para arrojar la primera bomba atómica, que dejó una secuela de muerte, horror y destrucción comparable a la causada por los bombardeos de Dresden o Tokio. Los victimarios hablan de 70000 muertos en Hiroshima. Estudios posteriores revelaron que hubo entre 90000 y 130000 muertes adicionales a causa de quemaduras, infecciones y por efectos debidos a la radiación. Había también en Hiroshima decenas de miles de militares, y de prisioneros de guerra coreanos, de los cuales nunca más se supo. Todavía hoy, a 40 años de la masacre, el riesgo de contraer cáncer entre los sobrevivientes de Hiroshima es muchas veces superior a lo normal.

 El poder explosivo de las bombas atómicas que cayeron sobre Hiroshima y Nagasaki, fue equivalente al de 13000 y 22000 toneladas de TNT, respectivamente. De donde podemos deducir que la efectividad de los explosivos nucleares, a nivel local, es de alrededor de 10 muertos por cada tonelada equivalente de TNT.

Existen en el mundo unas 2500 ciudades con más de 100000 habitantes y sobre la mayoría de ellas, si no de todas, pesa la amenaza de una o más de las 60000 bombas que llenan los arsenales nucleares. Considerando que éstos ostentan un poder explosivo equivalente a 20000 millones de toneladas de TNT, se deduce que hay explosivos para liquidar a 200000 millones de personas, esto es, 40 veces la población del planeta. Y esto sin tomar en cuenta que el breve período de duración de una confrontación termonuclear no daría tiempo a que llegaran a operar mecanismos normales de regeneración de los organismos y de la sociedad.

Si utilización los prefijos griegos “kilo”, “mega” y “giga”, que significan mil, un millón y mil millones, respectivamente, podemos decir que la bomba de Hiroshima tuvo un poder explosivo equivalente al de 13 kilotoneladas de TNT o 13 kilotones. Un victimario podría hablar de 0.013 megatones, o decir que los aviadores de la fuerza aérea de los EE.UU. que incendiaron Tokio en marzo de 1945, tan sólo emplearon 2 millonésimas de gigatón.

Lo que hicimos arriba fue una demostración en retórica belicista: los victimarios, para minimizar la resistencia psicológica de las víctimas (esto es, de nosotros), además de mentir y subestimar los efectos de sus artefactos, utilizan unidades desproporcionadas. Así, 100 millones de cadáveres se hace pasar por tan sólo 100 megamuertes, y el poder explosivo de los arsenales nucleares alcanzaría tan sólo a 20 gigatones. Pero 20 gigatones poseen un poder explosivo equivalente a 20000 millones de toneladas de TNT, y para poder transportar una carga semejante por tren se requerirían 500 millones de vagones, los cuales, puesto uno atrás de otro, recorrerían 10 veces la distancia de ida y vuelta a la Luna. Lejos de pretender hablar de incalculables consecuencias de una guerra, los ejercicios matemáticos anteriores, buscan crean una imagen fidedigna y a la vez elocuente acerca del poder de los armamentos contemporáneos.

 El hecho singular asociado con las incineraciones de Hiroshima y Nagasaki, no fue que se hubiera conseguido matar tanta gente en tan poco tiempo —resultados similares ya se habían logrado con los bombardeos estratégicos de ciudades europeas y japonesas— sino que en el mes de agosto de 1945, tras inmolar dos ciudades indefensas con sólo apretar un botón, EE.UU. se encontró con la posibilidad de repetir acciones de esta naturaleza ad infinitum, con probabilidades de éxito casi totales y a un costo 100 veces menor que los bombardeos estratégicos. Así se creó un desequilibrio estratégico inaceptable para las demás potencias, sobre todo para la URSS, y con ello se dio inicio a la carrera armamentista.

EL COMIENZO DE LA GUERRA FRIA

En agosto de 1945, mientras los EE.UU. emergían de la Segunda Guerra Mundial económica y políticamente fortificados, la URSS trataba de reponerse de la mayor devastación que jamás recibiera una nación industrial: más de 20 millones de personas (más del 30% de la población de los territorios ocupados) había muerto. Los ejércitos nazis destruyeron y quemaron 1710 ciudades y más de 70000 poblaciones; 32000 empresas industriales, casi 100000 cooperativas agrícolas, millares de hospitales, escuelas, institutos de investigación y centros culturales. En sus memorias, el embajador norteamericano George Kennan cuenta que aún en 1948 los campos de Ucrania eran arados por niños, ancianos e inválidos. Sin proponérselo, la barbarie hitleriana había logrado grabar en dos pueblos, el judío y el soviético, el más hondamente sentido “Nunca Más” de toda la historia, con profundas consecuencias para los árabes y para los países del este europeo.

En ese mismo mes de 1945, el Ejército Rojo, con 10 millones de soldados razonablemente equipados, lucía como la más poderosa organización militar de la historia, si bien su base económica se encontraba muy disminuida. Haciendo eco de esta situación, el 5 de marzo de 1946, el entonces Primer Ministro del Reino Unido, Winston Churchill, en presencia del presidente Truman y de otros funcionarios gubernamentales, pronunció en Fulton (Missouri), su célebre discurso sobre la “Cortina de Hierro”, proponiendo una alianza anglo-norteamericana para luchar contra el “comunismo oriental” y proclamado una “cruzada contra el socialismo”. A más de 20 años de haber fracasado en la guerra secreta (1918-1925) anglo-franco-norteamericana contra la URSS, Churchill se vengaba de sus enemigos bolcheviques declarando el comienzo de la Guerra Fría.

Las principales iniciativas norteamericanas durante la Guerra Fría fueron la Doctrina Truman, el Plan Marshall, la OTAN y la creación del Consejo de Seguridad Nacional. La doctrina Truman, anunciada el 12 de marzo de 1947, afirmaba el “derecho” de los EE.UU. de intervenir en todos los países amenazados por el comunismo. Una de sus consecuencias fue la instalación en Grecia y Turquía de bases militares equipadas con armamento nuclear que perdura hasta el presente. En julio de 1947, aún rechazando la idea de una guerra, George Kennan destacaba que el objetivo de la política norteamericana era conducir a la eliminación del poder soviético, vaticinando la liquidación del sistema socialista en Europa Oriental en un plazo inferior a 15 años.

Ante este panorama amenazador, la URSS enfrentó su reconstrucción organizando al mismo tiempo una defensa para disuadir a potencias enemigas de futuros intentos de invasión. Esto condujo al gobierno soviético a considerar las ventajas de una “defensa en profundidad”, para lo cual era necesario contar con territorios seguros a lo largo de todas sus fronteras, en franco conflicto con las aspiraciones nacionalistas de los países de Europa Oriental recién liberados del dominio nazi.

El mensaje de Hiroshima y Nagasaki no hizo sino reafirmar la estrategia soviética ya señalada: de una día para otro había surgido la amenaza nuclear de bombarderos tripulados. Esta amenaza se encontraba respaldada por las intenciones de los propios comandantes de las fuerzas aéreas británicas y norteamericanas que, según observadores tales como los físicos Freeman Dyson y Robert Oppenheimer, planeaban cómo atacar Leningrado y Moscú una vez terminado el “conflicto” con Alemania.

A los bombarderos tripulados solamente se les podía ofrecer una sólida defensa antiaérea, para la cual era esencial contar con una defensa en profundidad. Frente a estas circunstancias, la URSS fue integrando a los países de Europa Oriental en un sistema de defensa apoyado militarmente por una enorme cantidad de soldados, carros blindados y una flota incipiente de aviones interceptores. La URSS consolidó la ampliación de su colchón de seguridad con el golpe político de 1948 en Checoslovaquia, lo cual también le dio acceso a importantes minas de uranio.

Concurrentemente, el proyecto nuclear soviético fue incentivado; la primera reacción en cadena fuera de EE.UU. y Canadá tuvo lugar en la navidad de 1946 en un suburbio de Moscú, y el 3 de septiembre de 1949 un avión “meteorológico” norteamericano volando al este de la península de Kamchatka registró un aumento en la radiactividad atmosférica, de cuyo análisis se dedujo que los soviéticos habían ensayado su primer artefacto atómico.

Una guerra con bombas atómicas podría haber conducido al fin de la civilización pero no de la humanidad. El 10 de marzo de 1950, sin embargo, el presidente Truman, contando con un apoyo abrumador del pueblo norteamericano, emitió la autorización para iniciar el desarrollo y eventual fabricación de bombas termonucleares, mil veces más poderosas que las atómicas, y que harían concebible, por primera vez, la extinción de la humanidad.

 DEFENSA DE EUROPA

Las rudimentarias bombas nucleares que en agosto de 1945 destruyeron Hiroshima y Nagasaki fueron lanzadas desde bombarderos de alcance medio estacionados en bases situadas a 2500 kilómetros de los blancos y toscamente adaptados para realizar sus misiones. Inmediatamente después, los EE.UU. se avocaron a la tarea de perfeccionar sus armas y construir una enorme flota de aviones específicamente diseñados para lanzar bombas atómicas.

 
La oposición a las armas nucleares es una bandera de lucha en diversos países del mundo.

El desarrollo de bombas más efectivas, pequeñas y confiables culminó en el verano de 1947, la Fuerza Aérea de EE.UU. comisionó la construcción de 400 bombas atómicas. Sin embargo, el nivel de producción no fue el esperado; aún en enero de 1949, trabajando en un plan para destruir 70 áreas urbanas soviéticas con 133 bombas atómicas en 30 días, la junta de Jefes del Mando Aéreo Estratégico manifestó a la Comisión de Energía Atómica que la producción de bombas debía acelerarse y ampliarse urgentemente. Los primeros bombarderos atómicos llegaron a Inglaterra entre 1950 y 1952. En 1954, cuando la URSS construía sus primeros bombarderos intercontinentales, los EE.UU. ya habían desplegado más de mil B-47 armados con bombas atómicas, y un número mayor aún de aviones de menor autonomía, distribuidos en países de la OTAN en semicírculo alrededor de la URSS y que también podían portar armas nucleares. En este período de la historia, los EE.UU. hubieran podido “mandar a la URSS a la edad de piedra” con sus bombas, pero los presidentes Truman y Eisenhower optaron por no hacerlo, a pesar de tener “graves dudas” al respecto, como Eisenhower lo atestiguara años más tarde en sus memorias.

El factor determinante de la recuperación económica de Europa Occidental fue el Plan Marshall patrocinado por los EE.UU. que en sus primeros diez años ayudó a las economías de dichos países con 70000 millones de dólares. En contraste, los países de Europa Oriental y la URSS no contaron con ayuda económica externa para enfrentar una reconstrucción mucho más severa.

El 4 de abril de 1949 se firmó la carta de la Organización del Tratado del Atlántico Norte (OTAN) cuyo objetivo es defender a los países signatarios de una posible agresión de los países del bloque soviético. Los actuales países miembros son: Islandia, Holanda, Bélica, Luxemburgo, Portugal, España, Francia, Italia, Grecia, Turquía, Canadá y los Estados Unidos.

La creación de la OTAN fue acompañada de una ruidosa campaña periodística alertando sobre la “amenaza soviética”. Poco más tarde, el Secretario de Estado de los EE.UU. John Foster Dulles reconocía que “la mayoría de las personas enteradas consideraba que no había peligro de invasión del Ejército Rojo a Europa Occidental o en el continente asiático”.

Seis años después, el 15 de mayo d3 1955, se firmó la carta de la Organización del Tratado de Varsovia (OTV) cuyo objetivo es organizar la defensa de sus miembros contra una posible agresión. Actualmente forman parte de la OTV Alemania Democrática, Polonia, Checoslovaquia, Hungría, Rumania, Bulgaria y la URSS.

En 1982 las poblaciones de los países miembros de la OTAN y de la OTV eran de 580 y 380 millones de personas respectivamente. Según fuentes occidentales, las fuerzas armadas poseían 4900000 y 4760000 efectivos; los productos brutos internos eran de 6 y 2 millones de millones de dólares, y los gastos militares sumaban 260000 y 127000 millones de dólares respectivamente.

Si se incorporan las reservas de la OTV y se excluyen las de la OTAN, en 1982 el armamento convencional de la OTV (y, entre paréntesis, el de la OTAN) ascendía a 46500 tanques (17600), 20300 cañones y lanzadores de misiles (9800), 6300 misiles tierra-aire (1660), 1800 misiles antitanques (4600), 1400 helicópteros armados (800), 6500 cañones antiaéreos (5200), 3700 cañones antitanques (1000) y 2700 aviones tácticos (2100). A pesar de estos números, se admite que la OTAN detenta un poder de fuego de armas convencionales equivalente al de la OTV.

Al principio, la OTAN basó su estrategia militar en las armas nucleares de la nación americana. En enero de 1954 John Foster Dulles anunció su doctrina de “represalia masiva” por la cual los EE.UU. “mandarían a la URSS de regreso a la edad de piedra” frente a una agresión soviética en cualquier lugar del planeta.

A raíz de la introducción de armas tácticas o de teatro a mediados de los años 50, la OTAN adoptó una estrategia militar propia: el “primer uso” de armas nucleares en caso de que sus fuerzas convencionales (no nucleares) estuvieran amenazadas de ser derrotadas por una posible agresión soviética. Hacia finales de los años 50, el desarrollo nuclear soviético hizo perder a los EE.UU. su monopolio nuclear, ante lo cual éstos tuvieron que abandonar la doctrina de represalia masiva. No obstante, la OTAN mantuvo su doctrina de primer uso, a pesar de que las premisas que justificaron su adopción dejaron de ser válidas.

POSIBILIDAD DE DEFENSA CONVENCIONAL DE EUROPA

A partir de 1954, para implementar la doctrina de represalias masivas, los EE.UU. desplegaron misiles de alcance intermedio, bombarderos y otro tipo de aviones armados con bombas nucleares en base dispuestas en semicírculo alrededor de la URSS, desde Turquía hasta Inglaterra. Las medidas de represalia contemplaban la aniquilación de todas las ciudades soviéticas.

Anteriormente, en noviembre de 1851, a raíz de los planes apocalípticos del Mando Aéreo Estratégico de los EE.UU., de los cuales tenía conocimiento de primera mano, en virtud de su posición privilegiada como asesor del gobierno de los EE.UU. el físico Robert Oppenheimer viajó a París. Allí conversó con el comandante supremo de la OTAN, General Dwight Eisenhower, sobre la conveniencia de que la fuerza aérea de EE.UU. compartiera su monopolio del arsenal atómico con el ejército a través de la introducción de armas atómicas tácticas que quedarían bajo el control de este último. De esta manera, argumentaba Oppenheimer, sería posible neutralizar una invasión soviética de Europa Occidental deteniendo a los tanques enemigos con armas nucleares en el propio campo de batalla sin recurrir al aniquilamiento de ciudades. (Oppenheimer vio también a las armas tácticas como aliadas plausibles en su campaña para conseguir la postergación de la fabricación de bombas termonucleares, entonces en pleno desarrollo).

Las recomendaciones de Oppenheimer, incorporadas en un Reporte Oficial llamado Vista, fueron aceptadas por el gobierno de los EE.UU. y han servido de base a la doctrina de primer uso de las armas nucleares, adoptada desde entonces por la OTAN, (a raíz de esto la Fuerza Aérea se vengó utilizando a sus aliados en el gobierno para instigar unas “audiencias de lealtad” que llevaron a Oppenheimer a su ruina política).

Los argumentos de Oppenheimer, que parecían razonables en la época, dejaron de tener vigencia en los años 60, cuando la URSS desarrolló un arsenal nuclear respetable que acabó con la superioridad nuclear de la OTAN en el teatro europeo.

 
El terrible balance de la primera y segunda Guerra Mundiales fue de 60 millones de muertos.

Desde entonces la estrategia de la OTAN ha ido perdiendo respetabilidad ya que, no habiéndose encontrado una forma de controlar una guerra termonuclear, un primero uso de armas nucleares por parte de la OTAN acarrearía una respuesta nuclear inmediata de las fuerzas de la OTV y una muy probable guerra termonuclear global con la posible extinción del género humano. De ahí que expertos nucleares de uno y otro bando denominen a la actual estrategia de la OTAN con el poco reconfortante epíteto de “pacto suicida”.

No obstante, bajo la doctrina de primer uso, las armas nucleares de teatro determinan de manera esencial el entrenamiento de tropas, la procuración de equipo y el planteamiento de todas las operaciones militares de la OTAN. Como consecuencia de lo anterior, existe una opinión generalizada que afirma que si la OTAN estuviera siendo derrotada en un conflicto importante, existiría una presión irresistible de utilizar armas nucleares en el teatro europeo a pesar de la macabra sentencia que ello implica.

En un esfuerzo por cuantificar cuán factible es una defensa convencional, numerosos expertos han considerado varios tipos de escenarios posibles de ataques de la OTV en Europa Occidental seguida de una respuesta de la OTAN.

Los indicadores principales para evaluar las posibilidades de éxito de un atacante frente a un defensor competente son el cociente entre efectivos totales de ambos bandos alistados para el combate (CET), y la misma cantidad tomada localmente a lo largo de un eje principal de ataque (CEL). Se admite que CET debe ser mayor que 2 y CEL mayor que 5 para poder empezar a pensar en una victoria del atacante.

Los resultados de simulaciones por computadora indican que, en la situación actual, CET podría crecer hasta un máximo de 1.6 y CEL no excedería 3 o 4 las dos semanas de la presunta movilización de las fuerzas de la OTV, decreciendo después a niveles inferiores, de lo que se concluye que Europa Occidental es defendible hoy día por medios convencionales. Para hacer más favorables los valores de CET y CEL los expertos siguieren la construcción de obstáculos para detener tanques, fortificaciones, aumentar las existencias de suministros de combate, todo ello a un costo de unos 100000 millones de dólares distribuidos en 6 años. Esto repercutiría en un aumento del 2% en el presupuesto de la OTAN, que es menos que el aumento del 3% ya acordado en 1978.

Si la OTAN adoptara una estrategia que no reposara sobre el uso de las armas nucleares para responder a un ataque no nuclear, se podría dar un primer paso hacia la desnuclearización de Europa y el Mundo. En esto coinciden personajes de una indiscutida lealtad al sistema occidental, tales como Robert McNamara, el recientemente fallecido Kennan, McGeorge Bundy y Gerard Smith.

LOS ARSENALES NUCLEARES EN LOS AÑOS 50

El primer artefacto termonuclear norteamericano, detonado el 1o. de noviembre de 1952, borró del mapa la Isla de Elugelab del atolón de Eniwetok en el Océano Pacífico. Los soviéticos explotaron un dispositivo termonuclear el 12 de agosto de 1953. La primera bomba de hidrógeno (o termonuclear) norteamericana fue ensayada exitosamente en Bikini, el 1o. de marzo de 1954; la de los soviéticos tuvo lugar en noviembre de 1955. Todas las armas nucleares desplegadas actualmente son termonucleares, y su poder explosivo oscila entre unos poco kilotones y 20000 kilotones.

Las armas nucleares se pueden categorizar de acuerdo a su alcance: las de corto y mediano alcance se denominan armas tácticas o de teatro, y las de alcance intercontinental (más de 6400 kilómetros) se las llama estratégicas.

Las primeras armas nucleares de teatro fueron bombas atómicas transportadas por bombarderos B-29 semejantes a los que se usaron en Hiroshima y Nagasaki, Por estos medios los E.U. tuvieron la capacidad potencial de destruir a la URSS en no más de 30 días, a partir de 1949 y desde bases situadas en los países de la OTAN. Probablemente, las primeras armas nucleares llegaron a Europa entre 1950 y 1952 luego de que en diciembre de 1949 el presidente Truman ordenara al Mando Aéreo Estratégico incluir ataques nucleares “de retardamiento” en los planes de guerra contra la URSS. Estos ataques contemplaban la contención de tropas soviéticas en la frontera de la URSS mediante el uso de bombas atómicas.

Las primeras armas nucleares estratégicas eran bombas atómicas transportadas por superfortalezas B-47 auxiliadas por un igual número de aviones tanque, que a una velocidad de 900 kilómetros por hora podían hacer el viaje interhemisférico en unas 12 horas de vuelo. Los primeros bombarderos que podían hacer trayectos intercontinentales de ida y vuelta sin reabastecimiento de combustible fueron los B-52 desplegados por E.U. en 1955. Los soviéticos hicieron desfilar sus bombarderos intercontinentales Tu-95 por primera vez en 1954, aunque éstos no llegaron a ser operacionales hasta 1956. Además, los bombarderos intercontinentales soviéticos nunca llegaron a ser fabricados en número suficiente como para constituir un peligro para los E.U. Sin embargo, en 1956 el Pentágono denunció un abismal atraso norteamericano en bombarderos nucleares, lo que generó un furor armamentista conducente a que en 1960 los E.U. contaran con 2100 bombarderos intercontinentales B-47 y B-52, contra 140 de los soviéticos.

La explicación posterior del Pentágono acerca de su error de apreciación fue que de la creencia (correcta) en que la URSS podía fabricar 25 bombarderos intercontinentales por mes, habían deducido que al cabo de 5 años los soviéticos podrían contar con 1500 aviones de ese tipo. No obstante, los hechos comprobaron que en los años 50, la URSS estaba más preocupada por desarrollar su economía que por alcanzar la paridad nuclear con los E.U. Como ejemplo adicional, las fuerzas armadas de la URSS se habían reducido de 5800000 efectivos en 1955 a 3600000 en 1959, mientras que las tropas norteamericanas se habían reducido más pausadamente de 2900000 a 2600000 en el mismo periodo.

Se dice que el primer cohete intercontinental (descendiente de la bomba alemana V-2), ensayado por al URSS en agosto de 1957, dos meses antes del lanzamiento del Sputnik, dio a unos 60 kilómetros del blanco. Los primeros misiles balísticos intercontinentales (MBI) instalados en la URSS y en los EU hacia finales de los años cincuenta ya recorrían trayectorias de 10000 kilómetros en unos 60 minutos y con una precisión de uno 2000 metros: constituían el “arma absoluta” concebida por el matemático John von Newmann en EU y por científicos soviéticos en la URSS.

En la campaña presidencial de 1960, cuando los EU contaban con apenas 18 MBI, el candidato demócrata John F. Kennedy anunció que la URSS aventajaba a EU en MBI por un factor de 50. En su mensaje de despedida, en enero de 1961, el presidente Eisenhower confirmó que el retraso en bombarderos había resultado ser una ficción, y que los pretendidos 1000 misiles soviéticos tenían toda la apariencia de ser una fantasía semejante. Ese mismo año se confirmó que en 1960 la URSS poseía tan sólo 35 MBI. En 1961 los E.U. ya se habían puesto al frente con 63 MBI contra 50 de la URSS.

En el mismo discurso, Eisenhower introdujo el concepto del “complejo militar-industrial”. Sus palabras textuales fueron: “Esta conjunción de un inmenso establecimiento militar y una gran industria de armamentos es nueva en la historia americana… Debemos guardarnos ante la adquisición de influencias injustificadas… por el complejo militar-industrial. Ya que el potencia para ejercer mal el poder existe y va a persistir”. Eisenhower confió a su asesor científico, el físico Herbert York, de quien se había hecho amigo, que consideraba que éste era el pasaje decisivo de su discurso.

 
La industria armamentista en E.U. proporciona fabulosas ganancias a los monopolios.

LOS ARSENALES ESTRATEGICOS EN LOS AÑOS SESENTA

En enero de 1960, cuando la URSS oponía 200 bombas estratégicas a las 6300 de los E.U., el líder soviético Nikita Khruschev declaró que su país se había comprometido a llevar a cabo una estrategia de disuasión. Las fuerzas invulnerables de la URSS, dijo, “son los suficientemente poderosas como para borrar de la superficie de la tierra al país o a los países que nos ataquen”. Con esta estrategia la URSS no solamente liberaba recursos para su desarrollo económico sino también evitaba que los E.U. la atacara por llegar a creer que la URSS pudiera atacarlos primero.

El 1o. de mayo de 1960 un avión U-2 de reconocimiento fotográfico, piloteado por el agente de la CIA Gary Powers, fue derribado sobre la URSS. Además de E.U. estaban comprometidos en la misión Pakistán, Turquía y Noruega. El presidente Eisenhower justificó los vuelos como “esenciales para la seguridad de E.U.”, lo cual equivalía a decir que la seguridad de los E.U. dependía de poseer información sobre la posición de las armas nucleares soviéticas. Debido a su enorme ventaja en armamento nuclear, este conocimiento hubiera permitido a los E.U. tener la capacidad de lanzar un ataque exitoso sobre las fuerzas nucleares soviéticas, de donde podía deducirse que la seguridad de los E.U. dependía de poder garantizar su capacidad de desarmar a la URSS impunemente por medio de un bombardeo nuclear.

Ante la inminente aparición de satélites de reconocimiento que irían a reemplazar con creces las actividades de los aviones U-2, las armas nucleares soviéticas iba a hacerse vulnerables a posibles ataques de E.U. y con ello la postura soviética de mantener un poder de disuasión muy por debajo del nivel de los E.U. era insostenible. En noviembre de 1960 los soviéticos anunciaron que se verían forzados a un rearme masivo a menos que la OTAN y los E.U. iniciaran serias negociaciones de desarme. En 1061, la URSS y los E.U. revirtieron una tendencia de casi una década de presupuestos militares decrecientes, aumentando sus gastos militares en aproximadamente un 25%. En agosto de 1961 la URSS reanudó ensayos termonucleares en la atmósfera. La política soviética de “coexistencia con disuasión” daba lugar a una “coexistencia con paridad”.

El programa “Gran Rearme” fue preparado en 1959 por el Comité Nacional del Partido Demócrata de E.U. En enero de 1961, en uno de sus primeros actos de gobierno, el presidente Kennedy aprobó planes para construir un gran número de misiles balísticos intercontinentales (MBI) desplegados en depósitos subterráneos fortificados llamados silos. Cuando concluyó el programa Gran Rearme en 1965, había 854 MBI en igual número de silos y listos para disparar. En 1967 los E.U. llegaron a su límite actual de 1054 MBI basados en tierra. La URSS alcanzó esta cifra en 1969 y llegó a su límite actual de 1398 en 1971.

Los submarinos nucleares armados con MBI forman la parte más importante del arsenal de disuasión actual de los E.U. y de la URSS. El 17 de enero de 1955, los E.U. botaron el primer submarino nuclear; los soviéticos lo consiguieron cuatro o cinco años más tarde. El “George Washington”, primero submarino nuclear armado con MBI fue botado el 15 de noviembre de 1960 y el primero MBI lanzado por un submarino fue ensayado en mayo de 1962. Los soviéticos lograron éxitos semejantes años más tarde. En 1969 los E.U. contaban con 656 MBI en submarinos y la URSS con 205. Las fuerzas invulnerables de ambas superpotencias tenían una capacidad varias veces superior a la necesaria para destruirse mutuamente. Además, se había llegado a un cierto grado de paridad que iría a consolidarse en la década siguiente.

Desde la asunción del presidente Kennedy hasta el presente, el cambio de huéspedes en la Casa Blanca vino acompañado de una revisión de la doctrina de disuasión. Diría Nixon en 1969: “¿cómo podría un presidente de E.U. dar la orden de responder a un ataque nuclear soviético con otro ataque nuclear sabiendo que al hacerlo estaría condenando a su propio pueblo a una destrucción total?”. Las estrategias que han nacido al tratar de responder esta pregunta sin renunciar a las armas nucleares han sido de dos tipos: estrategias de respuestas nucleares “flexibles” que conducen a plantear cómo pelear una guerra nuclear (limitada), y estrategias que buscan neutralizar el poder de las armas nucleares por medio de defensas antibalísticas (DAB).

Las DAB forman parte de un problema mucho más amplio: la factibilidad de encontrar una solución tecnológica a un problema que es esencialmente político. Dejando de lado consideraciones morales, la construcción de una DAB plantea desde el comienzo una competencia entre dos tecnologías similares: armas ofensivas y técnicas de penetración contra armas defensivas y técnicas de discriminación entre bombas verdaderas y señuelos. Los expertos, sin excepciones, admiten que tácticas ofensivas baratas pueden siempre anular cualquier tipo de DAB.

 
Las negociaciones sobre reducción de arsenales nucleares están detenidas en la actualidad.

LOS ARSENALES ESTRATEGICOS DE LOS AÑOS SETENTA

La relativa paridad obtenida hacia finales de la década de los 60, fue rota temporalmente a comienzos de los años 70 cuando los E.U. hicieron operacionales los primeros misiles con ojivas múltiples, cada una con la capacidad de alcanzar blancos separados. La nueva técnica, ensayada por primera vez en 1968, se llamo mirvización, del término en inglés “Multiple Independently Targeted Reentry Vehicle (MIRV)”.

El MIRV pudo ser un descendiente del vehículo Transtage de la Fuerza Aérea de los E.U. que el 16 de junio de 1966 puso ocho satélites en ocho órbitas diferentes. Casi todos los mecanismos y técnicas utilizadas en el MIRV también pudieron haber sido tomadas del programa Apollo de la NASA, en particular de los sistemas utilizados en exploraciones lunares, y de varios otros proyectos de la Marina y de la Fuerza Aérea de los E.U.

 
Misil balístico intercontinental Titán II dotado de una ojiva de 10 megatones.

Una vez demostrada la factibilidad del MIRV, la decisión de fabricarlos y desplegarlos fue empujada por el complejo militar-industrial, aduciendo que los MIRV neutralizarían cualquier defensa antibalística que la URSS pudiera construir y que al mismo tiempo proporcionaría una forma barata de aumentar el número de blancos nucleares. Dentro de los E.U. solamente la Agencia de Control de Armamentos y Desarme se opuso al MIRV, argumentando que causaría tal desajuste del balance estratégico que la URSS no podría ignorarlo.

El MIRV ejemplifica el tipo de programas que evolucionan a partir de muchos objetivos independientes y sin relación aparente, llegando a poseer una base tan amplia que no son atacables por confrontación directa. Solamente se los puede disminuir o contener a través de una disminución o contención de la propia carrera armamentista. Algo parecido está sucediendo con la Guerra de las Galaxias.

El primer submarino con misiles Poseidón de 10 cabezas nucleares entró en servicio en abril de 1971. Como cada uno de estos submarinos posee 16 misiles, un solo submarino lleva 160 bombas que pueden apuntarse a un igual número de blancos. En 1975 los E.U. completaron su programa de mirvización: los submarinos pasaron de tener 656 cabezas estratégicas en 1970 a 5120 y los misiles instalados en tierra pasaron de 1054 bombas a 2154. Estas cifras se han mantenido hasta el presente.

El ensayo exitoso del primer MIRV soviético en agosto de 1973, al tiempo que el despliegue norteamericano de los MIRV se encontraba en su apogeo, motivó al secretario de defensa de E.U. James R. Schlesinger a declarar que el hecho “constituye evidencia de que los rusos buscan alcanzar ventajas estratégicas”. Hacia finales de la década, con la mirvización, los soviéticos habían aumentado su arsenal estratégico de 1398 a 5200 bombas en misiles balísticos intercontinentales basados en tierra, y de 205 bombas estratégicas en submarinos a 1200.

Por el segundo Tratado de Limitación de Armas Estratégicas (SALT II), el número de vehículos estratégicos fue limitado a 2250 por cada superpotencia, sin que se estipularan restricciones a la mirvización. Se admite que en la actualidad (1986) los E.U. y la URSS han llegado al límite impuesto por SALT II.

El otro hecho prominente que tuvo lugar en los años 70 fue el desarrollo en E.U. del sucesor del MIRV: el MARV (Multiple Manoeuvrable Reentry Vehicle). Al pasar del MIRV al MARV la precisión de los proyectiles aumentó de un error probable de 250 metros a 100 metros (y solamente 30 metros para trayectorias de unos pocos miles de kilómetros como las asignadas a los Pershing 2). Aparte de los Pershing 2, los MARV hicieron su aparición desde 1984 en misiles crucero (descendientes de la bomba alemana V-1), que tienen poco más de 2000 kilómetros de alcance y que son considerados estratégicos en virtud de su emplazamiento en países de la OTAN cercanos a la URSS. Los primeros MARV de alcance intercontinental son los misiles MX que están siendo instalados en los E.U.

Los MARV son armas netamente ofensivas, necesarias para lanzar un primer ataque sobre blancos militares de un enemigo. Si los E.U. utilizaran los MARV para destruir todos los misiles soviéticos basados en tierra, la URSS aún contaría con una formidable fuerza de disuasión en sus submarinos, ya que éstos continúan siendo prácticamente indetectables en mar abierto.

El perfeccionamiento, por parte de E.U. de una inmensa red de vigilancia de los océanos, y de sistemas de detección y de lucha antisubmarina, podría romper una vez más el actual equilibrio estratégico, exponiendo a los submarinos soviéticos a un ataque sorpresa. La insistencia de los E.U. en hacer más vulnerables a los submarinos soviéticos, o el cierre del paso entre Groenlandia y Noruega con minas nucleares profundas, proyectado por la Marina de E.U. puede conducir a graves enfrentamientos que podrían degenerar en una devastadora guerra nuclear.

LOS ARSENALES NUCLEARES DE CORTO Y MEDIANO ALCANCE

Por definición, los arsenales nucleares de corto y mediano alcance consisten de proyectiles emplazados en vehículos de menos de 6400 kilómetros de alcance, o en aviones con una autonomía de vuelo equivalente. Se los llama también arsenales de teatro o tácticos. Debido a la geografía política contemporánea, los E.U. son inalcanzables por este tipo de armas, no así la URSS.

Las armas que pueden ser utilizadas a más de 6400 kilómetros de sus bases se llaman estratégicas o intercontinentales. Pero también se considera estratégica a todas las armas nucleares bajo control de E.U., Francia y Reino Unido y que pueden alcanzar blancos dentro de territorio soviético, y a aquellas armas chinas que pueden penetrar profundamente en la URSS.

Según fuentes occidentales, la URSS contaría con unos 13000 proyectiles nucleares de teatro: 3000 para guerra naval y 10000 para un campo de batalla. Se cree que 4000 de estos proyectiles han sido ubicados desde 1981 en Alemania Democrática, Checoslovaquia, Hungría y Polonia. Además, la URSS cuenta con una infraestructura nuclear apreciable en Bulgaria, Mongolia y Vietnam, y en menor grado en Angola, Cuba, Etiopía y Yemen del Sur. Todas las armas nucleares soviéticas se encuentran en los cuatro países antes mencionados y bajo control de las fuerzas armadas de la URSS.

Los E.U. tendrían unos 20000 proyectiles tácticos, de los cuales 2000 estarían asignados a unidades navales, otros 2000 estarían bajo el control de la OTAN en Alemania Federal, Bélgica, Grecia, Holanda, Italia, Reino Unidos y Turquía, 4000 estarían desplegados en los mismos países bajo control de los E.U., 500 en Asia y el resto en E.U. continental. Alrededor de 1000 de estos proyectiles pueden alcanzar territorio soviético desde Europa, y otros 1000 pueden hacerlos desde el Pacífico.

Las armas de teatro norteamericanas que pueden alcanzar territorio soviético son: los Pershing 2 (instalados en Alemania Federal en diciembre de 1983), los misiles Crucero (instalados en Alemania Federal, Bélgica, Italia y Reino Unido), bombas en aviones A-6 y A-7 desplegados en dos portaviones en el Mar de Noruega y en el Mar Egeo, respectivamente, y bombas en aviones F-111 estacionados en el Reino Unido. Desde enero de 1984, la URSS mantiene submarinos nucleares en el Atlántico, cerca de la costa de E.U., en respuesta a la instalación de los Pershing 2.

En 1985 los E.U. poseían 6551 armas termonucleares tácticas desplegadas (listas para entrar en acción) en territorios de ultramar: 3396 en Alemania Federal, 1268 en el Reino Unido, 549 en Italia, 489 en Turquía, 428 en Guam, 164 en Grecia (el gobierno griego ha prometido que quedará libre de armas nucleares en 1989), 151 en Corea del Sur, 81 en Holanda y 25 en Bélgica. Además, los E.U. contaban con una infraestructura nuclear apreciable en Ascensión, Atolones de Eniwetok, Kwajalein y Johnston, Australia, Bahamas, Bermudas, Canadá, Diego García, España, Filipinas, Groenlandia, Islandia, Japón, Midway, Noruega, Portugal, Puerto Rico y en la zona del Canal de Panamá, y en menor grado en Antigua, Cabo Verde, Dinamarca, Djibouti, Gibraltar, Estados Federados de Micronesia, Omán, Seychelles y en Turks y Caicos.

El Reino Unido cuenta con 150 bombas termonucleares para guerra naval, 160 bombas estratégicas en 4 submarinos nucleares (con alcance hasta los Urales) y 376 bombas en bombarderos asignados a operaciones de teatro, pero que dado el caso podrían llegar a territorio soviético. Parte de estos bombarderos están estacionados en Alemania Federal. Fuera de su territorio, el Reino Unido posee infraestructura nuclear en Alemania Federal, Ascensión, Bermudas, Canadá, Chipre, Dinamarca, E.U., Islas Malvinas (Falkland), Gibraltar y Holanda.

Todas las armas nucleares francesas están estacionadas en Francia: 270 pueden alcanzar blancos en la URSS, 204 son para uso en campo de batalla y 40 estarían disponibles para ser utilizadas en otros lugares. Francia tiene seis submarinos nucleares, cinco de ellos poseen un total de 64 misiles e igual número de bombas y el sexto posee 16 misiles con 96 bombas. Francia cuenta con infraestructura nuclear fuera de su territorio en Alemania Federal, Djibouti, Estados Unidos, Polinesia Francesa y Portugal.

China posee entre 10 y 30 misiles tácticos y alrededor de 240 armas estratégicas: 140 misiles de alcance variable (5 de los cuales tienen autonomía suficiente para atacar a E.U.), y unos 100 bombarderos con otras tantas bombas termonucleares.

Todos los arsenales de teatro están desplegados a cielo descubierto y por lo tanto son muy vulnerables a cualquier tipo de ataque. Esta vulnerabilidad crearía una presión irresistible para utilizar armas tácticas en caso de guerra, ante la perspectiva de que resultaran destruidas antes de que se les pudiera utilizar, e independientemente de las estrategias en juego. Por ello, la eliminación de las armas de teatro es una necesidad urgente si se quiere evitar una guerra nuclear.

ARSENALES ESTRATEGICOS CONTEMPORANEOS

Los E.U. y la URSS poseen arsenales estratégicos con inventarios cercanos a las 12500 armas y 4500 megatones por bando, sin contar las 2000 cabezas nucleares norteamericanas que pueden ser lanzadas sobre la URSS desde posiciones en Europa y el Pacífico Norte. Estas armas poseen poderes explosivos que oscilan entre 50 y 1200 kilotones, aunque aún existe un número considerable de antiguas bombas de 9000 y 20000 kilotones. En E.U. se piensa que estas últimas serán reemplazadas en breve por un mayor número de bombas con un menor poder explosivo, ya que los planeadores de guerras no encuentran blancos que las justifiquen.

Un 48% de las bombas estratégicas norteamericanas se encuentran en submarinos, otro 35% está desplegado en bombarderos y solamente un 17% se encuentra basado en tierra, en silos de protección. En tiempo de paz, el 50% de los submarinos norteamericanos con armas nucleares (17 a 20 submarinos) se encuentran en altamar (donde se cree que son invulnerables a cualquier tipo de ataque) y un 30% por ciento de los bombarderos se encuentra bajo una alerta de 8 minutos, lo que también haría invulnerables a estos aviones. Además, se estima que en un ataque nuclear por sorpresa, sobreviviría por lo menos el 15% de los misiles albergados en silos. En resumen, el número de bombas estratégicas norteamericanas invulnerables a un hipotético ataque sorpresa soviético sería de 5265, esto es, más de 15 veces lo necesario para regresar a la URSS a la edad de piedra.

Haciendo un análisis más fino y tomando en cuenta el peor escenario posible, el Pentágono llega a una cifra de 3800 bombas invulnerables con 500000 kilotones de poder explosivo. Aunque parezca increíble, algunos políticos norteamericanos interpretan estos resultados como una confirmación de que los E.U. han perdido su poder de disuasión frente a la URSS. Desafortunadamente, los votantes norteamericanos aceptan estas conclusiones y con ello “legitimizan” una carrera armamentista sin fin a la vista.

La composición del arsenal nuclear de la URSS es diferente. Un 40% se encuentra en submarinos, solamente un 2% está desplegado en bombarderos, y un 58% se encuentra en silos basados en tierra. Tomando en cuenta que sólo un 15% de los submarinos soviéticos (alrededor de 10) se encuentra en altamar en todo momento, que los bombarderos soviéticos no se encuentran bajo alerta, y que la vulnerabilidad de los silos soviéticos sería igual a la de los silos norteamericanos, se llega a que el número de bombas estratégicas soviéticas invulnerables a un hipotético ataque sorpresa norteamericano sería de 1700, esto es, unas cinco veces lo necesario para destruir a los E.U.

Durante los primeros veinte años de la Guerra Fría, los líderes soviéticos parecieron contentarse con niveles de disuasión mucho menores. En la actualidad admiten que existe paridad de fuerzas con los E.U. y justifican su excesivo poder de disuasión con el argumento de que si la URSS tuviera un arsenal menor, los planeadores del Pentágono, utilizando el mismo tipo de cálculos que hoy, los hace sentirse amenazados por el arsenal soviético, podrían concluir que los EE. UU, tienen la capacidad suficiente para dar un primer golpe estratégico exitoso sobre la URSS.

Las armas nucleares estratégicas de China, Francia y Reino Unido, sin bien son suficientes para destruir a la URSS aún actuando por separado, son muy inferiores en número. Para mediados de los años 90, sin embargo, Francia y Reino Unido planean poseer un total de 1000 bombas estratégicas en submarinos invulnerables.

De acuerdo con el analista militar norteamericano Desmond Ball, los planes estratégicos de los E.U. incluyen 40000 blancos militares, regiones de interés, centros económicos, industriales y de gobierno dentro de la URSS y de los países de la OTV. Sin embargo, debido a que la política de los E.U. es la de “prevalecer después de un ataque nuclear frente a cualquier país que pudiera emerger como líder mundial” y teniendo en cuenta que en una guerra termonuclear la industria de E.U. quedaría arrasada, estudios llevados a cabo en países occidentales sobre escenarios de una guerra nuclear toman en consideración blancos económicos e industriales en países no beligerantes que incluyen las grandes metrópolis del tercer mundo como: México, Sao Paulo y Buenos Aires.

El plan de guerra de E.U. recientemente denunciado por el analista militar William Arkin, contempla la utilización de varios miles de bombas termonucleares en la primera andanada que daría comienzo a una guerra nuclear. Dado que acciones semejantes desencadenarían una guerra global incontrolable el plan norteamericano contradice la propaganda oficial de E.U. según la cual una guerra nuclear sería “prolongada” y “controlable”. Si bien se desconoce el plan de guerra de la URSS, el gobierno soviético asegura que una guerra termonuclear sería catastrófica y definitiva.

 
Una buena cantidad de científicos como Edward Teller, intervienen en la fabricación de armamento.

CONSECUENCIAS DE UNA GUERRA NUCLEAR

Un análisis de las consecuencias de una guerra nuclear debe partir de un escenario realista. ¿Es posible concebir una guerra nuclear limitada o solamente queda la alternativa de una guerra global termonuclear?

En 1957, cuando el progreso soviético en armas nucleares sugería que los E.U. habían perdido el monopolio nuclear, el profesor Henry Kissinger afirmó: “la guerra total ha dejado de ser un instrumento político significativo”. Y agregó: “pero mientras consideremos a la guerra limitada como una aberración del caso puro de la guerra total, nunca podremos aprovechar las oportunidades que ésta nos proporciona”. Esta visión del mundo no tuvo oportunidad de empezar a ser implementada sino hasta 12 años más tarde, en enero de 1969, cuando Kissinger fue nombrado Asesor Presidencial de Seguridad Nacional por parte del presidente Richard Nixon.

Hubo un periodo en la historia ubicado a lo largo de la década de los sesenta, cuando ambas superpotencias reconocían que una guerra nuclear sería global e incontrolable. Sin embargo, a principios de los años setenta el pensamiento de Kissinger cobró fuerza. El 15 de diciembre de 1973, el Secretario de Defensa de E.U., James R. Schlesinger anunció una nueva doctrina que considera “blancos nucleares flexibles” con el objetivo de generar una capacidad para “controlar una guerra nuclear en todos sus posibles niveles”. En noviembre de 1981, el actual Secretario de Defensa, Caspar Weinberger explicó que la nueva estrategia apunta a “prevalecer en una guerra nuclear prolongada”, de manera que las “hostilidades finalicen en términos favorables a los EE. UU”.

En un intento por clarificar los problemas planteados por la nueva postura de su gobierno, el senador Sam Numm preguntó a una alto funcionario del Mando Aéreo Estratégico qué pasaría si explotara una sola bomba termonuclear en los E.U. o en la URSS. El funcionario mencionado formó una comisión de estudio que al cabo de tres semanas dictaminó que el resultado más probable sería una guerra global termonuclear (GGT).

Tanto los planes de guerra norteamericanos como las declaraciones del gobierno soviético estipulan claramente que cualquier agresión tendrá una respuesta nuclear sobre territorio de la otra superpotencia. Si juntamos este dato con la respuesta obtenida por el senador Nunn, podemos deducir que una guerra en la que se utilizaran armas nucleares degeneraría en una GGT. Para cerrar el argumento, cabe mencionar que las estrategias militares de EE. UU y de la URSS, a través de simulaciones de juegos de guerra por medio de computadoras han llegado a las mismas conclusiones. Por lo tanto, una discusión sobre las consecuencias de una guerra nuclear requiere la adopción de un escenario de GGT.

Se admite que en una GGT se utilizarían la mitad de los arsenales nucleares. Los “expertos” calculan que solamente en el hemisferio norte, de 1300 millones de habitantes urbanos, morirían carbonizados y por heridas diversas un 60% de los afectados, esto es, un total de 750 millones de personas en las primeras horas siguientes al holocausto. Otro 30% de la población quedaría herida con pocas posibilidades de sobrevivir en un mundo devastado. En el hemisferio sur morirían de manera semejante otros 80 millones de personas.

 
Los expertos señalan que en una guerra nuclear global se acabaría la vida sobre la tierra.

Pero las consecuencias más graves se manifestaría al cabo de unos días en el hemisferio norte y de unas semanas en el hemisferio sur, cuando empezarían a sentirse los efectos climáticos globales causados por la inyección de más de 1000 millones de toneladas de partículas de humo en la atmósfera. Estas partículas absorberían más del 99% de la luz solar que llega normalmente a la superficie de la tierra, creando una oscuridad total: a medio día no podríamos ver las uñas de nuestras propias manos. Cesa la fotosíntesis. Muere el fitoplancton, rompiéndose así la más grande de las cadenas alimenticias: mueren los océanos. Al no llegar la luz a la superficie, los continentes se enfriarían en unos 30 o 50 grados centígrados, salvo en las regiones costeras. Las reservas de agua potable se congelarían. Es el comienzo de un invierno nuclear de varios meses de duración.

Debido a las grandes diferencias de temperatura entre el mar y los continentes, las costas estarían azotadas por vientos huracanados de 500 kilómetros por hora. Se admite la extinción de las plantas y animales tropicales y de la mayoría de los vertebrados. La pérdida de las cosechas, Los sobrevivientes deberían enfrentar epidemias de cólera, tuberculosis y disentería con un sistema social y económico despedazado con su propio sistema inmunológico debilitado por la radiactividad, sin asistencia médica, ni agua, ni comestibles, respirando aire envenenado por pirotoxinas en un frío polar y en la más cerrada oscuridad. En estas condiciones, no puede excluirse la posibilidad de extinción de la especie Homo sapiens.

LOS POLITICOS FRENTE A LA POSIBILIDAD DE UNA CATASTROFRE NUCLEAR

Si bien, la inmensa mayoría de los expertos coincide en que una guerra termonuclear acabaría con la vida sobre la tierra, un buen número de políticos occidentales desechan esta afirmación como alarmista o irrelevante.

Esta resistencia se debe, en parte, a que las predicciones apocalípticas no son bien recibidas por la gente educada. Además, el predominio de argumentos teóricos en los análisis sobre las consecuencias de una guerra termonuclear, resulta repugnante para muchos temperamentos pragmáticos, aunque el problema planteado no sea susceptible de ser verificado empíricamente, al menos no más de una vez.

Para muchos que en el pasado han justificado posiciones de supremacía o de beligerancia frente al desafió soviético, la posibilidad de que una guerra pudiera acabar con la especie humana, implicaría rechazar de manera retroactiva toda una trayectoria política y filosófica. Ante esta alternativa, se limitan a responder con una lista impresionante de fechorías atribuidas a los soviéticos a todo lo largo del siglo. Un ejemplo de este tipo de actitud fue la no ratificación del segundo tratado sobre limitación de armas estratégicas (SALT II) por el Senado de E.U. en ocasión de la invasión soviética a Afganistán en diciembre de 1979. Contrastando lo anterior, durante más de dos años hasta su firma en mayo de 1972, la URSS y los E.U. discutieron el SALT I al tiempo que aviones norteamericanos lanzaban 100 kilotones mensuales de bombas convencionales sobre Vietnam del Norte.

Otro aspecto de la resistencia es psicológico: abrumados ante la magnitud de los cambios necesarios en planeación militar y relaciones internacionales como consecuencia del descubrimiento de la posibilidad de un invierno nuclear, los políticos practican lo que los psicólogos denominan “rechazo”: se niega un problema que parece ser tan complicado que no tiene solución. Como por definición nadie puede resolver problemas que no tienen solución, no habría que preocuparse: habría que aprender a vivir con la amenaza de extinción de la humanidad. El error de esta postura radica en aceptar que se trata de un problema insoluble cuando en realidad el problema fue creado por un grupo de hombres y aumentado por diversos gobiernos a través de los últimos 40 años.

 Una forma de canalizar el “rechazo”, es creando mitos tales como: “no se puede negociar con los soviéticos. ¿Por qué un imperio totalitario que depende de su fuerza militar para mantener su poder iría a desarmarse voluntariamente?”. No hace falta mucha perspicacia para darse cuenta de que ni la URSS ni ningún otro país podría haber desplegado armas nucleares con el objetivo de mantener el orden interno. La existencia de arsenales nucleares obedece a otras causas. Además, los hechos demuestran que se han logrado tres acuerdos exitosos: el de limitación de ensayos termonucleares (1963), el SALT I (1972) y el SALT II (1979). Gracias al primero, la URSS, los E.U. y el Reino Unido pusieron fin al envenenamiento de la atmósfera que venían causando con los residuos radioactivos de sus ensayos nucleares. El SALT I prohibió el despliegue de defensas antibalísticas (DAB) y junto con el SALT II impuso topes al número de armas estratégicas dentro de diversas categorías. Tanto la URSS como los E.U. han llegado al borde de los límites permitidos, posiblemente en un intento de explorar la capacidad de vigilancia y de reacción de la otra superpotencia. No obstante, ninguno de estos tratados ha sido violado seriamente salvo, tal vez, en la construcción del radar de Krasnoyarsk (URSS) y de los radares de Goodfellow y Robins (E.U.), que probablemente se justifiquen por una nueva amenaza no contemplada en los tratados: la posibilidad de destruir radares cercanos al mar por medio de misiles crucero armados con cabezas convencionales y lanzados desde submarinos.

Los escritores de ciencia ficción, que durante más de 70 años han hecho descripciones románticas de todo tipo de guerras limitadas, inclusive de guerras espaciales, han contribuido de manera significativa a una indiferencia colectiva al respecto. Han generado un fermento que ha penetrado a través de caricaturas en la televisión y en una gran variedad de revistas que, en conjunto, cubren todo el espectro de nuestra sociedad. Los mercaderes del entretenimiento masivo presentan a la guerra como otra actividad más, cotidiana, justa, repetitiva y divertida. Concebir un holocausto final, equivaldría a poner fin a un negocio muy rentable.

Las visiones catastróficas de una guerra nuclear son vehementemente rechazadas por gente como Kissinger, que a una versión tan suavizada de un escenario nuclear como la mostrada en la película El día después la tildó acremente de “exagerada”. Por supuesto, su no hubiera más guerras, como dijera Kissinger en 1957, “nunca podríamos aprovechar las oportunidades que éstas nos proporcionan”.

UNA VISION DEL FUTURO QUE OFRECE ESPERANZAS

Según lo confiara el presidente Reagan a sus colaboradores más íntimos, lo que más le había entusiasmado de su célebre discurso “Guerra de las Galaxias” del 23 de marzo de 1983 fue describir “una visión del futuro que ofrece esperanzas”. ¿Cuáles fueron los mecanismos que generaron la “visión” del presidente Reagan?

El físico Edward Teller, reconocido como el inventor de la bomba termonuclear norteamericana, junto con el matemático Stanislaw Ulam, dio una conferencia sobre la guerra de las galaxias en la ciudad de México en 1986. Teller explicó a su audiencia que si bien Reagan asumió la gubernatura del estado de California en 1967, él tuvo la idea de invitar al nuevo gobernador a su laboratorio de armas nucleares en Livermore. Allí, el futuro presidente habría recibido su primera lección sobre defensas antibalísticas (DAB). Cuando el presidente Reagan propuso su Iniciativa de Defensa Estratégica, dijo Teller: “tal vez tuvo presente mis consejos de 16 años atrás”.

Lo que Teller muy sabiamente omitió decir fue que el 14 de diciembre de 1982 obtuvo una audiencia con el presidente Reagan en la Casa Blanca para presentar su opinión sobre la posibilidad de desarrollar sistemas de DAB. En la audiencia habría estado presente William Clark, Asesor Presidencial para Seguridad Nacional y partidario de la doctrina de disuasión. A continuación resumimos un excelente artículo de Laurence Barrett aparecido en el Time Magazine del 11 de marzo de 1985.

“Semanas más tarde, Robert McFarlane, subordinado de Clark y que en octubre de 1983 iría a substituir a su jefe, vio la oportunidad detrás del planteo de Teller. Supuestamente McFarlane estaba preocupado sobre el futuro de la estrategia militar de los E.U. El movimiento por la congelación de los armamentos nucleares estaba ganando momento y las negociaciones de Ginebra estaban estancadas, lo cual hubiera podida dar “oportunidad a los soviéticos para adelantarse en la carrera armamentista”. Buscando una manera de “mover el tablero”, McFarlane intuyó que un proyecto de investigación en defensa atraería amplio apoyo a nivel nacional y quizás algún día podría ser útil en Ginebra. Abordado al respecto, el presidente habría dado luz verde.

Siendo un novicio en el juego, McFarlane buscó un aliado de prestigio, que resultó ser el Almirante James Watkins, Jefe de Operaciones Navales. A fines de 1982 McFarlane y Watkins discutieron las nuevas ideas y el resultado fue un reporte para el presidente con los conceptos de McFarlane bajo la firma de Watkins, quien a seguir consiguió la aprobación de sus colegas del Mando de Operaciones Conjuntas.

El 11 de febrero de 1983, el Mando de Operaciones Conjuntas se reunión con Reagan en la Casa Blanca. La agenda nominal fue “armas ofensivas”. Watkins habló sobre una “amenaza creciente de inestabilidad” y luego añadió: “los avances en tecnología defensiva son tan promisorios que el Presidente debe apoyar un proyecto de investigación mayor”. En este punto habría intercedido McFarlane: “¿dice usted que esto podría dar lugar a un sistema realista?”. “Exactamente»”, habría respondido Watkins. McFarlane entonces inquirió a los demás lideres militares: nadie disintió.

Reagan inmediatamente habría tomado como suyo el argumento de Watkins, que le daba la razón en lo referente a su aversión por la estrategia de disuasión, y que daba plena expresión a su fe en la ciencia y la industria norteamericanas. Al final de la reunión Reagan ordenaría la pronta elaboración de tales ideas, que irían a formar la base de su famoso discurso.

 
Los mercaderes del entretenimiento presentan a las guerras como otra actividad, justa, divertida y romántica.

La historia anterior indica de manera inequívoca que la Guerra de las Galaxias sugerida por Teller, instigada por McFarlane y entusiastamente abrazada por Reagan, surgió como resultado de una maniobra política ajena a objetivos de seguridad nacional.

El 23 de marzo, dirigiéndose a los ciudadanos de su país, ante las cámaras de televisión, el presidente Reagan dijo, entre otras cosas: “Hasta ahora hemos basado nuestra estrategia de disuasión en la amenaza de una represalia masiva. ¿Pero qué tal si los hombres libres pudieran vivir seguros en el conocimiento de que su seguridad no descansaría sobre nuestra amenaza de responder, instantáneamente a un ataque soviético; que pudiéramos interceptar y destruir cohetes balísticos atacantes antes de que alcanzaran nuestro propio suelo y el de nuestros aliados? Reconozco claramente que los sistemas defensivos tienen sus limitaciones y plantean ciertos problemas y ambigüedades. Aunados a sistemas ofensivos pueden ser vistos como propiciadores de una escalada agresiva y nadie quiere esto. Sin embargo, teniendo firmemente en cuenta estas consideraciones, hago un llamado a la comunidad científica que nos ha dado armas nucleares, para que vuelque sus talentos hacia la causa de la humanidad y de la paz mundial: para que nos proporcione los medios que hagan impotentes y obsoletas estas armas nucleares”.

COMO VENDER LA GUERRA DE LAAS GALAXIAS

El texto del discurso de Reagan fue preparado exclusivamente para consumo interno. Habiendo reconocido explícitamente que “los sistemas defensivos tienen sus limitaciones” y que “aunados a sistemas ofensivos pueden ser vistos como propiciadores de una escalada agresiva”. Reagan pretendió limpiar sus intenciones y lo consiguió. Es increíble que al pueblo norteamericano no se le haya ocurrido preguntarse qué piensa hacer su gobierno con los sistemas ofensivos para no atizar los temores de la URSS: si se les mantiene intactos, la Guerra de las Galaxias busca crear un escudo invulnerable sin renunciar a la capacidad de E.U. de descargar un golpe mortal sobre la URSS, y se trata de un proyecto agresivo; si se les destruye previamente, entonces se trata de un proyecto que comienza por un desarme unilateral peligroso para la seguridad de E.U. y de sus aliados; y si la destrucción de sus arsenales se contempla a través de negociaciones bilaterales con la URSS, entonces se trata de un proyecto prematuro ya que en un mundo sin armas nucleares la Iniciativa de Defensa Estratégica (IDE) del presidente Reagan pierde su razón de ser.

En su conferencia sobre la Guerra de las Galaxias del 22 de enero de 1986 en la ciudad de México, Teller ofreció los siguientes argumentos preparatorios:

1. Los cohetes ultrasónicos son una realidad (correcto).

2. Estos cohetes ultrasónicos pueden llevar pequeñas cabezas nucleares que son suficientes para destruir una bomba nuclear atacante en la alta atmósfera (cierto).

3. Una explosión de un pocos kilotones en la alta atmósfera no perturbaría “el sueño de ciudadanos durmiendo pacíficamente debajo de la superficie” (correcto). Para apoyar su afirmación Teller relató su experiencia al observar una explosión de unos pocos kilotones mientras volaba en un avión militar a 5000 metros por encima del campo de pruebas: el avión apenas se movió (correcto pero ésta fue su única referencia a los efectos de las armas nucleares, dejando así la impresión en la audiencia de que las armas nucleares son benignas).

4. Las bombas nucleares pueden viajar acompañadas de partículas metálicas que saturarían el radar defensor, haciendo imposible su utilización para guiar los misiles hipersónicos interceptores (correcto).

5. Estas partículas metálicas, sin embargo, se desintegrarían al entrar a la atmósfera, debido a la gran cantidad de calor liberado por su fricción con el aire (correcto, pero no con la suficiente rapidez como para anular su utilidad como “medios de penetración”; actualmente se usan microcomputadoras que simulan el eco de las bombas verdaderas).

Es incorrecto sugerir, como lo hizo Teller, que el uso de señuelos para saturar un radar es una fantasía. Si fuera necesario, se podrían enviar señuelos a diferentes intervalos de tiempo para mantener permanentemente saturados a todos los radares defensores. De hecho, los escenarios de guerras nucleares consideran a los propios radares como blancos prioritarios.

Aún cuando los procesos de destrucción individual de bombas atacantes fueran resueltos, en un escenario de guerra todos los radares podrían destruirse previamente con misiles crucero difícilmente detectables y armados con cargas convencionales. Sin mencionar que para enfrentar miles de bombas y decenas de miles de señuelos hay que coordinar una defensa por medio de computadoras, para lo cual hay que diseñar un sistema de programas de cómputo de unas 10 millones de líneas de código, que nunca se podría ensayar en una situación realista (simulando un ataque con cientos de misiles) so peligro de que la URSS llegara a la conclusión de que está siendo atacada por los E.U. En suma, la DAB se considera irrealizable. Este conocimiento motivó la firma del SALT I en 1972, prohibiendo el desarrollo y despliegue de una DAB para evitar una carrera armamentista costosa e inútil.

Los apologistas de la IDE proponen añadir una batería de armas de ciencia ficción, como un pretendido “láser de rayos X”, que se ha dado a conocer en revistas de estimable reputación como es Physics Today con la notable característica de que los lectores incautos salen convencidos de su realidad al tiempo que los especialistas más allegados salen con la impresión opuesta.

La IDE es un fraude político y económico. También está dando lugar al mayor fraude tecnológico y científico de todos los tiempos. Apostar a la IDE soñando con la posibilidad de destruir a la URSS es ingenio y peligroso para la seguridad del mundo. La confrontación militar entre la URSS y los E.U. debería ceder a una competencia en el terreno económico y cultural.

EL FUTURO DE LAS ARMAS NUCLEARES

En la primavera de 1946, el presidente Truman conversó con Robert Oppenheimer quien, como otros científicos, estimaba que la URSS necesitaría de otros cinco años para desarrollar su bomba

— ¿Cuándo podrán los rusos construir la bomba?— Preguntó el presidente.
— Lo ignoro —respondió Oppenheimer.
— Yo lo sé —afirmó Truman.
— ¿Cuándo?
— ¡Jamás!

En esos años los E.U. (gobierno, prensa, televisión, intelectuales, estudiantes de todos los niveles, pueblo en general) incubaron una filosofía y un estilo de política exterior basados en la ilusión de una supremacía militar que pensaron que podrían mantener indefinidamente.

En síntesis, está filosofía preconizaba la amenaza de una guerra nuclear sobre los soviéticos para forzarlos a adoptar reglas de comportamiento y eventualmente un sistema político acorde a los intereses de E.U. Al abrazar entusiastamente la Iniciativa de Defensa Estratégica (IDE) del presidente Reagan, el pueblo norteamericano ha revivido sueños nostálgicos de épocas pretéritas que “ya no volverán”, como dice el tango. Hoy en día, si bien los E.U. han aumentado más aún su capacidad para borrar del mapa a cualquier nación del planeta, otros países pueden hacer lo mismo, en particular la URSS. Ninguna nación es inmune a ser totalmente destruida, y si se diera una guerra nuclear sería probable que toda la humanidad fuera acarreada a un holocausto.

La IDE aparentemente motivada por una pesadilla de ciertos funcionarios del gobierno de E.U. que temían que el movimiento por la congelación de armas nucleares pudiera forzar a los E.U. a llevar a cabo negociaciones serias con la URSS sobre control de armas y desarme. Con el tiempo, la IDE no solamente ha impulsado una renovada carrera armamentista, sino que ha logrado el estancamiento de las negociaciones de Ginebra. ¡Cuánto hemos retrocedido desde el mes de septiembre de 1961, cuando el presidente Kennedy dijera en las Naciones Unidas: “los riesgos inherentes al desarme palidecen cuando se les compara con los riesgos inherentes a una carrera armamentista sin límites!”.

El desarme nuclear es un objetico y un proceso. El objetivo es la eliminación de las armas nucleares. El proceso consiste en acciones y políticas conducentes a lograr dicho objetivo.

El control de armas nucleares es algo completamente diferente: es un proceso para controlar la carrera armamentista y reducir la posibilidad de una guerra. Sin control de armas nucleares es imposible imaginar el desarme nuclear.


Para frenar la carrera armamentista es necesario que la URSS y los E.U. negocien una prohibición definitiva de todos los ensayos nucleares. Así se acabaría de una vez y para siempre con el desarrollo de nuevas armas nucleares, y se daría tiempo a vastos sectores de la industria militar para readaptar sus capacidades a otro tipo de actividades. Intentos similares en el pasado tropezaron con dificultades que pueden simplificarse en la aseveración de que la URSS quería desarme sin control y los E.U. quieren control sin desarme. Sin embargo, en 1981, la URSS cambió su política al respecto, al manifestar su disposición a aceptar visitas sorpresa de equipos internacionales de verificación en sus instalaciones militares.

Un hito realizable sería la destrucción de todas las armas de teatro, ya que son las menos protegidas y las menos controladas, y por lo tanto, son las más peligrosas. Como los objetivos principales de estas armas son parar tanques y destruir instalaciones militares en “un campo de batalla”, debería empezarse por eliminarlas de los posibles campos de batalla: las dos Alemanias y tal vez Checoslovaquia. Varios grupos se oponen a una Europa sin armas nucleares, argumentando que de ser así no se justificaría la presencia de E.U. en la OTAN, sellándose el abandono de Europa a las fuerzas de la OTV. Cabe recordar, sin embargo, que la propia OTV en su carta constitutiva, contempla su desmantelamiento ante una acción similar de la OTAN, lo cual refuerza la reciente propuesta del líder soviético Gorbachev para un desarme europeo.

No hay ningún otro problema más importante que evitar una guerra nuclear. Los 4000 millones de años de evolución de la vida sobre la tierra pueden truncarse en cualquier momento por una decisión estúpida, por error o por accidente. Habría concluido uno de los episodios más interesantes en la historia del universo.

Si esto llega a ocurrir, no quedarían otros hombres para inventar un Dios que iría a repetir la creación. Se necesitarían otros miles de millones de años para alcanzar una evolución similar a la actual y para entonces nuestro Sol estaría llegando a su vejez: tal vez ya no habría tiempo parar la reaparición de una especie inteligente en nuestro sistema solar.

 
 articulos
 
       
       
____________________________________________________________
     

Carlos F. Bunge
Investigador del Instituto de Física, UNAM.

como citar este artículo

     
reportaje        
 
  menu2
PDF
            R09B01
Arqueología y Mössbauer
 
 
   
   
     
                     

Vasijas precolombinas frente a la Física Moderna

 

La carretera parece interminable, largas rectas que junto al ruido del camión y el húmedo calor le quitan a uno la noción del tiempo. De repente aparece el letrero: “Palenque a la derecha — Escárcega al frente”. Doblamos a la derecha acercándonos al azul índigo de las montañas. La vegetación es cada vez más exuberante; cruzarnos arroyos y posas de agua clara, y al fin ahí, resguardada por el follaje de inmensas ceibas y lianas: la apertura al centro ceremonial de Palenque.

Es hermoso entrar y dar el primer sorbo a la frescura de ese espacio. Colma de infinitud: como si la luz jugara a saltar de una pirámide a otra, gozara fingiéndose atrapada desde un tiempo inmemorial que en vez de oscurecerla le ha conferido tensión de metal eternamente bruñido.

Adentro puede uno subir al observatorio, recorrer el acueducto de la reina y curiosear entre las pirámides menores, formulando mil preguntas que aún no se responden a plenitud: ¿qué significan los símbolos de las paredes? ¿Cuál era la organización de los hombres que los inscribieron? ¿Por qué estos centros ceremoniales fueron repentinamente abandonados?

Toda nuestra geografía está llena de tales misterios: Chichen Itzá o Teotihuacán, Bonampak o Tajín, Monte Albán o Xochicalco. Nuestros ancestros habían desarrollado una cultura profundamente integrada a la naturaleza, su calendario superaba con mucho al europeo de su época, poseían un vasto conocimiento botánico, una numeración posicional con un cero semejante al de las matemáticas modernas y muchos otros, conocimientos y rasgos culturales que ante el brutal choque de la conquista perecieron.

LA CIENCIA ANTE EL TIEMPO

Hoy debernos inferir esos rasgos a partir de pacientes estudios donde colaboran diferentes artes y ciencias: la antropología, la botánica, la computación, la restauración, la arquitectura, la estadística, y otros.

La física no podría estar ausente de este esfuerzo. Desde hace algún tiempo se vienen utilizado técnicas físicas y químicas para el estudio de objetos antiguos o artísticos. A esta disciplina se le conoce con el nombre de Arqueometría.

En el laboratorio de Física Atómica y Molecular de la Facultad de Ciencias, se han realizado trabajos de este tipo, aplicando la espectroscopia Mössbauer al análisis de cerámicas prehispánicas, pues muchos de los hallazgos en excavaciones consisten en objetos de cerámica rotos, conocidos como tepalcates.

Estos objetos fueron originalmente moldeados en arcilla y su descubrimiento induce muchas interrogantes, entre otras podrían ser: ¿qué tipo de horno coció esta arcilla? ¿Qué temperatura alcanzaba? ¿Qué material se consumía? Las respuestas a este tipo de preguntas ilustrarían el nivel alcanzado en la manipulación de materiales de los antiguos mesoamericanos, y quizá, pueda ayudar en cuanto a la organización del trabajo que involucraba.

Repasemos brevemente en qué consiste la espectroscopia Mössbauer. Para ello hay que recordar que los objetos físicos muy pequeños —átomos y moléculas— emiten o absorben energía en cantidades muy definidas, al conjunto de las cuales acostumbramos denominar espectro, la forma de éste depende de los números atómicos involucrados, la organización electrónica, etc., de manera que los espectros vienen a ser una especie de huella dactilar de los materiales. En la espectroscopia Mössbauer nos fijamos en los espectros de absorción de los núcleos atómicos, bañándolos para ello con radiación de características conocidas e introduciendo un movimiento relativo entre la fuente de radiación y el material bajo estudio que nos permite —por efecto Doppler— “barrer” muchas energías hasta encontrar el espectro que buscamos.

Lo primero que podríamos hacer con esta técnica es comparar a los diversos tepalcates y determinar si se trata del mismo material, y semejantes procesos de horneado e inclusive, sería posible avanzar respecto al origen de la arcilla involucrada; sin embargo, para inferir las temperaturas de cocido y la atmósfera del horno que se empleo debemos —en el lenguaje de Sergio Aburto y Manuel Jiménez, dos de los participantes en este proyecto— “poner de nuevo a caminar el reloj”. Para explicar esto hay que acudir a ciertas características de los procesos de reacción química y aleaciones; para ahorrarnos esto, haremos una analogía con el cocido del pan. Cuando se prepara, después de mezclar los ingredientes en las proporciones adecuadas, obtenemos una pasta suave. Si entonces aplicamos el “espectrógrafo” de nuestros ojos advertiríamos ciertas características de color, brillo, etc. Al introducirlo al horno, estas características varían, y una vez cocido son permanentes mientras el pan se encuentre en un cierto intervalo de temperaturas por debajo de la cocción. Si lo metemos ahora a un horno más caliente, advertiríamos cambios en el “espectro” del pan: lo veríamos chamuscarse.

Igualmente podemos colocar pedacitos de la cerámica bajo estudio en hornos a distintas temperaturas y durante determinados lapsos de tiempo. Comparando los espectros de estos pedacitos con los obtenidos al iniciar el proceso, podemos detectar —bajo ciertas circunstancias— la temperatura a que fueron cocidos.

Estos métodos se han utilizado en material arqueológico de El Salvador, Oaxaca, Jalisco, Yucatán y actualmente se usan en Teotihuacán, con ello se obtienen resollados útiles a los antropólogos, quienes dan la paula a estos trabajos y el papel de los físicos involucrados se concentra en aportar elementos para la discriminación de las distintas hipótesis que ellos proponen.

  articulos  
       
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

del herbario        
 
  menu2
PDF
            R09B3
El amate

 
Jaime Jiménez R. 
   
   
     
                     

Amaquahuitl es el nombre náhuatl del castellanizado amate, árbol de cuya corteza interior se obtiene el papel prehispánico. En purépecha el nombre es siranda, en maya huun.

Probablemente el amate corresponda a la especie Ficus cotinifolia, pariente del higo, aunque mucho menos amable que éste, pues crece durante su niñez como epífita en otros árboles y conforme se desarrolla, sus tallos y raíces envuelven a su hospedero hasta estrangularlo y darle muerte. En otras ocasiones crece en las rocas y sus mortíferas raíces de “matapalo” forman una bella cascada vegetal.

Para elaborar el papel es necesario desprender la corteza, hervirla en agua con ceniza para que el látex desaparezca y sea flexible; después se golpea en una tabla plana con el Amalhuitequini que es una piedra plana con una cara estriada, finalmente se requiere golpear hasta obtener el papel.

El papel sirvió a las civilizaciones de Mesoamérica para diversas ceremonias, adornos funerarios o para vestiduras sagradas. Además, en él se escribieron los códices, registros y glifos de los principales aspectos de la vida social, histórica y económica de las culturas antiguas.

Actualmente, el papel se elabora en el estado de Puebla y se lleva a “decorar” con dibujos extraordinarios en el estado de Guerrero. Artesanía que puede adquirirse por unos cuantos devaluados pesos.

  articulos  
Resumido de: Torres, B. W, 1985, Las plantas útiles en el México antiguo según las fuentes del siglo XVI, en: T. Rojas y W. Sanders (ed.), Historia de la agricultura. Época prehispánica-siglo XVI, Colección Biblioteca del INAH.      
_____________________________________________________________
     
Jaime Jiménez R.      
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

R09Articulo1   menu2
PDF
   
   
Elisa Viso Gurovich      
               
               

Un campo rico en conocimientos, intereses, problemas y juegos de intelecto

 

El legado de utilización de las computadoras se ha incrementado muchísimo de un tiempo para acá y ya no resulta necesario convencer a la gente se acerque a estas máquinas maravillosas a que les resuelvan sus problemas o simplemente para entretenerse. Aún aquellos con muchísimos años de trabajo en el área computacional no dejan de sorprenderse ante las tareas tan variadas y “asombrosas” que logran realizar las máquinas.

El que no es mérito de las computadoras realizar tan diversas labores, sino de los “programadores” que les indican cómo llevar a cabo las tareas encomendadas, resulta ser algo que continuamente se repite. En estas líneas se tratará de justificar —si se me permite decirlo— el por qué la labor de programar computadoras y, en general, lo relacionado con computación, se siente siempre tan ligado a las matemáticas.

Cuando decimos que vamos a programar una computadora para que realice una tarea, sea ésta un juego, un cálculo, una gráfica, u otro caso, partimos del conocimiento de qué es lo que queremos hacer y qué obtener como resultado de tal fase del programa. Hasta este punto, la tarea puede ser planteada en cualquier terreno, ya sea éste científico, humanístico, artístico, etc. El siguiente paso es proponer el método de solución que consideremos idóneo para realizarla y es ahí donde las cosas empiezas a ponerse más difíciles.

Si se trata de dibujar una gráfica, cualquiera de los lectores puede dar un método de solución que, por ejemplo, sería algo del siguiente estilo:

1. Especifica para cuáles y cuántos valores de x quieres la gráfica.

2. Calcula, para cada una de las x’s el valor de la función.

3. En una hoja cuadriculada, dibuja los ejes cartesianos.

4. Para cada valor de x y de f (x), dibuja un punto en el plano.

5. Une entre sí cada pareja de puntos consecutivos sobre el eje x mediante una recta.

En este caso nuestro método de solución es preciso, claro (para aquellos que pasaron ya por secundaria), presenta un número finito de pasos y estamos seguros que la persona encargada va a concluirlo (¿esto último es cierto?). Tenemos lo que se conoce como un algoritmo. El término algoritmo no está tan íntimamente ligado a las computadoras como pudiéramos creerlo. En la Edad Media ya se hablaba de algoritmos y se refería a la realización de operaciones a mano opuesto a usar un ábaco (estaba implícito en este proceso la repetición de un conjunto de operaciones básicas y reglas). En los años treinta, con la Teoría de Computabilidad se precisó más el término exigiéndole al método de solución que cumpla con:

1. Tener un número finito de pasos (estar especificado en forma finita).

2. Cada paso del proceso debe estar claramente dado y en principio poder ser llevado a cabo por una persona que cuente con papel y lápiz en un tiempo finito.

3. El proceso se puede garantizar que termina.

4. El proceso trabaja con cero o más datos (puede ser que siempre que se ejecute produzca exactamente el mismo resultado).

5. El proceso produce uno o más resultados.

La gente dedicada a la computación parecemos engolosinados con el término algoritmo. Lo mandamos por delante en casi cada oportunidad en la que se menciona a la computación. Este engolosinamiento sin embargo, no es gratuito.

El primer paso a dar si queremos que una computadora realice una tarea, consiste en poder expresarla como un algoritmo. Hay problemas para los cuales no se puede dar un algoritmo para encontrar la solución. Por ejemplo, no es posible dar un algoritmo que, si cualquier persona lo sigue, realice la tarea de producir un cuadro con la creatividad de un gran pintor. Pero éste es un ejemplo demasiado traillado, tampoco podemos dar un algoritmo para decidir si hay 4”5’s seguidos de la expansión de Pi. Cualquier método de solución que yo diera, terminaría en cuanto encontrara los 4”5’s, pero si estos no están, y dado que la expansión de Pi es infinita, nunca pararía pues siempre esperaría a encontrarlos “un poco más allá”.

Siendo los matemáticos individuos a quienes les encanta “jugar”, vemos ya que la Teoría de Algoritmos es una fuente inagotable de juegos y divertimentos para los matemáticos, preguntas tales como: ¿existe un algoritmo que realice ______? ¿Existe un algoritmo mejor para ______?

 
En años recientes se ha desarrollado la computación con dispositivos ópticos. La precisión es relativamente baja, pero en contrapartida las tareas encomendadas se realizan con extrema rapidez.

Es en el área de Computabilidad donde ubicamos a la primera pregunta. Relacionados con ella tenemos, en Computación, la Teoría de Autómatas y Lenguajes Formales dedicada a diseñar máquinas teóricas (modelos matemáticos) computadoras (que puedan hacer cómputos sencillos) para poder dar, a priori, las limitaciones y alcances de estas máquinas. Aquí también se definen las caracterizaciones matemáticas de las tareas que queremos realizar (sumar dos números, traducir un lenguaje de programación, simular un equipo) y los algoritmos para que, dada las caracterizaciones, sea inmediata la construcción de la máquina (real o virtual) que realice esas tareas. Entendemos por una máquina virtual a un programa de computadora que se comporta como si fuera una determinada máquina, aún cuando no podamos tocar sus componentes físicos. Cuando se logra que una máquina real se comporte como otra máquina decimos que la primera está simulando a la segunda.

Los problemas de simulación son mucho muy interesante y han acaparado la atención de los programadores casi desde el inicio de las máquinas y los programas. Entre los problemas de este tipo podemos citar el tratar de reproducir el comportamiento de una galaxia, el funcionamiento de una máquina, la descripción de la forma de atención a clientes en un banco, el funcionamiento de un avión durante un vuelo. En esta forma de aplicaciones se basan, por ejemplo, todos los juegos que presentan una pantalla en la cual están sucediendo varias cosas al mismo tiempo.

En simulación lo importante es “predecir” o “describir” el comportamiento de un sistema, tomando sistema en el sentido de diversas componentes interrelacionadas. Si logramos describir y predecir el comportamiento de un sistema, programarlo en la computadora resulta ser el paso más sencillo. Esta descripción es en términos matemáticos, con funciones, sistemas de ecuaciones, estadística, etc. La gran aportación de la computadora para simular o modelar, consiste en que logra realizar las operaciones lo suficientemente rápido como para que parezca que el tiempo no transcurre y la posibilidad de tener a más de un componente del sistema “funcionando” al mismo tiempo. Este tipo de mediciones era casi imposible antes del advenimiento de las computadoras. Sin embargo, las distintas relaciones entre los componentes del sistema y las funciones que lo rigen son —y han sido siempre— preocupación de los matemáticos, en interacción con especialistas de las distintas áreas del conocimiento que se pretende modelar. Para obtener un buen modelo se necesita, entonces, el conocimiento profundo del sistema que se desea modelar, las matemáticas necesarias para poder describir el sistema y la capacidad de un programador que plasme esta descripción matemática en un programa para la computadora.

 
¿Un sueño irrealizable?: los robots pensantes. Desde su origen el hombre ha planeado todas las actividades de las máquinas electrónicas.

Hay sistemas, sin embargo, que no pueden ser descritos tan precisamente como para poder dar un algoritmo que lo simule. Tal es, por ejemplo, el proceso de aprendizaje o la simplificación de fórmulas algebraicas. En estos casos, el individuo que desea atacar el problema cuenta únicamente con “sugerencias” de cómo funciona el sistema y distintas posibles respuestas ante varias de las preguntas. En estas circunstancias se plantean métodos de solución heurísticos. Un método de solución de este tipo da, en la mayoría de los casos, la respuesta más adecuada, pero sin garantizar que en todos ellos esa sea la mejor respuesta. El problema de simplificación de fórmulas donde la persona que quiere simplificar sencillamente se pone a probar alternativas, es un ejemplo del uso de programación heurística. El campo de Inteligencia Artificial también utiliza típicamente programación heurística.

Otro caso en el que se utiliza la programación heurística es cuando sí tenemos la “fórmula” para obtener el mejor resultado, pero calcular uno de los valores se lleva tanto tiempo o requiere tanto “papel” que desistimos aún antes de empezar. Tal es, por ejemplo, un juego de ajedrez. En este juego el número de posibles respuestas ante una jugada es finito, por lo que en teoría, la computadora podría elegir la mejor jugada con tan sólo evaluar las distintas posibilidades. Sin embargo, en la práctica esto no es aconsejable y se ha elegido mejor el tratar de imitar el juego de un experto, quien lo primero que hace es desechar —en base a su experiencia— un gran número de jugadas posibles. Es en esa “experiencia” donde se aplica la heurística.

Es conveniente diferenciar entre los dos casos anteriores: aquél en el que se opta por una heurística porque no hay algoritmo (no se puede, por ejemplo, especificar claramente cada medida o paso) y aquél en el que el tiempo que va a tardar el algoritmo en proporcionar una respuesta se considera “demasiado”. El primero de ellos —como ya lo dijimos—, cae en el área de Computabilidad la cual está muy relacionada con Lógica Matemática.

El segundo es estudiado por el área de Complejidad: dado un algoritmo se puede decir qué tan complejo es, cuánto va a tardar en ejecutarse. Por supuesto que en la mayoría de los casos la complejidad de un algoritmo es función del número de datos que maneja.

Es interesante, entonces, comparar distintos algoritmos para realizar la misma tarea, como pudiera ser el ordenar una lista de nombres. Hay varias tareas matemáticas involucradas en un proceso de este tipo. Primero, dado el algoritmo debemos demostrar que el algoritmo trabaja, esto es, que produce el resultado que deseamos si le damos los datos que especifica. Estas demostraciones se hacen matemáticamente: por inducción, reducción al absurdo, etc. Segundo, una vez que tenemos un algoritmo que ejecuta lo que queremos hacer, deseamos “medirlo”, para ello, un buen manejo de series y sucesiones en los enteros resulta ser imprescindible. Al medir un algoritmo se trata de determinar la función que va a describir, el tiempo que se va a tardar el algoritmo como función y al menos, denotar el número de datos. Y ya estamos otra vez en Matemáticas.

Muchos de los lectores estarán pensado: “pero si yo he programado y nunca he medido mis algoritmos. Además, he demostrado que funcionan probándolos con distintos juegos de datos y si no ‘truena’ el programa lo doy por bueno”. Esto es cierto en un gran número de casos. Si lo que yo deseo hacer es un programa pequeño que va a trabajar dos o tres veces para mí y en el que tengo muy controlados los datos, no hay necesidad real de demostrar el programa o de buscar el algoritmo más eficiente. Sin embargo, es típico el caso del diseño de programas que en las pruebas de este tipo funcionan muy bien y al meterlo a producción el programa aborta o simplemente se tarda eternidades. Si el programador hubiera tenido una idea de la complejidad del algoritmo que eligió (o diseñó) hubiera podido predecir qué tanto crecería el tiempo al aumentar el número de datos. Por supuesto que si su algoritmo hubiera estado demostrado, no hubiera abortado bajo ningún caso. A esto último se le llama Verificación de Programas y es un área que cada vez adquiere más importancia.

 He estado hablando únicamente de “Computación para Computación” o dicho en otras palabras, cómo nos divertimos los matemáticos cuando nuestro objetivo de estudio son los algoritmos, programas o, en general, problemas y métodos de solución de los mismos. Pero hay muchísimas áreas de “Computación para…” y de “… para Computación”. Las primeras ya las conocemos: en general la programación es utilizada en casi cualquier disciplina de hoy en día. Un área de la computación que ha tomado muchísima importancia es la de Bases de Datos. Casi todos los problemas que se plantean, como el llevar historiales médicos, manejar una biblioteca, estados de cuenta, etc., están relacionados con Bases de Datos. Una Base de Datos es un conjunto de datos agrupados en registros. Los registros comparten entre sí una o más características, como puede ser la de describir a un mismo tipo de objeto, ocupar la misma cantidad de espacio y contener al menos cierta información respecto al objeto. Además, los registros están relacionados entre sí de algún modo que generalmente es el de estar ordenados respecto a uno de sus campos de información. Los Sistemas de Bases de Datos trabajan con conjuntos de registros de información y son capaces de, entre otras cosas, extraer subconjuntos, unir, intersectar y complementar conjuntos, obteniendo de ellos nuevos conjuntos que cumplen con poseer cierto tipo de información.

Se ha conformado toda un área en Computación bajo esta denominación, mientras que hasta hace algunos años simplemente se hacían programas especiales para cada aplicación, lo que tornaba muy lento el desarrollo de cualquier sistema de este tipo en el área denominada de Sistemas de Información. Hoy en día, se cuenta con los Sistemas Manejadores de Bases de Datos. Las operaciones que se realizan con una Base de Datos (o con un Sistema de Información) contempla el listar (extraer) de entre los registros subconjuntos restringidos, reordenar respecto a algún otro campo, combinar distintos conjuntos, listar con un cierto formato, etc. Hoy en día se contempla un Sistema de Bases de Datos como pudiendo tener, entre sus operaciones primitivas, muchas de las que acabamos de citar.

 
La simulación visual ha sido ampliamente utilizada en la preparación de pilotos, con una computadora son reproducidas todas las condiciones físicas de vuelo, así como las imágenes que se observan desde la cabina de un avión.

 También acá para diseñar esta forma de sistemas se hizo uso de las matemáticas. Se describieron modelos, conjuntos de datos, relaciones posibles entre los conjuntos y subconjuntos, transformaciones, etc. Para usar una Base de Datos tal vez no se necesite manejar toda esa información, igual que para sacar raíz cuadrada con una calculadora no es necesario que el dueño de la calculadora sepa sacar raíz cuadrada. Sin embargo, para comprender realmente cómo funciona un sistema de bases de datos o poder diseñar uno, es necesario entender los conceptos matemáticos subyacentes.

Cuando hablamos de “Computación para Química” por ejemplo, estamos hablando fundamentalmente de simulación de procesos químicos. Por supuesto que se debe entender el proceso y poder establecer las ecuaciones que describen al proceso: ¡otra vez matemáticas!

 Veamos el caso más sencillo en el que puedo pensar: manejar una cuenta de cheques. Me van a decir que en este caso las matemáticas requeridas por el programador son mínimas. Si bien esto es cierto, el programador de tal aplicación o de cualquier otra debe tener siempre un pensamiento ordenado. Ha de entender qué es primero y qué es después: en Matemáticas esto se podría traducir como entender cuál es el dominio de su aplicación, cuál es el rango y, sobre todo, si su programa es o no una composición de funciones donde se van creando nuevos dominios y nuevos rangos. A final de cuentas un programa, cualquiera que sea su objetivo, es una función que transforma un conjunto de datos en un conjunto de resultados. Que “calcula” resultados a partir de datos.

Pero hablemos no de las áreas en las que se utiliza la computación como herramienta, sino de aquéllas que por sus objetos de estudio resultan ligadas a la Computación. La Lingüística es la primera que me viene a la mente. La teoría de Lenguajes Formales ha aportado a la Lingüística interesantes enfoques para el tratamiento del lenguaje. Por ejemplo, el lingüista Noam Chomsky propuso en 1959 todo un enfoque matemático para la descripción de lenguajes que es hoy día, materia de estudio en Lingüística.

 
Las computadoras funcionan con base en componentes electrónicos que tienen dos posibles estados: prendido y apagado.

El uso de la Inteligencia Artificial para tratar de describir adecuadamente el proceso de aprendizaje ha aportado a la psicología al menos de enfoques distintos y novedosos respecto a cómo se adquiere el conocimiento, qué es innato y qué no y cuales aspectos forman parte del contexto mental de conocimiento en el que se desarrolla un individuo.

Respecto a las áreas que apoyan a la Computación podemos citar fundamentalmente el área de Electrónica y Comunicaciones que permiten la construcción de máquinas reales en las cuales llevar a cabo todos nuestros juegos. A mi siempre me parece importante mencionar que la Computación ha hecho uso de avances importantes en Electrónico aún cuando estos avances no estuvieran motivados por la Computación, sino por muy diversas causas, como el colocar un cohete en la Luna, hacer un cierto equipo médico, etc. Es mi convicción que si la Electrónica dirigiera a la industria de la Computación, iría más avanzada de lo que va. La industria electrónica y de comunicaciones todavía le lleva una buena delantera a la Computación.

 Si no reconociéramos lo mucho de matemáticas que hay en electrónica o en comunicaciones, todavía nos quedarían matemáticas cuando estamos utilizando una máquina real para colocar en ella un algoritmo y que este algoritmo haga que se ejecuten ciertas operaciones en la máquina. Las computadoras funcionan en su mayoría a base de componentes electrónicos que tienen dos posibles estados: prendido y apagado. Se toman grupos de componentes de este tipo y “codificamos” en estos grupos las distintas operaciones, números, letras, etc., que queremos representar. Y otra vez estamos en matemáticas cuando tenemos que decir cuántas letras distintas puedo representar con grupos de seis y ocho bits, por ejemplo (las permutaciones de dos símbolos tomados de 6 en 6) o cuando decidimos cómo representar números, o describimos qué hace determinada operación de la máquina; o en su caso me entero que las direcciones del lenguaje de máquina son en base ocho o en base dieciséis y tengo que empezar a convertir para ver, en decimal, de qué dirección se trata.

Claro que, otra vez, si todo lo que se quiere hacer es programar cosas sencillas para ser utilizadas exclusivamente por uno mismo, probablemente se puede vivir desconociendo o ignorando todas estas cosas y manteniendo divorciada a la Computación de las Matemáticas. Pero, enmarcada la Computación en Matemáticas, resulta ser un campo muy rico en conocimientos, intereses, problemas y juegos del intelecto, todos ellos lugares comunes en Matemáticas. Por otro lado, es válido afirmar: se enriquece la Computación misma con todo aquello que en Matemáticas son herramientas comunes.

AUTOMATAS Y LENGUAJES FORMALES

El área de Autómatas y Lenguajes Formales está hoy en día muy ligado a la Computación. Como su nombre lo indica tenemos dos aspectos involucrados. Por un lado está lo de autómatas, que contra lo que pudiéramos suponer, no tiene nada que ver con robots, sino con máquinas dotadas de la posibilidad para trabajar “automáticamente” y, por otra parte, de Lenguajes Formales, opuesto este término al de lenguajes “naturales”, los cuales son utilizados por la gente para comunicarse. Abordemos primero este último tema.

En los años posteriores a la Segunda Guerra Mundial surgieron muchísimas inquietudes respecto a si era posible o no realizar una traducción automática de un idioma a otro. Ya durante la guerra este interés se presentó al querer tener una codificación automática de mensajes cifrados. Durante los años cincuenta entre los psicólogos y los lingüistas se llevaron a cabo discusiones respecto a cuáles son los mecanismos que posee la mente humana para reconocer y generar frases correctas de un lenguaje dado. En esos momentos existían (y todavía existen) varias hipótesis siendo una de ellas que la mente humana le era factible recordar, eran patrones y reglas generales para reconocer frases correctas o construir nuevas. En estos años se desarrollaron esfuerzos importantes para determinar cuáles son los mecanismos de generación del lenguaje.

 
El uso de las computadoras en el campo de las artes se ha extendido enormemente. ¿Será que ya trabajan en sus micros los futuros Picassos y Dalíes?

De cualquier forma que esto se dio requirió de una interacción muy fuerte entre los lingüistas, psicólogos y matemáticos sometidos a un esfuerzo para expresar matemáticamente lo que correspondería al lenguaje natural. El trabajo de los matemáticos debería consistir en formular un modelo matemático susceptible de ser automatizado, para la descripción de los distintos lenguajes y los mecanismos inherentes en la producción de construcciones válidas en el lenguaje dado. El trabajo de los lingüistas debería ser el de experimentar y criticar los modelos expuestos para ver si, en efecto, lograban plasmar las posibilidades de un idioma en un modelo matemático. En estos momentos es que surgió el área de Lenguajes Formales, queriendo describir en el nombre el que se trata de una formalización de los lenguajes naturales.

Una vea que se lograra dar un modelo matemático de los lenguajes y de los procesos mediante los cuales la gente construye o forma oraciones válidas del lenguaje, se veía posible el dar un procedimiento algorítmico de traducción.

No fue sino hasta los años sesenta con el uso extendido de las computadoras, que el término Lenguajes Formales se refirió a los lenguajes que se utilizan para comunicarse con la computadora e indicarle algoritmos a llevar a cabo (calcular funciones). Los lenguajes de programación, en efecto, se ajustan bastante más fácil a modelos matemáticos que los lenguajes naturales, por lo que el desarrollo de este campo se ha dado fundamentalmente inscrito en el área de computación ya sea con el manejo automático del lenguaje natural o directamente con lenguajes de programación. Mucho del desarrollo en esta área se debe también a la lógica, pues presenta cantidad de problemas interesantes, contemplado desde este punto de vista.

Un lenguaje natural consiste siempre en un acervo de palabras (un diccionario o vocabulario) y un conjunto de reglas para combinar esas palabras y formar frases o enunciados. Al conjunto de reglas junto con el diccionario es a lo que llamamos la gramática del lenguaje.

Las reglas pueden ser, en general, de dos tipos: que hablen respecto a la forma de los enunciados o bien, respecto al significado o contenido. Lo primero es lo que conocemos como Sintaxis y segundo como Semántica. Se ha avanzado mucho más en el campo de la Sintaxis, respecto a automatización, que en el campo de la Semántica. Aquí hablaremos casi exclusivamente en este terreno.

Podemos pensar en un lenguaje como un conjunto de enunciados. Si el lenguaje es interesante muy probablemente es infinito. Esperamos que cualquier hablante nativo pueda enunciar en un momento dado una frase que si bien nunca antes había sido dicha y si está construida de acuerdo a la gramática con el vocabulario existente, la frase sea correcta. Si pensamos en los lenguajes en este contexto asumimos que, para empezar podemos trabajar con los lenguajes utilizando lo que conocemos de Teoría de Conjuntos.

 En este sentido, el primer problema al que nos enfrentamos es el de dar una descripción finita de conjuntos potencialmente infinitos. Se elige para ello el tratar de dar “propiedades” de los enunciados del lenguaje o bien listar las reglas gramaticales y el vocabulario. Si se desea saber si un enunciado pertenece o no a un lenguaje (a un conjunto) se exhiben las reglas que fueron utilizadas para construir ese enunciado. Si esto último se puede hacer, quiere decir que la frase está bien construida. Si no se puede hacer, existe la posibilidad de que el enunciado no pudiera ser generado con las reglas y no pertenezca a ese lenguaje. Un problema muy interesante en Lenguajes Formales es el de si, dado un lenguaje y un enunciado, podemos o no contestar a la pregunta de pertenencia. Dicho de otra manera, si no puedo encontrar las reglas utilizadas para la construcción del enunciado, ¿puedo o no decir que esto implica que el enunciado no está en el lenguaje? Aclaremos un poco más esta situación más adelante.

 
Un nuevo campo para el uso de la computación: el estudio de los lenguajes naturales.

Al hablar de enunciados en un lenguaje podemos pensar, sobre todo si el lenguaje es escrito, que lo que tenemos son sucesiones finitas de símbolos. A estas sucesiones les llamamos cadenas. Los símbolos pueden ser palabras completas y los enunciados oraciones formadas con esas palabras o bien los símbolos ser letras y dígitos y los enunciados ser sílabas o palabras. Cuando estamos en el contexto de Lenguajes Formales le exigimos al vocabulario o diccionario que sus elementos sean indivisibles y deben, en todo momento, manejarse completos. Dada esta situación, podemos pensar en los símbolos de los alfabetos como representados cada uno de ellos por alguna letra o dígito.

Cuando describimos un lenguaje en términos de las reglas que pueden utilizarse para generar sus enunciados decimos que estamos empleando métodos “generativos”. Las pruebas de pertenencia se llevan a cabo, entonces, generalizando enunciados del lenguaje utilizando esas reglas, en algún orden de ser posible, y aceptamos al enunciado como elemento del lenguaje si éste aparece en algún momento entre los enunciados generados.

Noam Chomsky, lingüista, logró formular en 1959 un modelo matemático de lenguajes. Lo primero que hizo fue tratar de clasificar los lenguajes en más o menos complejos de acuerdo a la “forma” que pudieran tener las reglas de generación o producción, dándoles una forma fija a estas reglas. Definió a una Gramática como un ente matemático (un cuádruplo) que contemplara:

— el vocabulario o diccionario, que en Lenguajes Formales se denomina el alfabeto;

— el conjunto de las reglas de generación o producciones;

— un conjunto de símbolos auxiliares, que denotan a las categorías para ser utilizadas como auxiliares en la generación de enunciados.

Creo que la necesidad de los dos primeros conjuntos es obvia. En cuanto al tercer conjunto, el de símbolos auxiliares, fijémonos un poco en las reglas gramaticales para formar oraciones en un lenguaje natural como el español. Cuando decimos cuál es la estructura de una oración, todos entendemos que oración no es una oración, sino que describe a la clase de las oraciones. Si después decimos que una oración es un “sujeto seguido de un verbo seguido de un complemento”, lo entrecomillado no es una oración, sino que describe a una oración. Las palabras sujeto, oración, complemento son auxiliares o categorías en las que se agrupan elementos del vocabulario y que no aparecen en el conjunto de oraciones que pretendemos construir. Toda gramática que pretenda dar reglas de generación de un número infinito de enunciados debe contar un conjunto finito de símbolos auxiliares para utilizarlos en puntos intermedios de la generación de enunciados. A estos símbolos auxiliares se les conoce como metasímbolos.

En el proceso de generar enunciados, deberemos tener un símbolo auxiliare que represente a la clase de los enunciados. Este símbolo se utiliza siempre como punto de partida en la generación de enunciados y es el cuarto elemento que nos falta especificar en nuestra gramática:

G = (V, N, P, S) una gramática es un cuádruplo donde: V un conjunto finito, el vocabulario, diccionario o alfabeto (en el sentido en que mencionábamos arriba.

N un conjunto finito de símbolos, llamados no terminales, auxiliares o variables o metasímbolos.

P es un conjunto finito de reglas de generación o producción, denominadas producciones.

S es el símbolo privilegiado por el que se empieza siempre la generación de posibles enunciados y se le denomina el símbolo inicial (S de Sentence) algunas veces se le denomina la meta.

En general se utilizan las letras minúsculas hacia el principio del alfabeto y los dígitos para denotar símbolos del vocabulario, mayúsculas hacia el principio del alfabeto para denotar símbolos auxiliares, minúsculas hacia el final del alfabeto para denotar cadenas y mayúsculas hacia el final del alfabeto para denotar vocabularios.

Las reglas de producción o generación tienen, como ya lo mencionamos, formas especiales. Al proceso mediante el cual se obtiene una cadena del lenguaje —utilizando las reglas de producción (en adelante producciones)— se le llama una derivación. Este proceso se lleva a cabo siempre sobre una cadena, que inicialmente consiste únicamente del símbolo inicial. Las reglas de producción tienen la siguiente forma:

α → β

y lo que quiere decir esto es: siempre que en la cadena de derivación aparezca la subcadena a se puede, utilizando esta regla, sustituirla por b para obtener una nueva cadena, a y b son, a su vez, cadenas formadas con símbolos del vocabulario y símbolos auxiliares. Son cadenas de Lenguaje aquéllas que consisten exclusivamente de símbolos del vocabulario. Exigimos que a contenga al menos un símbolo auxiliar. Esto se debe a que en el proceso de derivación lo que se hace en cada paso del proceso es sustituir a una clase (metasímbolo) por un representante de esa clase para obtener instancias particulares de cadenas. De esto se ve que no tiene sentido elegir un representante de algo que no es una clase (un símbolo del vocabulario).

 
Se afirma que los niños pueden tener un “instinto especial” para comprender las máquinas más complejas conocidas hasta ahora. ¿En qué tipo de adultos se convertirán estos niños?

Como mencionamos antes, Noam Chomsky dio una clasificación de Lenguajes de acuerdo a la forma que pudieran tener las producciones y que se conoce hoy día como Clasificación de Chomsky. La clasificación procede a limitar la forma de a y b de tal forma de “acorralar” de alguna manera las derivaciones y poder decir algo respecto al problema de pertenencia que mencionamos antes. Si se logra dar cotas para la duración de derivación de cadenas de una determinada longitud con una gramática dad, pasada esa cota podemos siempre decir su la cadena está o no en el lenguaje generado por esa gramática. La clasificación de Chomsky es la siguiente:

1. La gramática es regular o tipo 3 si cumple con que

α = A    un solo metasímbolo y
β = aB    consista de un símbolo terminal y un metasímbolo o únicamente un símbolo terminal.

2. La gramática es libre del contexto o tipo 2 si cumple con que

α = A    como en el caso anterior y
β    consista de un símbolo terminal y un metasímbolo o únicamente un símbolo terminal.

3. La gramática es dependiente del contexto o tipo 1 si las producciones cumplen con:

α    contiene al menos un metasímbolo y
β    tiene al menos el mismo número de símbolos que a.

4. Por último, las gramáticas son generales o tipo 0 si
α    contiene al menos un metasímbolo.

Los nombres de cada una de estas clases se derivan de la forma en que se pueden emplear las producciones en los procesos de derivación. En el caso de las gramáticas regulares generan lenguajes que pueden ser representados también por expresiones regulares. En las derivaciones en gramáticas libres del contexto, como el antecedente de cada producción es un solo símbolo, este símbolo puede ser sustituido por el consecuente de la producción independientemente del contexto en el que está apareciendo. En el caso de las gramáticas dependientes del contexto, el antecedente de la producción nos dice que si el metasímbolo se encuentra —en la cadena de derivación— dentro de un contexto dado (las subcadenas que lo rodean) entonces puede ser sustituido por el consecuente de esa producción.

La clasificación de los lenguajes se deriva de aquella de las gramáticas, diciendo que un lenguaje es de tipo “i” si se tiene una gramática del tipo correspondiente que lo genere. Por supuesto que siempre se intenta tener una gramática lo más restringida posible (para que cumpla con las propiedades) al generar un determinado lenguaje.

 
Cadena de derivación que contiene un valor único de transición en cada arco y sigue un solo camino.

De la especificación de las producciones se puede ver que las gramáticas de tipo “i” cumplen con las propiedades de los tipos mayores que “i”. Se tiene que la clase de lenguajes regulares está contenida propiamente en la de los lenguajes libres del contexto que a su vez está contenida propiamente en la de los lenguajes dependientes del contexto y está en los lenguajes generales.

Es importante notar que con las gramáticas tenemos una forma de denotar conjuntos de cadenas (lenguajes) infinitos. Sin embargo, no todos los lenguajes infinitos podrán ser denotados a través de gramáticas; pues habrá lenguajes que sólo puedan ser delineados mediante descripciones infinitas. Para ponerlo en términos de Computabilidad: pensemos en un alfabeto dado y construyamos el lenguaje que consiste de todas las posibles cadenas finitas que se pueden construir con ese alfabeto. Este lenguaje es infinito, Cualquier lenguaje que se construya con símbolos de ese alfabeto, sea finito o no, será un subconjunto del que acabamos de construir. De lo anterior, el número de lenguajes que puede tener con símbolos de un cierto alfabeto resulta ser el número de subconjuntos de un conjunto infinito, que podemos poner en correspondencia con los números reales. Conclusión: el número de lenguajes sobre un alfabeto tiene la misma cardinalidad que los números reales (hay tantos como números reales).

Las gramáticas, en cambio, son descripciones finitas. Puedo organizarlas de tal forma que las ponga en correspondencia con los enteros. Por lo que la cardinalidad de las gramáticas es la misma que la de los enteros. De todo esto, tengo más lenguajes que descripciones finitas, por lo que habrá lenguajes para los que no pueda dar una descripción finita.

Como mencionamos al principio, las gramáticas no las queremos utilizar tanto para generar lenguajes como para, dada una gramática y una cadena, poder decir si esa cadena puede o no ser generada por esa gramática (si pertenece o no al lenguaje). Se ve claro que en los problemas de la traducción automática lo primero que querríamos poder hacer es decidir si lo que estamos tratando de traducir está escrito, en efecto, en el lenguaje que sabemos traducir. En computación, donde los lenguajes de programación pueden ser descritos generalmente a través de gramáticas libres del contexto, lo primero que queremos es ver si nuestro programa tiene la forma adecuada.

El problema de si una cadena está o no en un lenguaje no siempre es decidible. Para el caso de los lenguajes de tipo 1 o tipo 3 sí lo es, pero no así para los lenguajes generales, y ello se debe al tipo de producciones que permitimos. Esto no quiere decir que para un lenguaje particular de tipo 0 no podamos decir todo lo que queremos respecto a él, sino que en general no podemos demostrar que podemos hacerlo para todos los lenguajes de ese tipo.

El decidir si una cadena está o no en un lenguaje puede verse también como una descripción de lo que es un lenguaje.

Podemos pensar en que tenemos una caja negra a la que le “alimentamos” la cadena. Esa caja está pensada para reconocer a todas las cadenas que pertenezcan a un cierto lenguaje (dado que estamos pensado en realidad en un “mecanismo” capaz de llevar a cabo una tarea, en adelante nos referiremos a la caja negra como una máquina o autómata). Si la cadena que le alimentamos está en ese lenguaje, el autómata “contesta” que si y no está contesta que no. Existe, sin embargo, la posibilidad de que el autómata se tarde mucho en “digerir” la cadena, o, como ya habíamos dicho, que nunca suspenda su proceso para decir que si la cadena está o no está.

Contrapuesto a los métodos generativos de lenguajes, entre los que se encuentran las gramáticas formales, se hallan los métodos reconocedores, a través de autómatas finitos. Tratemos de precisar un poco más el concepto de un autómata reconocedor.

En general, cuando se habla de máquinas todos tendemos a pensar en un objeto físico, construido sólidamente y capaz de realizar un cierto trabajo. Sin embargo, podemos pensar en una máquina “conceptual”, no sólo concretizada y centrar nuestra atención en las labores que esperamos realice la máquina: evaluarla de acuerdo a su comportamiento y no a su forma. Este enfoque no es tan fuera de lo común. Cuando, en la vida diaria, describimos una máquina, generalmente decimos lo que la máquina es capaz de hacer y no la descripción exacta de cada uno de los componentes. O también sucede que mencionemos el “nombre” de la máquina y ese nombre implica las labores que la máquina puede ejecutar.

Los autómatas son máquinas capaces de reconocer lenguajes o realizar otro tipo de tareas como el cálculo de valores, sumas, multiplicaciones, traducciones, etc. Es interesante hacer notar que aún en una multiplicación no puede verse como manipulación de lenguajes que involucran traducción. A la máquina se le alimentan dos cadenas, cada una de ellas representando a un número y la máquina produce una nueva, la traducción de la entrada (que consiste de dos cadenas) y que cumple con ser lo que nosotros llamaríamos el producto de esos dos números. Por ello no distinguiremos entre máquinas capaces de realizar operaciones y las que son capaces de reconocer o traducir, pues corresponden simplemente a puntos de vista distintos para el mismo proceso.

 
Diagrama de un autómata que reproduce lo que lee, retrasado dos unidades de tiempo.

Clasificaremos a los autómatas, vistos como máquinas reconocedoras, según el tipo de operaciones que pueden ejecutar y el equipo con el que cuentan para auxiliarse en sus operaciones. Las operaciones son realmente muy sencillas: leer de una cinta en la que viene escrita la cadena o palabras a reconocer, “recordar” lo que ha visto, la posibilidad de escribir o no en la cinta en las que están escritos sus datos.

Es claro que toda máquina debe ser capas de leer de la cinta en la que se encuentran sus datos. Si esto no fuera cierto, cómo decidiría si lo que está ahí escrito es aceptado o rechazado. En cuanto a la posibilidad de “recordar”, la cantidad o tipo de información que el autómata puede o no recordar es precisamente lo que le da su lugar en la clasificación.

Los autómatas cuentan en realidad con dos disposiciones donde pueden recordar. El primero de ellos es lo que se conoce como el estado del autómata. Un autómata consiste de un conjunto finito de posibles estados, donde cada estado representa una situación particular. Por ejemplo, el estado inicial en el que se encuentra un autómata es el de no “recordar” nada pues nada ha sucedido. De ahí en adelante, conforme va leyendo símbolos de su cadena de entrada, se transfiere o cambia a estados que registren los símbolos vistos. No es lo mismo ver un sustantivo al principio de una oración, en cuyo caso pasaríamos a un estado que registrara al sujeto, que ver un sustantivo en el predicado: el papel que juegan ambos sustantivos es totalmente distinto y esto lo registra el autómata cuando, después de ver a cada uno de estos sustantivos, se encuentra en estados diferentes.

Además del estado que le indica al autómata que se llevó a cabo una cierta sucesión de transiciones, algunos modelos cuentan con una “memoria” o cinta auxiliar donde anotan algo de lo que han visto. Por supuesto que es más poderoso un autómata con memoria auxiliar que uno que no la tenga. Por último, podemos combinar la cinta donde se encuentran los datos de entrada con la memoria auxiliar y conseguir de esta forma el modelo que se conoce como Máquina de Turing.

Mencionamos tres modelos principales de autómatas que sin agotar todas las posibilidades son los que más nos interesan desde el punto de vista de autómatas de reconocedores. Estos modelos cumplen con lo siguiente:

1. Tienen un número finito de estados posibles.

2. Trabajan con cadenas construidas a partir de un alfabeto finito.

3. En todos ellos se especifica un estado inicial.

4. Realizan transiciones de un estado a otro dependiendo del estado en el que se encuentren y del símbolo que en ese momento estén observando.

 
Árbol de derivación de frases en español. El diagrama muestra cómo se usan las reglas de la gramática para generar la expresión.

De acuerdo, entonces, a los mecanismos con que cuentan los autómatas para recordar nos interesan entre los distintos modelos los siguientes:

1. Autómatas con un número finito de estados. El único mecanismo con que cuentan para recordar estas máquinas es el de los estados. Como se podría esperar, son limitados los tipos de reconocimiento que pueden hacer. Se puede demostrar que pueden reconocer a los lenguajes regulares y que dado un autómata finito se puede dar una gramática regular que genere al lenguaje reconocido por el autómata finito.

2. Autómatas con stack. En este tipo de autómatas, además de un número finito de estados, la máquina cuenta con una cinta, potencialmente infinita, en la cual puede escribir símbolos que le ayuden a recordar lo que ha visto. Aunque el uso de la cinta no es irrestricto pues debe ser en un cierto orden y bajo reglas muy definidas, esto, como se puede suponer, amplía el poderío de la máquina posibilitándola a reconocer lenguajes más complicados. También está demostrado que todo lenguaje libre del contexto puede ser reconocido por una máquina de stack y que todo lenguaje que es reconocido por una máquina de stack puede ser generado por una gramática libre del contexto.

3. Máquinas de Turing. Estos autómatas corresponden al modelo más poderoso de entre los autómatas con un número finito de estados. Como ya lo mencioné, tiene la posibilidad de reescribir en su cinta de entrada y esto prácticamente sin ninguna restricción, por lo que terminamos con un modelo más poderoso que el anterior. Es una tesis (la tesis de Church) el que una máquina de Turing puede llevar a cabo todo proceso que se especifique como un procedimiento, con un número finito de pasos y cada paso lo suficientemente simple como para ser ejecutado, en principio, por un hombre con papel y lápiz.

Empezaremos por describir el modelo más sencillo: el autómata con un número finito de estados (a quien denominaremos autómata finito). Cuando decimos “autómata” nos referimos a un modelo matemático, cuyas propiedades y comportamiento podemos observar y que podemos simular con un programa de computadora. Estos autómatas han sido estudiados en muy diversas disciplinas como Diseño de Computadoras, Neurofisiología, Comunicaciones, Lingüística y la Teoría de Computación. Son bastante conocidos y comprendidos. Este modelo surge en situaciones físicas en las cuales se procesan señales que conllevan información.

El término “autómata finito” se usa en muchos sentidos y tiene asociadas distintas definiciones formales. Todas estas definiciones conllevan en común aceptar que los autómatas finitos pretenden modelar instrumentos de cómputo que tiene una cantidad fija de memoria y que leen sucesiones construidas a partir de un conjunto finito de símbolos. Consiste de un conjunto de estados Q y un conjunto de transiciones de estado a estado que ocurren cuando al autómata se le alimentan símbolos de un alfabeto ∑. El autómata finito es determinístico, esto es, que de cada estado (que puede ser en el que estaba). El autómata tiene un estado inicial en cual el autómata arranca siempre. Algunos estados son designados como estados finales o estados que aceptan.

Podemos pensar en el funcionamiento del autómata como una sucesión de movimientos (o transiciones) cada una de ellas en un instante dado de tiempo t, t = 0 representa el momento en el que el autómata no ha empezado aún a trabajar. La distancia entre t = i y t = i + 1 es arbitraria. En t = 0 el autómata es inicializado a un estado inicial. En cada momento t, M recibe un símbolo s en ∑. La capacidad de la máquina para retener información respecto a símbolos anteriores reside en el conjunto de estados. En este sentido, lo que recuerda el autómata respecto al pasado es que “lo que ha visto” lo obligó a entrar en un cierto estado. Cuando se le alimenta un símbolo al autómata se produce en él un cambio de estado, que depende exclusivamente del estado en el que está y el símbolo que está viendo. A este cambio de estado se le llama una transición.

Si al terminar de alimentarle al autómata una sucesión, la última transición fue a un estado final, entonces decimos que el autómata acepta a la sucesión. Si, por el contrario, el estado en el que terminar no es el final decimos que el autómata rechaza a la sucesión.

Un autómata finito puede ejecutar (o reconocer) únicamente operaciones que requieren una cantidad fija de memoria. Sin embargo, hay muchas operaciones que no pueden ejecutarse bajo estas restricciones como lo son el checar si una expresión tiene el mismo número de a’s que de b’s o checar si los paréntesis de una expresión están bien emparejados, la multiplicación de dos números, etc.

Para obtener máquinas más poderosas, lo que se necesita es eliminar la restricción sobre la finitud de la memoria. Para esto se utiliza un mecanismo de almacenamiento, muy común en computación, llamado un stack. El stack es una memoria donde la última información que entró es la primera que sale (First In First Out o FIFO), y se incorporan o sacan símbolos del stack de uno en uno, mediante operaciones de PUSH para meter y POP para sacar. Se dice también que la información más reciente está en el tope del stack. También es relevante el “fondo” del stack donde se encuentra la primera información que se metió. En ningún momento se puede “ver” o utilizar nada que no se encuentre en el tope. En general, diremos que si el stack está vacío no podemos “ver” nada en él, o bien podemos tener la convención de un símbolo que aparezca en el “fondo” del stack, y que al verlo, sepamos que ya no hay más símbolos dentro de él que pudiera intentarse sacar.

Un autómata con stack tiene la capacidad de recordar a través de sus estados, como lo hace el autómata finito, pero incorpora la capacidad de recordar en el stack. Por ejemplo, si quiere reconocer a la cadena

ancbn

(cadenas de a’s y b’s con el mismo número de a’s que de b’s y todas las a’s al principio seguidas de todas las b’s), todo lo que hace es tener dos estados, para saber si está en la fase de contar a’s o b’s. En el estado 1, por ejemplo, por cada a que ve mete un símbolo (digamos un cero) al stack. En cuanto reconoce el símbolo c, pasa al estado 2, donde por cada b que ve saca un cero del stack. De esta forma, sabemos que la cadena estaba bien construida si al terminarse la cadena de entrada el autómata termina con el stack vacío. La cadena no está bien construida en cualquiera de los dos casos siguientes:

a) Se termina la cadena de entrada y todavía hay ceros en el stack. En este caso, hubo más a’s que b’s.

b) Todavía no se acaba la cadena de entrada y, sin embargo, ya no hay ceros en el stack. En este caso, hubo más b’s que a’s.

Podemos sintetizar las reglas bajo las que opera un autómata de stack (AFS) de la siguiente manera:

1. La máquina empieza con una cierta configuración inicial en el stack. En el caso anterior, el stack deberá tener únicamente el símbolo del “fondo” del stack.

2. La máquina empieza a funcionar en un cierto estado inicial. En el caso anterior, el estado inicial es el que “mete” ceros al stack.

3. El funcionamiento del AFS estará dado por un conjunto de reglas que especifican, dado un estado, un símbolo de entrada, y un símbolo en el tope del stack, el estado al que debe transferirse, lo que debe hacer el autómata con la cadena de entrada y lo que debe hacer el autómata con el stack.

4. El autómata puede hacer con el stack una de tres operaciones:

POP    (sacar)

PUSH    (meter)

(no hacer nada)

5. El AFS puede hacer con la cadena de entrada una de las dos operaciones siguientes:

AVANZA    (coloca la cabeza lectora en el siguiente símbolo)

(no avanza la cabeza de lectura)

6. Cualquier combinación (estado, entrada, stack) que no esté especificado respecto al autómata finito, ocasiona que el AFS interrumpa su operación.

7. Decimos que un AFS acepta una cadena si al interrumpir su operación después de haber examinado a toda la cadena de entrada, termina con el stack vacío.

Los autómatas de stack pueden, como ya mencionamos, determinar si una expresión aritmética está o no bien construida, a su vez determinan si una cadena dada es “capicúa” (o espejeada respecto a su mitad) y muchas otras operaciones más. Se puede construir un autómata de stack para reconocer a cualquier lenguaje que pueda ser generado por una gramática libre de contexto y se puede dar una gramática libre del contexto que genere a un lenguaje que es reconocido por una máquina de stack. En Computación tienen mucha importancia, pues casi todos los lenguajes de programación se pueden describir mediante gramáticas libres del contexto y muchos de los métodos de traducción se pueden apoyar en resultados respecto a estos autómatas.

Por último, la Máquina de Turing (MT), planteada por Allen M. Turing en 1936, ha sido propuesta como un modelo matemático para describir procedimientos. Dado que es difícil representar procedimientos, se dificulta también demostrar que estos dos conceptos son equivalentes. Sin embargo, de la definición de una Máquina de Turing quedó suficientemente claro que cualquier cómputo que se pueda describir con una de ellas puede ser llevado a cabo mecánicamente. También se puede demostrar que cualquier cómputo que se pueda llevar a cabo en una computadora digital, como las que conocemos hoy en día, puede ser descrito a través de una Máquina de Turing.

 
Dos posibles árboles de derivación para la cadena ababab.

Hay muchas otras formalizaciones de procedimiento que se pueden demostrar son equivalentes a la Máquina de Turing. Esto refuerza la idea de que la definición de su Máquina dada por Turing es suficientemente general como para comprender la idea intuitiva que tenemos de un procedimiento. La tesis de Church nos dice que cualquier proceso que se reconoce naturalmente como procedimiento puede ser llevado a cabo por una MT. No sólo eso, la definición de procedimiento es hoy en día sinónimo de ser computable por una MT. Sin pretender demostrarlo daremos por buena la tesis de Turing de que toda solución algorítmica para un problema puede ser representado por un programa de instrucciones para alguna Máquina de Turing. Aún cuando este hecho sigue siendo una hipótesis, el trabajo de Turing y de muchos otros tiene una consecuencia única e irrebatible: existen problemas bien formulados para los cuales no puede existir una solución algorítmica.

Al describir su máquina, Turing mantuvo presente en su mente las propiedades básicas que ha de tener un procedimiento eficiente: primero, debe estar descrito finitamente; segundo, el procedimiento debe consistir de pasos discretos, cada uno de ellos ejecutable mecánicamente. El modelo básico de Turing contempla estas propiedades.

Pensemos en una MT consistiendo “físicamente” de dos componentes básicos: un control finito y una cinta infinita. La cinta, que contiene a la cadena de entrada, está dividida en celdas. El control finito tiene una “cabeza lectora” capaz de revisar (o posicionarse) en una sola celda a la vez. Podemos pensar que la cinta es infinita únicamente hacia la derecha, y tiene una celda la cual consideraremos la del extremo izquierdo. Es posible demostrar, aunque no lo haremos, que el acortar la cinta por la izquierda no limita en forma alguna la capacidad de cómputo de la MT. Cada celda de la cinta puede contener uno de un conjunto finito de símbolos llamados símbolos de la cinta.

Al empezar a funcionar la MT, las primeras n celdas (las de más a la izquierda), para n mayor que cero finita, contiene la entrada o datos de la máquina consistentes en una cadena de n símbolos, cada uno de ellos de un subconjunto de símbolos, llamados símbolos de entrada, seleccionados del conjunto de símbolos de la cinta. El resto de las celdas, un número infinito, contienen un símbolo especial que no forma parte de los símbolos de entrada, digamos “B” (un blanco). En un movimiento, la MT, dependiendo del símbolo que esté revisando la cabeza lectora y del estado en el que se encuentre el control finito, ejecuta lo siguiente:

1. Cambia de estado.

2. Imprime un símbolo en la celda que está revisando reemplazando al símbolo que había ahí antes y que fue el que determinó, junto con el estado el movimiento de la MT, y

3. Mueve su cabeza lectora a la celda contigua izquierda o derecha (L o R, respectivamente).

El poderío adicional que alcanza la MT se debe principalmente a su habilidad para escribir en la misma cinta de la que está leyendo, donde vienen sus datos.

El tipo de problemas que puede resolver una Máquina de Turing es muy amplio. Sin embargo, también como ya se mencionó, quedan muchos fuera de su ámbito. Otro aspecto importante de una Máquina de Turing se refiere a que es capaz de llevar a cabo toda solución expresada como procedimiento y la diferencia entre un procedimiento y un algoritmo es que el procedimiento puede no ser suficiente (terminar su ejecución). Por ello, habrá procedimientos para los cuales una Máquina de Turing los ejecute pero no suspenda nunca su funcionamiento. Esto querría decir que ante la pregunta fundamental que nos hemos estado haciendo respecto a que si dada una cadena y un lenguaje tenemos o no el dispositivo que nos diga si la cadena pertenece al lenguaje, en el caso de las Máquinas de Turing el reconocimiento, si termina, nos dará una respuesta, pero si no termina no sabremos cuál es esa respuesta.

 
La computación en Matemáticas es un campo rico en conocimientos, intereses, problemas y juegos de intelecto.
 
 articulos
 
       
       
____________________________________________________________
     

Elisa Viso Gurovich
Departamento de Matemáticas, Facultad de Ciencias, UNAM.

como citar este artículo

     
R09Articulos3   menu2

índice 9

siguiente

anterior

PDF

   
   
Ken Oyama y Francisco Espinoza      
               
               

 La importancia de la coevolución

 

CARACTERISTICAS GENERALES DE LA INTERACCION HERBIVORO-PLANTA

Generalmente, dentro de la literatura de las interacciones ecológicas y, en particular, entre herbívoros y plantas se cita el trabajo clásico de Enrich & Raven (1964) sobre la evolución conjunta (coevolución) de mariposas y plantas. Este trabajo consiste en una revisión de los hábitos alimenticios de una superfamilia de mariposas (Papilionoidea).

Estos autores encontraron que grupos específicos de mariposas estaban asociados a grupos particulares de plantas. Por ejemplo, mariposas del grupo de los Pierinae se alimentan de plantas de las familias Capparidaceae y Cruciferae; las Danainae de Apocynaceae y Asclepiadaceae; etc. Asimismo, observaron una similitud química (en términos de metabolitos secundarios) entre las plantas que son utilizadas como alimento por grupos específicos de mariposas. Por otra parte, hallaron familias de plantas que no están asociadas con ningún grupo de mariposas; tal es el caso de las Rubiaceae, Menispermaceae, Vitaceae, Mirtaceae, etc. Asimismo, señalan que existen pocas evidencias de relaciones entre plantas gimnospermas y mariposas, y casi ninguna referencia con helechos, musgos, etc.

La explicación de estas relaciones insectos-plantas se basa en suponer la aparición (por mutación y recombinación) de elementos que modificaron químicamente a la planta confiriéndole un mecanismo de defensa en contra de herbívoros (y por tanto ciertas ventajas selectivas), generando o ampliando nuevas zonas adaptativas. Esta diversificación química pudo, a su vez, ser una presión selectiva para que los insectos fitófagos sufrieran ciertos cambios permitiéndoles superar estas barreras químicas.

Con base en este tipo de evidencias y suposiciones, los autores sugieren que la interacción entre herbívoros y plantas ha jugado un papel muy relevante en la determinación de la diversidad orgánica.

A partir de este trabajo, los casos de interacciones entre herbívoros y plantas han recibido una considerable atención. En este artículo se presentan algunas ideas generales que han contribuido a entender la dinámica de este tipo de interacciones.

 
Ciertos insectos consumen hojas, yemas o semillas de las plantas, sin que haya beneficio para los vegetales. Esta es por tanto, una interacción en la que el insecto actúa como depredador.

 Los componentes de la interacción

 Al estudiar la historia natural de las interacciones nos enfrentamos al hecho de tener que interpretar, basados en las evidencias actuales, la historia evolutiva de las mismas. Generalmente suponemos que la capacidad de los participantes de la evolución (v.g. herbívoro-planta) para responder a los efectos del medio dependen, por un lado, de la variabilidad genética individual de los miembros de la población y, por otro, de los patrones de comportamiento general de las especies. Estas respuestas se expresan a través de cambios cuantitativos y cualitativos en las características inherentes a su crecimiento y reproducción, así como en la asignación de recursos para mecanismos que amortigüen estos efectos (por ejemplo en defensa de ambos componentes de la interacción). El estudio de estos cambios puede ser útil para entender cuáles han sido los pasos evolutivos que permitieron el establecimiento de tales interacciones.

Dentro de este juego ecológico-evolutivo entre herbívoros y plantas podemos encontrar las siguientes fases: a) que los herbívoros determinen en gran medida el comportamiento de las plantas (en términos de crecimiento y reproducción); b) que las plantas presenten respuestas que amortigüen los efectos de los herbívoros; c) que los herbívoros muestren características que contrarresten las respuestas de las plantas; d) otras respuestas que incluyan la diversificación de estructuras de las plantas, la especialización o generalización de un herbívoro para utilizar un recurso, etc.

A continuación describiremos brevemente algunas de las características de estas fases.

EL EFECTO DE LOS HERBIVOROS SOBRE LAS PLANTAS

Los ejemplos más impactantes del efecto de los herbívoros y patógenos sobre las plantas son los sistemas manejados por el hombre como los casos de control biológico.

El interés del control biológico radica en establecer una limitación al crecimiento poblacional de una especie, en este caso de malezas, manteniendo su densidad por debajo del umbral que no ocasione perjuicios. Biológicamente, esta regulación (control) debe ser de tal forma que influya sobre la habilidad competitiva y/o sobre la capacidad reproductiva de la especie y no necesariamente determinando directamente la mortalidad de las plantas.

 
De los grupos de insectos que pueblan el planeta, las hormigas son las mayores defoliadoras del mundo animal.

Dos de los ejemplos más citados en la literatura, son el control realizado por el insecto Cactoblastis cactorum sobre especies de Opuntia que antes de la introducción del insecto ocupaban un área de aproximadamente 242.8 3 106 m2 en Australia; y el control de la maleza Hypericum perforatum en el oeste de Estados Unidos por parte de un coleóptero Chrysolina quadrigemina. En ambos casos la distribución actual de las malezas se encuentra muy restringida.

El efecto de la regulación debe influir también en el momento adecuado sobre el ciclo de vida de la planta para que disminuya sus posibilidades de sobrevivencia. El mismo ejemplo de Ch. quadrigemina y H. perforatum nos puede ilustrar esto. Las larvas y adultos del insecto se alimentan de las hojas basales de la planta e influyen en el sistema de absorción de las raíces. El periodo de alimentación de este insecto se lleva a cabo durante los meses húmedos, de tal forma que la planas no puede mantener una eficiencia hídrica adecuada que le permita retener la humedad durante las épocas secas del año.

Existen ejemplos de control biológico donde los resultados no son tan sorprendentes e inmediatos, lo que de alguna manera refleja la complejidad de las interacciones poblacionales. Un caso interesante es el control de la maleza Lantona camara en Hawaii, que fue introducida en el siglo pasado como una planta ornamental, pero que actualmente ocupa 1.79 3 106 m2, convirtiéndose en un problema. Para el control de esta maleza inicialmente se introdujo un insecto folívolo Teleonemia scrupulosa, pero se observó que solamente controlaba las poblaciones de la planta durante una época del año (en verano) permitiendo su recuperación en los meses posteriores. En 1952 se introdujeron tres especies de lepidópteros folívoros (Catabaena esula, Syngamia haemorrhoidalis e Hypena strigata) con diferentes hábitos (diurnos y nocturnos). Este complejo de cuatro especies dio buenos resultados en el control de la maleza, pero sólo en las localidades más secas; por ello se introdujo un insecto barrenador Plagiohamus spinioennis para el control en lugares húmedos.

Sistemas naturales

Al estudiar la historia natural de los organismos podemos presenciar casos donde el desarrollo de las interacciones entre herbívoros y plantas establecen una relación ecológica y evolutiva más estrecha, por lo que las consecuencias poblacionales o demográficas de los interactuantes no se manifiestan inmediatamente. Varios autores han sugerido que los herbívoros han influido en la evolución y dinámica poblacional de las plantas terrestres y acuáticas.

El efecto de los herbívoros sobre las plantas puede ser muy variado. Por un lado, depende del tipo del tejido vegetal que se ha removido y, por otro, del momento cuando surja el ataque en relación al desarrollo de la planta. La defoliación, la pérdida de las de la savia de la planta por succión, el tejido removido por la formación de agallas, la pérdida del meristemo apical, el daño en flores y frutos, y la podación de las raíces presentan diferentes efectos sobre la sobrevivencia y reproducción diferencial de una planta. Igualmente, los herbívoros afectan la tasa de crecimiento de una planta directamente reduciendo el área fotosintética, alterando el balance de carbohidratos, interfiriendo con el consumo de agua y nutrientes, y debilitando la estructura física de la planta. En última instancia, el punto crucial lo constituye el efecto causado por los herbívoros que pueden hacer decrecer el éxito reproductivo o la adecuación de las plantas de las cuales se alimentan. 

 
Los metabolitos secundarios que producen las plantas juega un papel determinante en los patrones de crecimiento, desarrollo y reproducción de los herbívoros.

a. El efecto de los herbívoros sobre la tasa de crecimiento de las plantas

En muchos casos, los efectos de los herbívoros sobre las plantas no son muy notorios, y vemos que, por ejemplo, para demostrar el impacto de los herbívoros sobre la productividad neta de una población o de una comunidad, es necesario estudiar los sistemas a largo plazo. Una muestra interesante es el estudio de un bosque de eucaliptos en Australia. Las especies de este árbol están sujetas continuamente a ataques de insectos y se ha estimado que la pérdida del follaje por año puede alcanzar hasta un 100%. Después de tres años de observaciones, se encontró que los individuos a los que se les había aplicado insecticidas (para liberarlos de los fitófagos) presentaban un mayor crecimiento en relación a los individuos no tratados con insecticidas. Además, con base en estudios dendrocronológicos, se sugiere que estos ataques pudieron haber suprimido la productividad en los bosques de Eucalyptus en diferentes años.

Otros autores estudiaron los efectos de una mariposa (Battus philenor) sobre la dinámica poblacional de Aristolochia reticulata (Aristolochiaceae) y observaron que la intensidad del daño ocasiona la pérdida hasta de un 48% del follaje de la planta, lo cual influye incrementando las probabilidades de mortalidad. La tasa de crecimiento de la planta, y particularmente de las raíces, disminuyó considerablemente trayendo como consecuencia un desbalance fisiológico (menor absorción de nutrientes) que ocasiona un crecimiento más lento de la planta, lo cual a su vez disminuye las probabilidades de alcanzar la madurez reproductiva y por tanto el éxito reproductivo.

b. El efecto de los herbívoros sobre el éxito reproductivo

Generalmente, han sido los trabajos agronómicos u observaciones de campo empíricas los que han documentado algunas de las consecuencias de la defoliación sobre el éxito reproductivo de las plantas. En las selvas de Costa Rica se defoliaron artificialmente (simulando otros factores) seis especies de árboles tropicales, entre ellos el “poro-poro”, el “jícaro”, el “jobo”, etc. Los resultados obtenidos demuestran que el 80% de los individuos defoliados no produjeron semillas. Esto, sugiere el autor, demuestra que cualquier factor físico o químico que amortigüe la defoliación (por ejemplo, por los herbívoros) constituiría una ventaja selectiva importante en la evolución de los organismos.

En las selvas mexicanas se ha estudiado intensivamente durante 10 años la ecología poblacional de una palma (Astrocaryum mexicanum, “chocho”). Como parte de este proyecto se realizó un experimento de defoliación encontrándose que los efectos de este ensayo sobre la reproducción se expresaban después de dos años. Esto demuestra que las consecuencias para una planta no son necesariamente inmediatas.

c. El efecto de los herbívoros sobre la diversidad de una comunidad

Otra hipótesis sobre el papel de los herbívoros en los sistemas naturales ha sido desarrollada al tratar de explicar algunas de las características de los bosques tropicales como son una alta diversidad de especies, una baja densidad de individuos adultos de cada especie y la distribución especial entre adultos conespecíficos. Esta hipótesis resalta el papel de los depredadores y parásitos, y señala que existen dos tipos de respuestas a los depredadores por parte de las plantas; una que responde a la densidad y otra que responde a la distancia, en cuanto a disposición espacial de las semillas y plántulas. La tesis es que mientras más cerca está una semilla o plántula de la planta madre, mayores probabilidades tendrá de ser atacada, pues los depredadores estarán concentrados cerca de la fuente de alimentos. De este modo se favorece que los individuos que se puedan establecer lo harán distanciados de la planta que les dio origen, dejando el espacio suficiente para que los individuos de otras especies se establezcan (originando con esto una mayor diversidad de especies).

    TABLA 1
Metabolitos secundarios y sus posibles efectos contra herbívoros y otros organismos
 Tipo de compuesto  Actividad fisiológica  Tipo de compuesto  Actividad fisiológica
Aminoácidos tóxicos no protéicos  Efectos tóxicos y neurofisiológicos. Inhibidores del crecimiento Triterpeno limonoides   Propiedad tóxicas. Inhibición de la alimentación
Glucósidos cianogénicos Envenenamiento por HCN Saponinas Sabor amargo que inhibe la alimentación. Inflamación del abdomen. Inhibición de la respiración y de actividad enzimática
Alcaloides  Influyen en los mecanismos de replicación de ADN, de transcripción de ARN. Inhibe síntesis de proteínas. Altera procesos celulares, etc.  Flavonoides Producen sabor amargo que inhibe la alimentación. Propiedades tóxicas. Efectos indirectos sobre la capacidad reproductora de los mamíferos. 
 Glucosinolatos Influyen en el funcionamiento de la tiroides. Producen sabor amargo y áspero     Taninos Reducen las proteínas solubles de las plantas disminuyendo el valor nutricional. Inhiben la digestabilidad. Inhiben el crecimiento de bacterias y hongos. 
 Monoterpenos Propiedades tóxicas. Inhiben la alimentación. Influyen en el desarrollo de insectos  Ligninas Igual que los taninos
Diterpenos Propiedades tóxicas. Inhibe la alimentación. Influye en el desarrollo de insectos Fitohemaglutininas Probablemente defensa. Pocas evidencias
Lactonas cesquiterpénicas Producen sabor amargo y rechazan herbívoros. Propiedades alergénicas    Inhibidores de proteinasas      Igual que las fitohemaglutininas

A pesar de que estas ideas no han sido corroboradas con evidencias de campo, se plantea un razonamiento lógico del papel que juegan los depredadores para incrementar, en última instancia, la diversidad de especies de una comunidad. Sin embargo, otros autores consideran que la varianza asociada a la producción de semillas, a la intensidad de depredación y la dispersión en las mismas es muy alta comparando un individuo con otro y de un año a otro en el mismo árbol, por lo que sugiere que difícilmente se puede establecer un patrón en la distribución espacial que pueda contribuir a generar diversidad en una comunidad. Además, consideran que otros factores como las características del micro hábitat pueden jugar un papel importante en el establecimiento y sobrevivencia de las plantas.

Con respecto a los patógenos, también es claro que influyen en la distribución y abundancia de las poblaciones vegetales. Para ilustrar esto, se puede recurrir a la invasión a Estados Unidos por parte de Endothia parasitica, que acabó prácticamente con los castaños (Castanea dentata), que eran árboles dominantes en los bosques deciduos de Norteamérica. El hongo arribó de China, donde era poco dañino para las especies de Castanea con las que convivía. Es también muy conocido que una enfermedad se propaga más fácilmente si existe una densidad muy alta de individuos, de tal modo que se puede favorecer una distribución que implique bajas densidades de individuos.

 
Los productos químicos que le sirven de defensa a las plantas, generalmente se encuentra en forma de látex, protegiendo sitios de alta actividad fisiológica.

LAS RESPUESTAS DE LAS PLANTAS ASOCIADAS A LA HERBIVORIA Y A LOS PATOGENOS

En general, las plantas presentan características que reducen en alguna medida la herbivoría o la acción de los patógenos. Algunas de ellas, como por ejemplo las espinas o compuestos químicos, son muy conocidos por los efectos inmediatos que causan. Sin embargo, existen otros mecanismos como, por ejemplo, la reducción del contenido de nitrógeno de la planta, el incremento en el contenido de agua, la presencia de toxinas o compuestos reductores de la digestibilidad, etc., que no son tan evidentes pero que igualmente juegan un papel importante en repeler el ataque de los herbívoros.

Este conjunto de características se ha agrupado bajo el término de “defensa” y una clasificación general del mismo podría ser la siguiente: a) químicos; b) físicos; c) temporales; d) espaciales; e) simbióticos.

Es importante hacer notar que los mecanismos mencionados no son excluyentes entre sí para una especie vegetal, es decir, ésta puede presentar más de un mecanismo de defensa, ya que un tipo de defensa pudo haber surgido evolutivamente en la interacción como un organismo herbívoro, o como respuesta a una presión ambiental o simplemente por “arrastre” o en asociación con otras características.

Por otra parte, también es importante aclarar que ningún mecanismo de defensa es infalible, ya que son resultado de las interacciones coevolutivas en las que los interactuantes pueden responder de diversas maneras y en distintos momentos. Asimismo, si bien es cierto que algunos mecanismos de defensa pueden ser superados evolutivamente por ciertos organismos, tales funcionan como tamices al rechazar a muchos de los animales que pudieran ejercer un fuerte impacto sobre las especies vegetales si presentaran esas defensas.

 
Las larvas de ciertas mariposas se muestran específicas en la elección de plantas de las que se alimentan, como las larvas de la mariposa monarca, que se nutren de la familia Asclepiadaceae, de la que adquieren sustancias que las hacen poco apetitosas a sus depredadores.

Algunas propiedades de las “defensas” se describen a continuación.

Mecanismos de defensa químicos

El papel de los llamados compuestos secundarios o aleloquímicos ha recibido mucha atención por la importancia económica que tiene. La mayoría de los productos químicos naturales obtenidos por las plantas han sido utilizados para diversos fines, por ejemplo, en la industria farmacéutica, en la industria peletera, en la medicina natural, etc. Sin embargo, los estudios de estos compuestos en relación a las interacciones biológicas entre plantas y animales podemos considerarlos como recientes.

Los sistemas de síntesis, almacenamiento y grado de toxicidad son muy variables. Generalmente se encuentran en glándulas, en el látex o en las resinas de las plantas protegiendo sitios de una alta actividad fisiológica de la planta. Otros pueden estar como compuestos precursores e inactivos que, en los momentos en que la planta es dañada, se activan (por ejemplo, al reaccionar con una enzima de una animal) como ocurre en su caso con los glucósidos cianogénicos. Por ejemplo, el acetato de flúor presente en ciertas especies de la familia Dichapetalaceae, es metabolizado por los herbívoros a citrato de flúor, un inhibidor potente de las reacciones del ciclo de Kerbs.

En la Tabla 1 se sintetiza el papel que desempeñan algunos compuestos secundarios y su actividad fisiológica.

Se conocen aproximadamente 10000 compuestos secundarios en las plantas superiores y hongos, y a medida que se investiga con mayor acuciosidad más compuestos aparecen, sospechándose que su número sea similar al número de especies de plantas conocidas: 400 mil.

Los compuestos secundarios, además de trabajar como agentes protectores, también pueden funcionar como atrayentes, alelopáticos y en menos casos como hormonas vegetales y como metabolitos en otros procesos fisiológicos.

Mecanismos de defensa físicos, mecánicos o morfológicos

Estos mecanismos implican el uso de estructuras que, por sus características físicas, impiden el contacto del animal con el tejido vegetal, dañan al atacante antes o después de iniciada la interacción trófica o lo confunden, haciendo muy difícil la localización de la planta. Las estructuras implicadas en este modo defensivo son de naturaleza muy diversa (pelos, espina, etc.) y pueden medir desde unos cuantos micrones hasta centímetros.

Quizá estas estructuras son las más aparentes al ojo humano en algunos aspectos, pues a nadie escapa advertir que las espinas de un rosal o un nopal, por dar un ejemplo. No obstante,  muchas modalidades de estos mecanismos pasan inadvertidas. Podemos encontrar que las cutículas seríceas engrosadas de los vegetales son barreras efectivas contra muchos patógenos. Una de las modalidades, que está muy extendida principalmente en las gramíneas, es la presencia de sílice en los tejidos interna y externamente, en forma abundante. Esto, además de conferir resistencia mecánica a la planta, la hace poco atractiva a los herbívoros por su capacidad abrasiva y su baja calidad alimenticia. Por ejemplo, la resistencia del sorgo a algunos de sus parásitos, está correlacionada con la cantidad de sílice presente en la planta. En algunos casos, la alimentación exclusiva con gramíneas puede presentar heridas por abrasión en el rumen de ciertas especies de ganado. Igualmente, el consumo de yemas de bambú produce cálculos urinarios silicosos.

 TABLA 2
Características generales de las toxinas y compuestos reductores de la digestabilidad según Rhoades & Cates (1976)*
 Toxinas  Reductores de la digestabilidad

Fundamentalmente son de bajo peso molecular (<500).

Son tóxicas para el organismo atacante a corto o mediano plazo.

Actúan a nivel interno en el organismo atacante, es decir, su efecto se lleva a cabo sobre sitios específicos a nivel celular o de sistemas.

Son efectivas a bajas concentraciones (menos del 2% del peso seco del tejido o planta en cuestión).    Para ser efectivos necesitan existir en concentraciones mayores. A mayor dosis, mayor efectividad.

Brinda una protección efectiva contra grupos de organismos generalistas, siendo anuladas o incluso usadas como atrayentes por los herbívoros especialistas.  

Por sus bajas concentraciones, representan un costo energético bajo para las plantas que los producen.  

Ejemplos: alcaloides, glucósidos, cianogénicos, glucósidos cadiacos, etc.   

Fundamentalmente son de alto peso molecular (>500).

Por lo general no son tóxicas para el organismo.

Actúan a nivel externo con respecto al organismo herbívoro o patógeno, interactuando con almidones, celulosa o con proteínas en general o enzimas digestivas, de tal modo que los recursos potenciales son muy poco digeribles.

Protegen, aunque en menor grado contra organismos especialistas o generalistas.

Por sus concentraciones (altas) son más costosas para el organismo que las produce.

Ejemplos: taninos y resinas

  * Es importante señalar que hay metabolitos secundarios que no se pueden encasillar en ninguna categoría, como es el caso de las saponinas, que pueden funcionar como inhibidores enzimáticos o como toxinas que actúan disolviendo paredes celulares cuando penetran al organismo.

Con respecto a la pubescencia de los vegetales, se le puede atribuir diversas funciones. En varios casis se ha comprobado que la pubescencia funciona como una barrera que impide el acceso de partes bucales de insectos o estructuras ovipositoras de los mismos, dificultando el desplazamiento del herbívoro sobre la estructura vegetal, de tal modo que el gasto que hace el atacante no es compensado por lo que puede comer en ese vegetal. En otros casos, actúan inmovilizando y provocando derrames de hemolinfa en larvas de insectos por medio de pelos “curvados”, que finalmente matan a la larva por inanición y por las heridas producidas. Tal es el caso de Passiflora adenopoda y las larvas de mariposas de la familia Heliconiidae.

Existen estructuras más pequeñas que comúnmente se encuentran dentro de las células vegetales, sean especializadas o no. Estas estructuras son cristales llamadas drusas, rafidios, etc., que pueden estar en células especializadas, y cuyo efecto físico sobre los herbívoros ha recibido poca atención por parte de los ecólogos, siendo conocidos principalmente por los estudios de morfología vegetal. Pese a lo anterior, puede afirmarse que muy posiblemente muchas formas cristalinas existentes dentro de las células vegetales tienen alguna función protectora, como se ha demostrado con la estructura de los rafidios de algunos géneros de aráceas comestibles. El consumo de material con idioblastos cristalinos (células especializadas que contiene rafidios) causa irritación severa sobre la boca y garganta humanas, y solamente es comestible bajo cocimiento previo. Se ha observado que todos los rafidios de las aráceas examinadas observan en común la forma de pequeñas lanzas con diminutos apéndices dirigidos hacia la base; canales a los lados análogos a los cuchillos de monte, que posiblemente funcionan como vías de salida para la sangre impidiendo la formación rápida del coágulo; y una punta, opuesta a la otra, que surge abruptamente de la base. Los rafidios pueden ser liberados de una forma violenta en el género Colocassia, donde la célula que los contiene se hinca y rompe violentamente expulsando a los rafidios de la misma forma, cuando es destruido el tejido vegetal con idioblastos.

 
La evolución de plantas e insectos es particularmente común en la naturaleza.

Mecanismos de defensa temporales o fenológicos

Estos mecanismos, también denominados “escape en tiempo” se favorecen en casos en los que las plantas (v.g. perenes) no siguen un patrón regular en la producción de semillas y/o primordios foliares, ya sea porque existen temporadas en las que no se producen o se producen muy pocas, y otras temporadas en que la producción de semillas es muy alta; o bien que la producción de primordios foliares anual sea irregular, de tal modo que un herbívoro especialista sincronizado con la aparición de nuevas hojas, no logre sobrevivir si su emergencia del estado larvario no coincide exactamente con la producción de hojas nuevas. Si las larvas emergen cuando aún no se producen las hojas nuevas, mueren; si emergen cuando las hojas nuevas ya tienen cierta edad, no pueden desarrollarse adecuadamente y tienen altas probabilidades de morir. Sólo cuando emergen al tiempo que se producen las hojas nuevas, pueden introducirse en ellas y sobrevivir. También puede ocurrir que la producción de hojas nuevas se presente cuando las poblaciones de herbívoros estén inactivas o sean poco densas, y de esta forma saturar a los herbívoros activos y/o presentes, permitiendo que sobrevivan la mayor parte de los primordios.

Otro caso es en el que se favorece el paso de largo periodo entre eventos reproductivos, acompañándose de un comportamiento semélparo y una gran producción de semillas, como en el caso de los bambúes.

Como puede verse, estos mecanismos temporales son desfavorables para el desarrollo de nuevos herbívoros especialistas.

Asimismo, esta impredecibilidad, tanto en el tiempo como en la regularidad de producción de recursos, tienen como resultado el mantenimiento de bajas densidades de la población de los herbívoros, haciendo posible que en ocasiones las poblaciones de plantas puedan saciar a los herbívoros, permitiendo que una fracción importante de los producido escape a la depredación.

 
Los dibujos y colores brillantes de las alas de las mariposas señalan, a veces, el hecho de que son poco apetitosas a sus depredadores, aunque éstas sí sean comestibles.

LAS RESPUESTAS A LOS HERBIVOROS

Esta serie de mecanismos de defensa de las plantas nos conduciría a pensar que los herbívoros y patógenos sufren fuertes presiones sobre sus números poblacionales. Sin embargo, los animales, al igual que las plantas, han desarrollado diversos mecanismos en su larga evolución orgánica que les han permitido superar estas fito-barreras. Probablemente los ejemplos más sorprendentes son los casos de los insectos, plagas de cultivos, que resisten a los efectos de la aplicación de insecticidas a concentraciones cada vez mayores. Estos casos ilustran la capacidad de los organismos (insectos) para asimilar compuestos tóxicos.

En la naturaleza existen numerosos ejemplos donde se muestran herbívoros adaptados a alimentarse de plantas que presenten compuestos secundarios. Probablemente el caso más llamativo y conocido sea el de las mariposas “monarca” que metabolizan y almacenan los glucósidos cardíacos (compuestos sumamente tóxicos) de algunas plantas de la familia Asclepiadaceae, confiriéndoles protección en contra de sus depredadores.

Otro caso en el Desierto de Sonora es el del cacto Lophocereus schotii, quien sufre los ataques de una mosca, Drosophila pachea, a pesar de que este cacto contiene dos tipos de alcaloides tóxicos (pilocereína y lofocereína). Esto se corroboró experimentalmente al poner ocho especies de Drosophila a dietas con estos alcaloides. Todas las especies se murieron después de 20 días con dietas con una concentración del 1% de alcaloides, excepto D. pachea. Además, se detectó que el cacto contiene esterol y escotenol, que son esenciales en el metabolismo de D. pachea y no para otras especies de Drosophila.

Uno de los procesos metabólicos más eficientes que presentan algunos insectos como mecanismos de desintoxicación es a través de la acción de las “oxidasas de función mixta”, que son enzimas que están involucradas en el metabolismo primario de compuestos lipfílicos. Las primeras demostraciones de la acción de estas enzimas se lograron analizando las actividades de éstas en los tractos digestivos de larvas de 35 especies de mariposas, estimando la tasa a la cual el aladrin es epoxidizado a dieldrin (compuestos utilizados en la fabricación de insecticidas).

La diversidad de mecanismos que pueden presentar los animales puede ilustrarse analizando los siguientes casos. Se ha demostrado que la nicotina es una compuesto sumamente tóxico. Los afidos Myzus persicae presentan un comportamiento que evita este compuesto a través de alimentarse únicamente del floema de la planta, la cual no presenta nicotina, Manduca sexta, Helipthis virescens y Trichopusia ni son organismos que presentan un sistema excretor muy eficiente que no permite la acumulación de compuestos tóxicos. Bombyx mori muestra un tubo neutral impermeable a iones, de tal forma que evita que los alcaloides entren al sistema nervioso. Conoderus vespertinus, Lasioderma serricone y Melanoplus differentalis presentan sistemas de enzimas de función mixta que evitan la intoxicación por compuestos secundarios.

Un ejemplo que ilustra una contradaptación a una fito-barrera física es el estudio de la interacción entre Mechantis isthmia y Solanum hirtum. Esta planta exhibe tricomas bien desarrollados y la adaptación de las larvas contra esta estructura consiste en “construir” una rede de seda sobre los tricomas de las hojas y alimentarse de las partes de la hoja que carecen de tricomas. Además, han desarrollado un comportamiento gregario tanto para la alimentación como en la elaboración de la red, hábito que probablemente es único para este grupo de mariposas.

Las adaptaciones que presentan los animales para “superar” estas barreras son muy diversas y de naturaleza muy compleja. Existen casos donde “claves” visuales, olfatorias, etc., son las funciones que determinan si un herbívoro utiliza o no una planta. Incluso, en algunos casos, patrones etológicos muy complicados son los que determinan el éxito en el forrajeo. Sin embargo, la revisión de estos temas sale de los objetivos del presente trabajo.

 
Heliconius nattereri es capaz de tolerar y almacenar en su cuerpo los glucósidos cianogénicos que posteriormente resultarán tóxicos para sus depredadores.

HACIA LA CONSTRUCCION DE UNA TEORIA SOBRE LA DEFENSA DE LAS PLANTAS Y SUS RELACIONES CON HERBIVOROS

Los ejemplos analizados en los párrafos anteriores ilustran las estrechas relaciones entre un herbívoro y una planta a través de una serie de características adaptativas. Es importante señalar que éstas no se encuentran aisladas sino que forman una matriz de características muy complejas que, combinadas, definen la historia de las especies.

Por esta razón, al tratar de integrar las evidencias sobre los mecanismos de defensa y sus patrones ecológicos en una sola teoría, nos encontramos con intentos parciales.

Básicamente las premisas de las cuales parten estos intentos son las siguientes. En primer lugar, se considera que la asignación de recursos y energía a diferentes estructuras de las plantas ha sido moldeada evolutivamente por varios factores. Uno de éstos, precisamente, es el consumo de tejidos vegetales por parte de los animales. Como consecuencia de ello la respuesta natural que uno esperaría encontrar en las plantas es el desarrollo de diferentes mecanismos de defensa que aminore el consumo de los animales. Una expresión de este fenómeno es que en la naturaleza encontramos que muchas especies vegetales han sido consumidas por herbívoros pero sin llegar a tener efectos letales, salvo algunas excepciones. Estos mecanismos de defensa, tanto físicos como químicos, representan un costo energético para la planta, tanto para su producción como para su mantenimiento. Esta inversión repercute, directa o indirectamente, ya que de hecho se da una división en la asignación de recursos en defensa a costa de otras estructuras o procesos de la plata. Así uno esperaría que existiera una mayor inversión de energía en defensa a medida que fuera mayor el forrajeo por herbívoros.

De esta manea surge una contradicción entre el tiempo que el tejido contribuiría a los procesos de la planta si no fuera consumida, contra el costo que representa perder este tejido. Esto es, mientras mayor es el potencial fotosintético de un tejido, mayor es la probabilidad de invertir en defensa, pero también, mientras más largo sea el tiempo que esté presente un tejido, más alta es la probabilidad de que lo detecten los herbívoros.

Por otra parte, se considera que es posible clasificar los compuestos secundarios defensivos en toxinas y compuestos reductores de la digestabilidad (Tabla 2).

Con base en estas ideas se han postulado las siguientes hipótesis. Las plantas o tejidos efímeros (flores, hojas jóvenes, etc.) en caso de estar defendidos, lo estarán primeramente por toxinas o inhibidores enzimáticos específicos que son efectivos a bajas concentraciones y actúan principalmente sobre sistemas metabólicos (por ejemplo, sistema nervioso) de los insectos. Aunado a esto, estos tejidos efímeros de la planta generalmente son muy importantes para la planta y esta corta existencia les provee una alta probabilidad de escape a la depredación en espacio y en tiempo disminuyendo los niveles de daño.

Este escape en espacio y en tiempo conceptualmente sería muy efectivo en contra de herbívoros monófagos más que en contra de polifagos, ya que los primeros no tienen alternativa en cuanto a fuentes alimenticias. De ser así, las defensas de las plantas y tejidos efímeros tenderán a evolucionar especialmente contra herbívoros generalistas. De este modo, se esperaría una divergencia química de las plantas, ya que al beneficiarse aquellos herbívoros que pudieran asimilar los compuestos químicos más comunes, las plantas que diversifiquen sus compuestos químicos incrementarán su adecuación (esto es, presentarán una ventaja sobre las plantas no diversificadas).

Por otro lado, las plantas perennes y los tejidos más longevos, por el hecho de estar disponibles durante más tiempo, se esperaría que fueran un recurso para herbívoros especialistas, originado con esto que la evolución de la defensa química de estas plantas se canalizara en contra de éstos. De este modo, tejidos y plantas predecibles en tiempo y en espacio, han convergido en defensas formadoras de complejos proteínicos no específicos y sistemas reductores de la digestabilidad. Estos son costosos en términos energéticos para la planta, pero difíciles de superar por herbívoros.

CONSIDERACIONES FINALES

Cabe mencionar que estas hipótesis se ubican dentro de una plétora de ideas acerca de los factores y circunstancias que se han postulado para explicar la dinámica de la interacción entre herbívoros y plantas. Por ejemplo, en función de la distribución geográfica de los organismos; del estado sucesional en el que se desarrollan los interactuantes; de la calidad de nutrimentos del suelo en el que crecen las plantas; de las características de los competidores o depredadores simpátricos, etc.

Por otra parte, no hay que olvidar que prácticamente cualquier interacción específica no se encuentra en forma aislada, sino que se ubica dentro de un sistema ecológico con múltiples relaciones con otros organismos y con numerosos factores físicos. Este hecho nos plantearía numerosas interrogantes como las siguientes: ¿cuál es el papel de los herbívoros en el flujo de energía dentro de un ecosistema?, ¿qué papel juegan en la determinación de la diversidad de una comunidad?, ¿qué relaciones sinérgicas se establecen con otros niveles tróficos?, etc.

Asimismo, es muy común tratar de interpretar una interacción biológica en términos coevolutivos. Hay que tener cuidado al tratar de deducir la historia evolutiva de una interacción con base en observaciones ecológicas. Hay que recordar, por un lado, que no necesariamente todas las características que presenta un organismo son adaptativas y, por otro, que el origen de características cruciales en una interacción pudiera no deberse a los participantes del mismo.

Finalmente, es muy tentador tratar de ubicar en un contexto evolutivo cualquier fenómeno biológico que estudiamos, y es indudable que son numerosos los problemas e interrogantes que surgen al hacer esto, pero como diría un eminente biólogo de este siglo “nada tiene sentido en la Biología si no es a la luz de la evolución”.

 
Este cactus se ha adaptado a condiciones ambientales de fuerte restricción hídrica. No necesariamente todas las plantas han respondido evolutiva o adaptativamente para impedir o reducir el daño que sufren al ser consumidas por los insectos.
 TABLA 3
Principales postulados de la teoría de Rhoades & Cates (1976)*

 1. Mientras más predecible y disponible sea un tejido vegetal como recurso alimenticio para los herbívoros, más defendido estará por compuestos reductores de la digestabilidad.

2. Mientras más efímero sea un tejido vegetal como recurso alimenticio para los herbívoros, más defendido estará por toxinas.

3. Las toxinas dan muy poca protección contra los herbívoros especialistas pero pueden proveer más protección contra los generalistas.

4. Las sustancias reductoras de la digestabilidad protegen contra todo tipo de herbívoros.

* Tomado parcialmente de DiFeo (1976).

 
 articulos
 
 
     
 bibliografía Recomendada
 
1. Crawley, M. L., Herbivory. The Dynamics of Animal-Plant Interactions, Studies in Ecology, No. 10, Blackwell Scientific Pub., London.
2. DeBach, P., 1974, Biological Control of Insects, Pets and Weeds, Reinhold, New York.
3. Edwards, P. J. & S. D. Wratten, 1980, Ecology of Insect-Plant Interactions, Studies in Biology, No. 121, Edwards Arnold, Great Bretain.
4. Ehrlich, P. & P. H. Raven, 1964, Butterflies and plants: a study in coevolution, Evolution 18, pp. 586-608.
5. Geeny, P. 1976, Plant apparency and chemical defense, Recent Adv. Phytochem 8, pp. 2119-2126.
6. Gilbert, L. E. & P. H. Raven (eds.), 1975, Coevolution of Animals and Plants, University of Texas Press, Austin.
7. Huffaker, C. B., (ed.), 1971, Biological Control, Plenum Press, New York.
8. Rhoades, D. F., & R. G. Cates, A general theory of plant antiherbivore chemistry. Biological interactions between plants and insects, in Wallace, J. W., & R. L. Mansell (eds.), Recent Advances in Phytochemistry, V. 10, Plenum Press, New York.
9. Rosenthal, G. A. & D. H. Jansen, (eds.), 1979, Herbivores: Their Interaction with Secondary Plant Metabolites, Academic Press, New York.

     
       
____________________________________________________________
     

Ken Oyama y Francisco Espinoza
Instituto de Biología, UNAM

como citar este artículo

     
R09Articulos5   menu2

siguiente

anterior

PDF

   
   
Ismael Ledesma      
               
               

 “La teoría materialista del desarrollo de la naturaleza viva es inconcebible sin el reconocimiento de la necesidad de la herencia de caracteres individuales adquiridos…”

 

Trofim Denissovitch Lysenko es un nombre que para muchos no dice nada, para otros quizá se asome como un vago recuerdo de ciertas polémicas científicas ya rebasadas y para otros resulte importantísimo aún desde posiciones opuestas para las cuales su historia resulta útil. Pero, ¿quién es Lysenko?

Lysenko T. D., biólogo (porque su campo de estudios se situaba en dicha ciencia), no es reconocido por muchos como tal y en la mayoría de las mentes tal vez sea considerado como un biólogo aberrante. Agrónomo, porque su práctica implicaba la aplicación, en el campo de la agricultura, del conocimiento generado en la Biología. Por lo general es considerado como un impositor de métodos equívocos en la colectivización agraria de la URSS. Hombre de poder, ya que durante su gestión como presidente de la Academia de Ciencias de la URSS se consumó la imposición de las políticas agrícolas y científicas derivadas de su concepción y acordes con las necesidades del estado soviético, por lo que es probable sea más conocido en occidente.

 Lysenko es hoy, para los jóvenes biólogos, un personaje casi desconocido. No así en las décadas de los treintas a sesentas, tiempo durante el cual su nombre levantó polémica en el contexto de la “guerra fría”. Lysenko se asocia hoy con el campo de la docencia, en el mejor de los casos, aunado al nombre de Lamarck y con la “aberrante teoría de la herencia de caracteres adquiridos”, y ya poco se habla de su papel en la Biología Vegetal. Así, salvo en un texto de Fisiología1 en el que se dice:

“…Numerosos investigadores han continuado cuidadosamente el estudio de la temperatura sobre la floración. Los trabajos iniciales de científicos como Lysenko y Gessner prepararan el camino hacia el conocimiento más completo del fenómeno de Vernalización* que tenemos actualmente” […].

En la mayoría de los textos usuales encontramos citas como esta:

…“En los veintes el término Vernalización es acuñada por Trofim Denissovitch Lysenko, quien durante el régimen de Stalin fue asignado para ejercer absoluto control político sobre la genética en Rusia, decretando que los genetistas aceptaran el dogma de la herencia de caracteres adquiridos”…3

La cita anterior me parece importante, puesto que refleja la posición de la ciencia occidental contemporánea con respecta a este personaje, a diferencia de la que le antecede. Creo que no hay mejor manera de mostrar el principal “uso” que Lysenko tiene para el mundo capitalista de hoy.

Pero, a estas alturas, el lector se preguntará: ¿por qué ocupar este espacio para hablar de Lysenko? A lo que yo respondo: además del aspecto fisiológico del fenómeno de vernalización (del que se sabe bien poco) Lysenko es importante por dos razones:

1a. En relación a la historia de la teoría evolutiva, por el estudio de su nexo con las teorías lamarckiana y darwiniana. 

2a. Por su relación con el problema Ciencia-Sociedad y con el estatuto epistemológico de la Ciencia Biológica en particular y de las ciencias naturales en general y, concomitantemente a esta segunda razón, podemos ver que en una época en la cual el conocimiento científico es enseñado de una forma encajonada, estandarizada y carente de perspectiva crítica, en el cual en este “mundo de libertad”, en occidente (de oriente prefiero ni hablar) el conocimiento científico es impartido generalmente de manera vertical y sin visión de su génesis, es importante ver como en diferentes momentos de la historia diversos hombres han enfocado un mismo problema científico de manera disímil (sea por la causa que fuere y aún existiendo ya una concepción generalizada aunque no del todo aceptada, como en aquéllos momentos en los que no se cuenta aún con un verdadero paradigma)* y preguntarnos retomando a Castañeda;5 ¿qué tan libres estamos nosotros en la formulación de nuestras pensamientos actuales, de los conceptos darwinianos 100 años ya viejos? ¿Qué tan libres de los de la herencia mendeliana como para pensar independientemente en otra herencia no mendeliana? [...] ¿Qué tan libres estuvieron los hacedores del dogma central para aceptar modificaciones a éste? ¿Llegaremos algún día a aceptar un flujo de información inversa de proteína a ácidos nucleicos…? ¿Por cuánto tiempo una herejía continúa siendo una herejía? ¿Qué tan libres estamos nosotros para poder imaginarnos al mundo de una manera diferente a como nos lo han pintado nuestros predecesores?”. 

 
Al amparo de Stalin la figura de Lysenko se volvió legendaria.

Y en esta perspectiva pregunto yo: ¿Hasta qué punto no es importante revivir viejas polémicas, como la planteada en relación a la biología michurinista (fundamento “científico” del lysenkismo) con todo lo inoperante que fuese?, así como piensa en la importancia de conocer el contexto en que se realizaron los trabajos de Karamer, “quién en 1918 publicó resultados experimentales realizadas con salamandras, sapos y otros anfibios, que supuestamente probaban la herencia de caracteres adquiridos y que fueran mostrados como erróneos en 1926 por Noble y Przbram, aunque nunca fueron repetidos dada su dificultad, ni estudiados desde otra perspectiva más fina y precisa”.6 Así como también cabría preguntarse: ¿Qué llevó a la formulación del razonamiento de base de las cruzas de Luria y Delbruck que demuestran “definitivamente” la incongruencia de la herencia de caracteres adquiridos con la realidad del fenómeno de adquisición de resistencia a antibióticos por las bacterias? De donde derivaríamos que la cuestión neolamarckiana (aún considerando al lysenkismo así, como que es muy discutible) más que ser algo eliminado sigue siendo vigente: tal como lo prueba la polémica suscitada en relación a Steele y Gorczynsky, quienes en los añas 79 y 80 plantearon la posibilidad de existencia de un mecanismo de herencia de caracteres adquiridos en el sistema inmune, en relación al fenómeno de tolerancia, sosteniendo que la tolerancia adquirida no es genética y el sistema inmune de un ratón A, engañado por experimentadores, aprendió a reconocer células B de otro ratón como si fuesen propias y estas características se transmitieron a la descendencias.6, 7

 
En las sesiones de la Academia Lenin, Lysenko presentó un informe de la situación de la Biología.

Tales consideraciones, aquí brevemente esbozadas, hablarían en favor de lo interesante de este tema desde el punto de vista “científico” y de Epistemología de la Ciencia. No obstante, hay otra razón de importancia que cabe mencionar, porque tiene que ver con el énfasis que se le dio al caso Lysenko por el poder burgués, como una muestra de la arbitrariedad del régimen socialista de la URSS, utilizado como un arma ideológica del capitalismo en su lucha contra el pensamiento marxista, lo cual lleva a la necesidad de “plantear en términos marxistas” —como dijera Althusser (en su prólogo al libro de D. Lecourt)—8 el problema del Lysenkismo; para clarificar hasta qué punto la cuestión generada ahí es producto del marxismo como tal, del marxismo visto como una concepción filosófica errónea e incongruente con la realidad, o bien como producto de la articulación de la compleja maquinaria del poder del Estado Soviético y la construcción de una ideología acorde a sus necesidades de control y mantenimiento de su hegemonía. Este es, clarificar hasta qué grado no es la teoría marxista, ni el pensamiento filosófico derivado de ella, el responsable directo de la generación de un hecho de esta índole; sino que el problema de acuerdo a la vía de pensamiento inaugurada por Lecourt, no es en lo absoluto académico, se trata de un problema político y es tal visión la que en lo sucesivo trataré de mostrar tomando algunas citas de este autor.

Ya en su dossier “El caso Lysenko”, publicado por Anagrama en 19749 D. Lecourt esboza las vías por las cuales transcurrirá su estudio posterior; ahí encontramos el interesante planteamiento de tres lecturas posibles para el caso Lysenko, donde la primera de ellas sería que …“la cuestión central del lysenkismo estriba en la organización del trabajo científico o más precisamente en la intervención del poder del estado respecto a la determinación de objetivos de investigación y como consecuencia en la asignación de los medios que permiten conseguirlos”. De ser así la cuestión queda planteada sólo como consecuencia …“de la torpe intervención de una instancia no científica en la organización del trabajo científico…” “Solo quedará por explicar la brutalidad que pudo agravar dicha torpeza. Para ello bastará con el nombre de Stalin”. Decir de ese modo las cosas, resulta útil tanto para los adversarios como para los partidarios de la URSS. “Los primeros la ven como una prueba de la nocividad del centralismo que implica la instauración de un régimen socialista; los otros la utilizan como una excusa: Lo que sucedió en la URSS —dicen— no resulta diferente, en el fondo, de lo que sucede cada día en los países capitalistas. Ahora bien, desde que acabó lo que se convino en llamar “el periodo Stalinista”, los ‘errores’ pudieron ser corregidos en los países socialistas, mientras que en los capitalistas es completamente imposible hacerlo dada la dependencia —consustancial en tales regímenes— de la investigación con respecto al Capital”.

 Sin embargo, hay un hecho que cimbra esa explicación: "Si bien es verdad que la subordinación, la ‘dependencia’ de la investigación con respecto al capital puede producir —y de hecho produce— el efecto de un obstáculo o de ‘esterilización’ ” al limitar la investigación científica a tal o cual rama de las  escuelas físicas o biológicas por ejemplo, o bien por el contrario, hipertrofiándola en tal o cual otra que, desde un punto de vista teórico no tiene un interés equivalente; hay que reconocer que nunca esta subordinación —por intolerable que sea— tuvo como efecto el hacer que una ciencia establecida volviera a su prehistoria, nunca se vio que una doctrina impuesta por decreto hiciera tambalear a una teoría científica y se apoderara institucionalmente de su sitio. Es verdad que siempre han existido aquí y allá algunos iluminados que contestarán: la “ciencia oficial”, y propondrán sustituirla por sus manías personales. Pero no es a ellos precisamente a quienes se conceden créditos y medios. Lo más que pueden esperar es que se les reserven algunas columnas en cierto tipo de prensa, cuya misión ideológica consiste en mantener entre las masas la creencia en “el coco” y la veneración a las potencias establecidas. Repitámoslo: si no tiene en cuenta este hecho, si no se mide esta diferencia, no se puede explicar el “caso Lysenko”, por lo que se busca la respuesta en otra parte.

La segunda lectura o vía interpretativa va por el lado del estudio de la disociación interna que hace Lysenko respecto a la teoría Darwiniana, “entre lo que sería en ella propiamente científico (la noción de la adaptación) y lo que sólo sería la subrepticia introducción de un elemento ideológico reaccionario tomando de Malthus (la noción de evolución por acumulación de variaciones). Según Lysenko, Mendel habría ‘dejado de lado’ el contenido científico y, por el contrario, habría dado al elemento ideológico la extensión propia de una teoría. De ahí la ‘desviación’.

 
Durante la Guerra Fría y mientras Lysenko provoca fuertes polémicas en el ámbito científico, en Estados Unidos se dan manifestaciones de protesta por la ejecución de “espías atómicos”.

Dichas así las cosas, todo parece indicar que se trata de una discusión científica en el seno de la “Ciencia de la Herencia” que pasaría por un periodo de “reorganización” y lucha por el establecimiento de un paradigma. El error de Lysenko podría haber sido así el aferrarse a una de las posibles posturas y “un azar funesto —que históricamente tomó el nombre de Stalin— convirtió este error en tragedia”. Tal interpretación estaría acorde con la idea de que la “intervención del poder político en un debate científico abierto sería, de nuevo, la cuestión fundamental del lysenkismo”. Dicho aserto no es veraz por tres razones.

La primera es que “cuando Lysenko elabora su teoría la ciencia de la herencia no estaba pasando por ninguna crisis”; lo que es peor, el lysenkismo continúa en un periodo en que la generación ya está consolidada, “incluso años después del descubrimiento de la estructura de las moléculas ácido-nucleicas por Watson y Crick”, por lo que es totalmente incierto pensar que la genética atravesaba por un periodo de carencia de paradigma, aunque este se haya constituido paralelamente al desarrollo de la polémica.

La segunda razón es que …“la disociación interna establecida por los lysenkistas en la teoría darwiniana reposa en una equivocación de orden teórico”. Lysenko cita a Engels para afirmar que Darwin ha tomado de Malthus la parte reaccionaria. Sin embargo, “Lysenko confunde el proceso de descubrimiento y la teoría que resulta del mismo. Incluso admitiendo que la teoría de Malthus hubiera jugado el papel que Darwin y Engels le atribuyen, la única conclusión posible de obtener es que la doctrina malthusiana le valió como instrumento teórico. Pero ello no implica en absoluto la presencia, en tanto que tal, el instrumento en el producto. La historia de las ciencias nos ofrece cien ejemplos que prueban que no hay ninguna continuidad natural, ninguna homogeneidad en el concepto científico producido y el instrumento teórico que permitió formarlo”. Lysenko cae en el error de ignorar la unidad de la teoría darwiniana; no valora el compromiso entre la idea de adaptación y la de evolución por acumulación de variaciones beneficiosas para la especie.

La tercera razón: “cuando Lysenko habla de la genética mendeliana, la asimila constantemente a la doctrina de Weismann”; lo cual no es necesariamente cierto. Él acuña incluso el término Weismann-mendelismo, siendo esta una asimilación falsa, y la forma en que Lysenko la realiza es “arbitraria y tramposa”.


“Por todo ello, a pesar de las apariencias, la discusión que se desarrolla entre los genetistas y Lysenko en el curso de la sesión de 1948, no es una discusión científica: es un diálogo de sordos”.

De acuerdo a todo lo expresado, D. Lecourt plantea una tercera vía de interpretación, donde el problema del Lysenkismo no es científico, sino filosófico. Un problema filosófico que implicaría la contradicción del Materialismo Dialéctico con las ideologías del “idealismo reaccionario”. De ser esta cierto, dado que “…el lysenkismo estaba en completa concordancia con el Materialismo Dialéctico y se encontraba en desacuerdo con la ciencia genética efectiva, el Materialismo Dialéctico, por tanto, esté en desacuerdo con la ciencia contemporánea. Y hay pruebas. Los científicos no deben utilizarlo sino guardarse de él dadas las aberraciones a que su uso puede conducir”.

Todo el ataque lysenkista contra la genética mendeliana se basa en esta filosofía; más bien podríamos decir que representa un ataque ideológico a una ciencia imaginaria, pues la genética que combate no tiene en absoluto que ver con la genética real. “La genética que atacan es muy diferente a la ciencia efectiva que entonces existía bajo ese nombre y que a continuación se desarrolló. Simplemente prueban que la imagen que tenían de la genética no estaba de acuerdo con el materialismos dialéctico. Y eso es otra cosa”.

De esta forma podemos ir, poco a poco, ganando algo de claridad en todo esto. La cuestión aquí planteada es la “…refutación de la genética por el hecho de ser ‘burguesa’, de donde inversamente procede el proyecto de construir una nueva ‘Ciencia proletaria’, aplicando la filosofía del proletariado —el Materialismo Dialéctico— a los fenómenos de la herencia. Si hay ‘acuerdo’ es que hay engendramiento”.

“Esta posición no la toma únicamente Lysenko, sino que es la posición ‘oficial’ de la filosofía soviética durante el llamado periodo ‘Stalinista’. Esta posición cree ser avalada por cierta lectura de Materialismo y Empiriocriticismo de Lenin de la cual se deduce que la aplicación del Materialismo Dialéctico en un determinado campo científico permite construir conceptos científicos inéditos”.

 
Uno de los productos agrícolas más importantes en la URSS es la papa que, puede considerarse básico para la alimentación soviética.

Esta es una necesidad de orden ideológico: una filosofía propia del proletariado —el Materialismos Dialéctico— permitirá engendrar conceptos de orden general en todas las ciencias. Pero además hay otro requerimiento que aparece presente en los textos lysenkianos y es el que nos dices que “la doctrina lysenkista podrá dar una inmediata solución a los problemas que presente la subproducción agrícola. Lysenko se comprometió a resolver uno de los más acuciantes y angustiosos problemas de la URSS en los años 1930-1950 mediante un brutal incremento del rendimiento, pudiendo verse que esta cuestión se presenta invariablemente como un asunto técnico —un problema de agronomía— cuando la historia de la URSS nos demuestra que si se hizo tan acuciante fue debido a la resistencia pasiva de las masas campesinas respecto al poder ‘socialista’. Por lo tanto no sólo era una cuestión técnica, era un cuestión política que exigía una solución política, la rectificación de los ‘errores’ cometidos con la colectivización en los años 1928-1929. Rectificación que, a su vez, hubiera requerido se reconsiderara teóricamente el tipo de las relaciones a instaurar, en el periodo de transición entre el capitalismo y el socialismo, entre los sectores industriales y los agrícolas”. De donde se deduce la hipótesis central del planteamiento de Lecourt en 1974: “La desviación lysenkista podría imputarse a una concepción ‘tecnicista’ de un problema político”.

Lecourt en 1976 hace un desarrollo más profundo de su concepción en su libro: Lysenko, historial real de una ciencia proletaria8 donde nos dice:

“En el caso que nos ocupa, la versión ontológica del materialismo dialéctico, cuya extrema consecuencia es, como acaba de observarse la teoría de las dos ciencias, puede funcionar también, según la coyuntura, solamente bajo una modalidad menor o, al mismo tiempo, sobre un modo menor: ‘suspendiendo’ el voluntarismo epistemológico que acarrea mediante la neutralización; es decir, el camuflaje de la normatividad de su concepto de las ‘leyes’ de la dialéctica. Todos conocemos la escolástica gris a la que da entonces origen: abundan las obras de estos filósofos ‘marxistas’ que se las ingenian para descubrir a posteriori, en las diversas ciencias, ‘aplicaciones’ del materialismo dialéctico; ‘aplicaciones’ que, en esta ocasión, con el vínculo de exterioridad y de posterioridad que mantienen con él, presentan la característica de no cambiar nada de su ‘objeto’. Tal fue la práctica que se dedujo, antes de 1948, de la versión Staliniana del Materialismo Dialéctico. Es también, hemos de reconocerlo, la que redescubrieron con alivio perezoso y conformista la mayoría de los filósofos marxistas al salir del mal paso lysenkista…

”Esta práctica aberrante de la filosofía marxista equivale, conforme al procedimiento ‘clásico’ de las filosofías idealistas, a una verdadera desviación de las ciencias para gloria de una filosofía determinada, la filosofía del Estado de la Unión Soviética y de los países del Este.

 
El término “weissmanno-mendelismo” es acuñado por Lysenko con la finalidad de asimilar la genética mendeliana a la doctrina de Weissmann, quien rechaza la idea de caracteres adquiridos.


”Como hemos visto, se desencadena entonces una formidable campaña propagandística impulsada y generalizada por el aparato del Estado. Esta se emprende en dicha ocasión deliberada y abiertamente bajo el lema de la teoría de las ‘dos ciencias’. Se apodera de la doctrina de Lysenko para transformarla en doctrina del Estado y proclamarla como la ilustración misma de la superioridad del régimen soviético frente al régimen capitalista, en el dominio científico y cultural.

 ”…Nada tiene de asombroso, en estas condiciones, que el nombre de Lysenko haya quedado en este punto ligado a aquella alternativa (‘ciencia burguesa’ o ‘ciencia proletaria’) y que en el ánimo de mucho, sobre todo fuera de la URSS e inclusive en la URSS (por lo que nosotros podemos saber), el lysenkismo se reduzca a una amalgama de charlatanería científica e impostura estatal. Únicamente se recuerdan las monstruosidades epistemológicas y la intervención arbitraria del poder del Estado, se ha visto en las primeras los efectos de la segunda y denunciado las medidas impositivas de un Estado que violaba la libertad de la investigación científica. En resumen se ha tratado muy a menudo al lysenkismo en términos de verdad y de error y se ha buscado el origen de su inversión en la intervención del poder del Estado legislador, como si tuviese el ‘derecho’, en materia de filosofía y de investigación científica. De ahí el enojo general.

”Es legítimo el denunciar la intervención del Estado para implantar la tesis de las ‘dos ciencias’. Pues, del mismo modo que se ha visto al materialismo dialéctico imponerse desde fuera de la teoría de Lysenko, se asiste a la intervención del Estado desde afuera para imponer la tesis de las ‘dos ciencias’ al lysenkismo y extender la ideología más allá de su dominio. Nos encontramos ante un fenómeno nuevo. Es muy importante que se entienda que no es una razón interna de la teoría de Lysenko lo que explica su destino universal de 1948. Sería particularmente ilusorio no ver, en el acontecimiento que tiene lugar entonces, más que el simple despliegue de las consecuencias de una ‘lógica’ filosófica que liberase el tema de las ‘dos ciencias’, como la consecuencia extrema de las posiciones filosóficas oficiales fijadas y practicadas con anterioridad.

”La explicación que proponemos del lysenkismo —fenómeno circunscrito aparentemente a la superestructura ideológica— muestra que en realidad hay que remitirse en última instancia a la infraestructura si se quiere tener la oportunidad de aclarar su formación […] Cuando la tesis de las ‘dos ciencias’ se adoptó y se llevó a la práctica en 1947-1948, no se trata y no se trató ya de filosofía.

 
Lysenko rechaza la teoría mendeliana por ser una extensión del elemento que considera ideológico de la teoría darwinista.

”…So pretexto de la generalización del lysenkismo, propuesto como ideología al conjunto de los trabajadores intelectuales, se cambia de plano y perspectiva. Ya no se trata de teoría ‘científica’ filosófica, sino que asistimos de hecho a la consagración de un sistema ideológico de Estado: una ideología de Estado cuya ‘teoría’ de las dos ciencias constituye la pieza maestra y que es a la vez su instrumento privilegiado, el modelo funcional y el ‘pundonor’ teórico.

”En resumen, de la última vicisitud del lysenkismo, con la que se halla su forma y estatuto definitivos, podríamos decir lo mismo que hemos escrito de las precedentes: que un acontecimiento se adueña de él desde el exterior para asignarle su papel en la formación social soviética.

”Podemos afirmar que la sesión de 1948 consagra oficialmente el éxito de las teorías de Lysenko —despreciando todas las objeciones y aceptando todos los riesgos— únicamente porque ya no se trata entonces de Lysenko ni de sus teorías, sino de algo muy distinto que siempre se había practicado antes bajo formas parciales y que adquirió por fin en aquella época su forma general y sistemática: una ideología de Estado declarada, obligatoria, que impone a todos los intelectuales la versión Staliniana del materialismo dialéctico bajo la dominación del pretendido antagonismo de la ‘Ciencia burguesa’ y la ‘Ciencia proletaria’. Es pues un mecanismo de control.

”Observamos que esta ideología no es, hablando propiamente, una ideología de masas, dirigida a los sectores populares: es una ideología que apunta a una capa social definida, la de los intelectuales, existentes como capa social distinta, puesto que está socialmente diferenciada, no sólo por la distinción inmaculada, reforzada entre el trabajo manual y el trabajo intelectual, sino también por su condición y sus privilegios sociales y materiales. Podemos hacernos una idea de la composición de tal estrato social según lo que hemos podido observar en la ‘clientela’ de Lysenko en los años de 1930-1940: no comprende únicamente a los científicos, investigadores, trabajadores intelectuales de las diferentes disciplinas científicas y literarias, sino también a todos aquellos que se encargan de la intervención y aplicaciones de la ciencia en la producción; es decir, directores y cuadros de las unidades de producción industrial y agrícola, así como las de experimentación y máquina, a lo que debe añadirse evidentemente todos los cuadros del partido y los apartados del Estado que son Intelectuales.

”Esta ideología de Estado contempla pues que esa capa social tan importante que designa el término ruso de ‘Inteligencia’, donde se agrupan todos aquellos con responsabilidades económicas, sociales, políticas e ideológicas para la existencia del Estado Soviético; capa social (hubiera podido decirse clase social) que mantiene relaciones orgánicas con el Partido y el Estado, de donde extrae sus privilegios materiales y su poder; y sobre la cual se apoyan a su vez aquéllos para mantener su dominación infringida a la masa de obreros y campesinos.

”Pero es preciso ir más lejos, no basta con decir cómo esta ideología, ‘se dirige’ a esa capa social, o bien que la ‘contempla’: debe agregarse que se le impone según arroja una viva luz sobre uno de los aspectos más enigmáticos de la práctica staliniana.

”En 1948, so pretexto de la ‘guerra fría’ el partido y el gobierno anuncian que se ha desencadenado una lucha de clases de intensidad sin precedentes en la Unión Soviética y obligan a todos los intelectuales a seguir esta lucha hasta el triunfo total del punto de vista proletario en todas las ramas del saber y de la cultura.

”Lucha de clases: doce años después de haber proclamado, a partir de 1936, e inscrito en la propia Constitución de la URSS, que la lucha de clases… había desaparecido.

”De tal contradicción —a saber, que la lucha de clases ha desaparecido en la URSS, pero que debe desencadenarse entre los intelectuales— me parece que no puede extraerse más que esta conclusión: hay lucha de clases (y las deportaciones, los encarcelamientos y las masacres son prueba de ello, sin hablar de dificultades ‘económicas’ que surgen una y otra vez) y para acabar con ella se decide que tenga lugar entre los intelectuales, a cuyo terreno habrá de conducirla hasta el final, por todos los medios. Tras esta operación es fácil discernir a un tiempo el completo escamoteo de la lucha de clases real y su transposición a una capa social delimitada, la de los ‘intelectuales’.

”Ideología de chantaje, de intimidación y finalmente de represión, tal es el terrible efecto práctico de esta fórmula generalizada: ‘dos ciencias’ que imitan la lucha de clases para hacer imperar mejor la represión y, por medio de ésta, movilizar a los ‘intelectuales’ al servicio de la dominación del Estado sobre las masas populares; tal es también el núcleo del sistema ideológico del Estado que se adueña del lysenkismo en 1948 para imponerlo, con los fastos académicos que conocemos, al conjunto de los intelectuales”.

Esta concepción, reformula el planteamiento del autor en 1974, lo enriquece, le da coherencia y se constituye como una explicación netamente marxista del problema del lysenkismo en la Unión Soviética.

 
Tras las huellas dejadas por la revolución socialista y la Segunda Guerra Mundial, la URSS se planteaba la reconstrucción de una economía devastada.

A este respecto cabe añadir, como dice Louis Althusser en el prólogo de este libro, que:

”Siendo como es político el tratamiento de cualquier error y a su manera el índice de la política adoptada, por fuerza ha de concluirse que, dejando tal como está la versión dominante del materialismo dialéctico, se sigue una línea y unas prácticas que no manifiestan ‘necesidad’ alguna de analizar las causas del error que se pretende haber ‘rectificado’. De esta forma se ha ‘rectificado’ en cuanto a Lysenko. Aparentemente de modo casual, no se ha tocado la versión dominante de la filosofía marxista: es que se necesitaban sus servicios.

 
I. V. Michurin, maestro de Lysenko consideraba básico el papel del ambiente, la educación adecuada y dirigida de los híbridos.

”La historia de Lysenko ha terminado. La historia de las causas del lysenkismo prosigue.

“Historia terminada. ¿Historia interminable?”

De toda esta larga repetición de las tesis de Lecourt que, a mi juicio, resultan fundamentales para la comprensión de este problema, es claro que la cuestión de Lysenko en el terreno del conocimiento de las relaciones entre ideología y práctica científica es de gran importancia. Más esto es sólo un punto del problema del lysenkismo y su interés; aún hay otros aspectos importantes que cabe buscar en relación a esta historia. Este aspecto en el que —vía Lecourt— he enfatizado, es el importante tanto para el estudioso del papel de la ideología y el historiador de la ciencia, como para el marxista. Sin embargo, creo que la cuestión del lysenkismo lleva a más en lo teórico; lleva a cuestionar el estatuto epistemológico de la injerencia de “juicios de valor” en el seno y en la constitución de sus teorías, porque si bien es cierto que en el caso de Lysenko la intromisión de elementos externos en la ciencia se dio en forma abrupta y con la clara intervención de los aparatos de poder, esto no incluye que en la ciencia de occidente hoy la intromisión de ideologías y de intereses de Estado y Poder se dé en forma más sutil, por el cauce de lo que Althusser ha llamado “filosofía espontánea de los científicos” (FEC)* y a la vez, como parte del mecanismo general de la construcción de la ideología (como conciencia invertida de los real11 de un sujeto que, en este caso, aparece como ‘un científico’ pero que se encuentra sumergido en condiciones históricas concretas que —en la “producción social de su existencia”— hacen, de manera material y objetiva, la génesis del conjunto de sus representaciones de la realidad. Sin hablar, además, del papel de la validación de un paradigma por la comunidad científica de la época, como criterio fundamental de certificidad, puesto que, como T. H. Kuhn ha planteado:4

“El conocimiento científico, como lenguaje, es intrínsecamente la propiedad común de un grupo o ninguna otra cosa en lo absoluto. Para comprenderlo, necesitamos conocer las características especiales de los grupos que lo crean y lo usan”.

Ahora, de acuerdo con ello, por qué no ver el caso Lysenko como una monstruosa magnificación de este mecanismo general. Y aceptando esta posición, retomar (con todas las reservas que amerita) la afirmación de Lewontin y Levins12 que dicen:

“En tanto que pueden encontrarse cosechas particulares y situaciones donde las doctrinas lysenkistas propusieron la solución de algunos problemas específicos (la crianza para reforzar la resistencia a las enfermedades, por ejemplo) no existe evidencia de que la agricultura soviética fuera dañada de hecho”. Por lo que la ciencia en la URSS, bajo el lysenkismo caminó (aunque no la genética) y su atrocidad más que evaluarse en este campo (el del retraso científico y agrícola) debe hacerse en el de sus alcances ideológicos, guardándose, claro está, de utilizar esto como justificación del lysenkismo, ni conducirse como dichos autores lo hacen al plantear que: “La fuerza del movimiento lysenkista y su fracaso pueden encontrarse en sus orígenes mismos: el marco de referencia a la filosofía marxista, que abrió posibilidades atractivas y la opresión administrativa que impidió su ejecución creativa y, respaldando esta situación, la brecha social existente entre la Unión Soviética rural y la urbana. Ello produjo una bifurcación del marxismo en una filosofía dogmática, compleja, enredada, sustentada por los profesionales académicos marxistas y el folklorismo marxista ingenio, simplista, de sentido común y algunas veces antintelectual de los innovadores lysenkistas”.

 
Darwin utiliza como instrumento teórico la teoría malthusiana que pasa a formar parte de la teoría de la evolución.

Donde se dicen las cosas, en forma tan “suave” que se escamotea la cuestión de la lucha de clases en la URSS, dejando sin considerar el fenómeno objetico de construcción de una ideología de Estado que trata de fundamentarse en una filosofía que a su vez trata de basarse en la ciencia natural (y así constituirse en una “filosofía natural”, al estilo de la Escolástica tomista en el medioevo, que también coincide con la versión ontológica del Materialismo Dialéctico, según sus validaciones en función de los “natural” y por tanto Universal) y sin ver este caso como un problema no académico, sino político, más no único en el mundo en lo que a su engranaje interno se refiere (aunque sí en sus dimensiones).

Evaluar, pues, el caso de Lysenko en sus justos términos, parece después de todo útil. Si bien no fue el acontecimiento responsable de los fracasos agrícolas de la URSS, ni del estancamiento de la Ciencia en general —más sí de una importante disciplina (la genética)—, fue realmente el proceso constructivo de una ideología de terror e intimidación, con una clara ideologización de la actividad científica, que permite ilustrar, en forma clara, la incursión de un discurso extracientífico en la práctica científica. Por otro lado, en el terreno de la Biología, esclarecer esto conduce a disociar el mitificado par Lamarck-Lysenko, puesto que, como se mostró, la teoría evolutiva de Lamarck poco tiene que ver con la construcción del lysenkismo como fenómeno histórico y político. El lysenkismo no es lamarckismo, ya que Lysenko no sólo parte de una lectura errónea de Darwin, sino también de Lamarck, ya que no reconoce el elemento fundamental en su pensamiento —que es la idea de la tendencia intrínseca a la perfección (que conduce a la formulación de la Ley del uso y del desuso) y no la idea de herencia de caracteres adquiridos que era una noción más bien generalizada en el pensamiento de su época—, lo que se orientaría a librar al nombre de J. B. Monet de Lamarck del estigma de ser asociado con nociones aberrantes y a no mezclar la cuestión de la herencia de caracteres adquiridos con una cuestión política, como lo fue el lysenkismo, cuestionando uno de los prejuicios más firmes en la ciencia contemporánea.

 
La agricultura era el campo en el que Lysenko buscaba la posibilidad de ampliar la producción en la URSS.

 

* Vernalización —adquisición o aceleración de la capacidad de florecer con empleo de un tratamiento con frío.2

* De acuerdo a la noción de T. H. Kuhn.4 A mi manera de ver, en el inicio del lisenkismo no se ha constituido un verdadero paradigma en el caso de la Ciencia Genética, como muestra la polémica en occidente en relación a la naturaleza del material hereditario. No obstante, en el transcurso de la polémica lisenkista la genética sí se constituye como una verdadera ciencia en occidente y el lisenkismo se mantiene fuera de esa realidad por muchos años, incluso ignorando la importancia en relación al descubrimiento del papel y de la estructura de las moléculas ácido nucleicas en la transmisión de los caracteres hereditarios.

* Según Althusser10 la FEC posee dos elementos contradictorios, uno de origen interno, surgido directamente de la práctica científica: intracientífica y materialista, y un segundo elemento extracientífico e idealista. De este forma, en FEC, se encontrarían inmersas sus ideas que afectan la idea que los científicos se hacen de su práctica científica y de la ciencia en general.

 
 articulos
 
 
     
Referencias bibliográficas
 
1. Devlin, R. M., Fisiología Vegetal, Ed. Omega, Barcelona, p. 461, 1980.
2. Choard, P., Ann. Rev. Plant Physiol., 11:191, 1960.
3. Salisbury, F. B. y Ross, C. W., Plant Physiology, Wadworth Publishing, Co., Belmont, p. 318, 1978.
4. Kuhn, T. H., La Estructura de las Revoluciones Científicas, FCE, México, p. 319, 1975.
5. Castañeda, M., Antología de la Biología Molecular, UNAM, México, pp. 243-246, 1973.
6. Robert, M., Naturaleza, 13 (1):38­46, 1982.
7. Taylor, R. B., Nature, Vol. 286, pp. 837-838, 1980.
8. Lecourt, D., Lysenko: Historia real de una “Ciencia Proletaria”, Ed. LAIA, Barcelona, pp. 5-14, 124-138, 1978.
9. Lecourt, D., “El Caso Lysenko”, Anagrama, Barcelona, pp. 9-32, 1974.
10. Althusser, L., La concepción del Mundo de J. Monod, Ed. Anagrama, Barcelona, pp. 44-51, 1972.
11. Marx, C., y F. Engels, La Ideología Alemana, Ediciones de Cultura Popular, México,
12. Lewontin, R. y R. Levins, “El problema del lysenkismo” en: Rose H. y Rose S. La radicalización de la ciencia, Ed. Nueva Imagen, México, pp. 75-116, 1980.

     
       
____________________________________________________________
     

Ismael Ledesma
Biólogo, Profesor de Biología general II ENEP Iztacala, UNAM.

como citar este artículo

     
del herbario        
 
  menu2
PDF
            R09B4
La abejas yucatecas

 
Jaime Jiménez R. 
   
   
     
                     

Las abejas yucatecas

Existen varias especies de abejas productoras de miel, pero la abeja europea Apis mellifera es mundialmente aprovechada y conocida. La mayor parte de la miel que se consume en el mundo la produce dicha especie.

Es prácticamente desconocido (en medios urbanos) que existen varias especies mexicanas de abejas, y menos aún que en Yucatán se manejan abejas sin aguijón de la especie Melipona beechii.

Los pueblos mayas explotaron a sus abejas intensamente para endulzar alimentos y elaborar las bebidas sagradas “balché” y “zaca”. Su importancia fue tanta que se daba como tributo a los pueblos y a sus jefes; ellos la utilizaban como mercancía para el comercio con las tierras altas.

Durante la Colonia, los españoles no cambiaron las técnicas tradicionales, pero sí la exigían como tributo a los mayas. Parte de la producción la consumía el clero para sí mismo y otra la exportaba a Europa.

Hasta fines del siglo XIX y principios del XX, la abeja europea empieza a substituir a la nativa, debido a su mayor resistencia y productividad. Sin embargo, la calidad de la miel de la abeja yucateca es superior y tiene usos medicinales.

Debido a las ventajas comerciales de la abeja europea, la “cole cob” dama o virgen de la miel es menos explotada, víctima de la economía moderna.

Resumido de: Roldán, R. L. A., 1985,

Flora melífera de la zona de Tixcacaltuyub, Yucatán, tesis de la Facultad de Ciencias, UNAM.

  articulos  
       
_____________________________________________________________
     
Jaime Jiménez R.      
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

nota        
 
  menu2
PDF
            R09B02
Las historias naturales de los magueyes
 
Luis Eguiarte y Carlos Matnínez del Río 
   
   
     
                     

Algunas personas pensamos que lo pequeño es hermoso, los magueyes piensan lo contrario. Los magueyes o agaves (género Agave) hacen todo en grande y muy especialmente florecen en grande. Un maguey crece durante mucho tiempo y una vez que ha alcanzado un tamaño adecuado produce una enorme inflorescencia. Poco después de este espectacular evento reproductivo el maguey muere. Los biólogos llaman a aquellas plantas que mueren después de una única reproducción monocárpicas o semélparas; el agave es un ejemplo. El maguey pulquero es un agave típico; vive alrededor de 20 años, al final de los cuales genera una inflorescencia de hasta 6 metros conteniendo miles de flores y tal conjunto produce muchos litros de néctar. No es sorprendente que esta planta fenezca al término de su unigénita floración…

Aparentemente la razón de tan extraño comportamiento reproductivo se debe a la selección que los polinizadores de esta planta han ejercido sobre ella. Las inflorescencias son estructuras que, además de sostener a las flores, sirven para atraer a los polinizadores, los cuales son animales que actúan como los “penes volantes” de las plantas, transportando el polen de las anteras de una planta a los estigmas de otras. Puesto que los servicios de los polinizadores no son gratuitos, las plantas ofrecen una variedad de recompensas para atraerlos; las más comunes están representadas por el néctar y el polen.

Los magueyes son polinizados por murciélagos cuyos requerimientos energéticos son muy altos y por tanto sólo visitan flores que contengan altas densidades y que además contengan mucho néctar y polen. En una planta como el agave las inflorescencias proveen de flores muy ricas y a altas densidades. Pare ello los especímenes vegetales almacenan energía durante largo tiempo y así, en un único (y mortal) evento reproductivo, producir la inflorescencia más grande posible. Es concebible que en el pasado los murciélagos hayan visitado a aquellas plantas cuyas flores eran ricas en néctar y polen y sus inflorescencias eran más grandes y, por lo tanto, más atractivas y ricas que las demás. Estas plantas producían más semillas y dejaban más descendientes; de esta manera sus características pueden haber llegado a prevalecer en las poblaciones de las distintas especies de magueyes.

Durante esta larga interacción evolutiva no sólo se han modificado las plantas; los murciélagos también han sufrido cambios morfológicos, fisiológicos y conductuales que los hacen más eficientes para explotar el néctar y polen que las plantas ofrecen. El cráneo de los murciélagos nectarívoros tiene un rostro sumamente alargado que alberga una lengua modificada, cuyo aguzamiento la hace apta para extraer néctar. Entre los mamíferos, los murciélagos que consumen néctar son los únicos capaces de revolotear (es decir de volar en un solo sentido, como los colibríes), lo cual les permite visitar flores en vuelo; por último, el hábito de buscar flores ha modificado la conducta de forrajeo; algunas especies se acercan en grandes grupos a las inflorescencias de maguey, efectuando frecuentes descansos durante los cuales reposan juntos removiéndose los unos a los otros el polen que se ha adherido a sus pieles. Este polen juega un papel sumamente importante en la nutrición de estos animales y las agrupaciones de descanso también facilitan la regulación de la temperatura al reducir el área expuesta de cada murciélago al aire —a veces frío— de la noche.

La mayor parte de las 140 especies de Agave existentes en México son polinizadas por murciélagos, pero aquí solamente hay especies de murciélagos que se alimentan de flores; entre éstas, las dos más importantes para los agaves pertenecen al género Leptonycteris. Una especie de este género, L. sanborni, realiza una migración de invierno al suroeste de los Estados Unidos; por razones que aún no son del todo claras, las densidades de murciélagos que llegaban a los Estados Unidos han disminuido drásticamente en los últimos años afectando dramáticamente a las plantas que polinizaban y especialmente a los magueyes. Estas plantas han sufrido una reducción en la cantidad y la calidad de las semillas producidas, y por lo tanto en el reclutamiento de nuevas plantas a las poblaciones. En México las poblaciones de Leptonycteris parecen no haber disminuido, quizá debido a que en el país aún existen extensas poblaciones de maguey. Es, sin embargo, necesario mencionar que la explotación irracional de las poblaciones silvestres de agave puede acarrear consecuencias muy graves para los murciélagos que dependen de ellas.

Una enorme estructura floral que produce grandes cantidades de néctar y polen resulta atractiva no solamente para los murciélagos; también a muchos otros animales, quienes usan de un modo oportunista la fuente de carbohidratos, proteínas y agua que representan las inflorescencias de maguey. Durante el día, abejorros, abejas y abejas carpinteras remueven el polen, y son tan eficientes en su labor que generalmente todo el polen producido en una noche es removido en sólo un par de horas de actividad. Varias especies de pájaros visitan las flores en busca de néctar; es común observar colibríes, calandrias y pájaros carpinteros revoloteando frente a las flores o perchando en el centro de un “bosque” de anteras y estigmas, con los picos brillantes de néctar. De noche, además de los murciélagos, mariposas nocturnas de diversas especies sobrevuelan alrededor de las flores.

Las visitas de todos estos animales no son del todo ventajosas para las plantas. Las abejas por ejemplo, al remover el polen reducen la eficacia de las aves como polinizadoras, y actúan como parásitos en el sistema. Muchas de las mariposas nocturnas tienen proboscis muy largas que les permiten tomar el néctar de las flores sin tocar las partes reproductivas. Aquellos organismos que usan los recursos que las flores ofrecen sin polinizar son llamados ladrones de polen o néctar.

Muchos magueyes de interés comercial como el maguey pulquero (Agave salmiana), el maguey tequilero (Agave tequilana) y las muchas otras especies usadas para producir mezcal y otros productos, dependen de los murciélagos. La polinización que éstos efectúan, mantiene a las poblaciones ricas en diversidad genética, posibilitando el mecanismo de la selección natural, y en el caso de las especies usadas por el hombre, crea las condiciones para realizar una selección artificial.

En conclusión, para los naturalistas, biólogos y otros bichos, el sistema agave­murciélagos-visitantes es un ejemplo fascinante de la evolución recíproca entre una planta y los animales que la utilizan. Este sistema ilustra una gran variedad de problemas biológicos que van desde la genética y la morfología funcional hasta la ecología de comunidades. Las inflorescencias de maguey no son solamente una de las características sobresalientes del altiplano mexicano, como lo demuestra la pintura de Velasco y los grabados de Egerton, constituyen del misma modo una fuente de recursos para muchos animales y una muestra ilustrativa de los resultados de la evolución.

  articulos  
       
_____________________________________________________________
     

Luis Eguiarte y Carlos Martínez del Río

Instituto de Biología, UNAM.
Department of Zoology, University of Florida, USA.

     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

 

 

problemas y acertijos        
 
  menu2
PDF
             
Problemas y acertijos
 
 
   
   
     
                     
 
1. Esto sucedió en Magdeburgo, una antigua villa alemana. En el año de 1657 Otto Von Guericke encargó la fabricación de dos semiesferas de cobre. Cuando estuvieron terminadas formó con ellas una esfera y extrajo el aire contenido en su interior. Luego, en una exhibición pública, dos grupos de caballos tirando en direcciones opuestas trataron de separar las semiesferas pero no lo lograron. ¿Qué extraña fuerza —superior a la tracción de los caballos— impidió la separación de estas semiesferas.

 

 2. José vende naranjas en el mercado a dos por 10 pesos. En otro puesto, Juan las vende a tres por 10 pesos. Cierto día deciden juntar los puestos y vender las naranja, lógicamente, a cinco por 20 pesos. Al empezar la jornada cada uno tiene 30 naranjas. Al terminas la mercancía han obtenido un total de $240.00; sin embargo, si las hubieran vendido por separado, la cantidad de dinero sería $250.00 ¿Por qué la diferencia?                                                                                                                                                                                                                                                                                                                                                                                                                                                               

 

  4. Tome una hoja de papel bond. Córtela por la mitad y encime los dos pedazos. Luego corte a la mitad los dos pedazos y encime los cuatro resultantes. Si esta operación se repite 50 veces, ¿qué altura tendrá la pila de papel? 
3. Sembramos una semilla en una rueda colocada en posición horizontal. Hagamos girar rápidamente la rueda hasta que germine la semilla. ¿Hacia dónde estará dirigido el tallo de la planta?   

 

5. Un caballo y un mulo caminaban juntos llevando sobre sus lomos pesados sacos. Lamentábase el jamelgo de su enojosa carga, a lo que el mulo le dijo: “de qué te quejas? Si yo te tomara un saco mi carga sería el doble de la tuya. En cambio, si te doy un saco, tu carga igualaría la mía”. Decid, sabios científicos ¿cuántos sacos llevaba el caballo y cuántos el mulo?

 

6. Uno de los párrafos del texto de Blaise Pascal titulado Nuevos experimentos concernientes al vació es el siguiente: “Si se llena de agua, o mejor de vino muy rojo —para que sea más visible— un tubo de 46 pies, uno de cuyos extremos está abierto y el otro cerrado herméticamente, y luego se tapona y se levanta en esta situación, se pone perpendicularmente al horizonte, se coloca la boca hacia abajo en un recipiente lleno de agua y se hunde dentro aproximadamente un pie; si destapa la boca, el vino del tubo baja hasta una cierta altura que es de aproximadamente 32 pies desde la superficie del agua del vaso…”. Estimados lectores: ¿por qué el vino desciende totalmente? O ¿por qué solo desciende 13 pies?                                                                                                                                                                                                                                                                                                                                                                                                                            

 

Pregunta sorpresa: Rodolfo tiene cinco manzanas en una canasta: debe repartirlas entre cinco niños. ¿Qué tiene que hacer para entregar una manzana a cada niño y al final quede una manzana en la canasta?                                                                                                                                                                                     

 

RESPUESTAS AL NUMERO ANTERIOR

 

1. “A un herrero le trajeron…”
La respuesta es positiva. Para lograrlo es preciso abrir los tres eslabones de uno de los trozos de cadena y unir con ellos los extremos de los cuatro trozos restantes.

 

2. “En la figura está dibujada…”
Tomemos un triángulo rectángulo con dos lados iguales. Construyamos tres semicírculos, cuyos diámetros sean iguales a los dos lados del triángulo. Por el teorema de Pitágoras, resulta que el área del semicírculo mayor es igual a la suma de las áreas de los otros dos semicírculos. Ahora, hagamos girar 180° al semicírculo mayor alrededor de la hipotenusa. Con este procedimiento obtenemos 2 “medias” lunas, cada una con área igual a la mitad del triángulo. Hemos construido un triángulo de área el doble de una media luna. Los demás pasos son inmediatos. Podemos obtener fácilmente un cuadrado a partir de la mitad del triángulo. Luego, del cuadrado es posible obtener otros cinco más pequeños. Finalmente, las juntamos de manera adecuada para tener el símbolo de la Cruz Roja.

 

3. “Un habitante de tierras lejanas…”
Para que el cuerpo humano pueda flotar en un líquido es necesario que su densidad sea menor a la del fluido. Esta condición puede encontrarse en algunos lagos salados de Asia Central, entre ellos, el Mar Muerto.

 
4. “Cuántas veces es más pesado…”
Si todas las proporciones se mantienen, una duplicación en la altura implica también un aumento correspondiente en las otros dos dimensiones. Entonces, el peso del gigante será 23 = 8 veces mayor que el de dicho enano.
6. “¿Cómo se puede expresar…”
Hay varias formas de hacerlo. Aquí damos dos:
148 / 296 + 35 / 70
123 789 4650
5. “Tomemos un reloj que tenga…”
Un reloj consta de 60 divisiones. Designemos por x el número de divisiones recorridas por la manecilla horario a partir de las 12. En ese momento la hora será (x / 5) = n + f donde n es un entero entre 0 y 11 y f es una fracción. Dicha fracción es igual a y / 60, y es el número de marcas recorridas por el minutero. Llegamos entonces a la ecuación (x / 5) – (y / 60) = n. Si cambiamos horario y minutero de tal forma que la permuta dé un resultado verosímil, deberá cumplirse una ecuación similar a la de arriba.
(y / 5) – (x / 60) = m
En total hay 143 soluciones posibles.
7. “Esto sucedió en 1923…”
Juan nació en el siglo XX. La suma de la edad de Juan más las dos últimas cifras del año de nacimiento es igual a 32. Por lo tanto, Juan tiene 16 años. El abuelo nació en el siglo XIX. Por un argumento similar —salvo que la suma es 132— su edad es 56 años.

 

  articulos  
       
_____________________________________________________________
     
       
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

 

You are here: Inicio Búsqueda Titulo revistas revista ciencias 9