revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R20Articulo4   menu2
PDF→                                                                
   
   
Héctor Castillo Berthier
     
               
               

El hombre hundió su bieldo y resopló. Levanto la vista y satisfecho pensó para si mismo “es más que suficiente”, juntó el papel, el vidrio, las botellas, el fierro, los envases plásticos, el hueso, separó los alimentos que encontró, y junto con su familia cargaron todo para vendérselo a sus patrones. Un día más terminaba en el tiradero de basura, una comida más con lo que se había encontrado para él y para sus animales, algo de dinero para sobrevivir y emborracharse. Un día más en espera de la siguiente jornada.   

Esta imagen, que tiene como marco una extensa superficie de varias hectáreas, rodeadas por montañas de basura, con cientos de puercos, vacas y burros comiendo entre los desperdicios, con buitres y zopilotes peleándose por la carroña de un perro muerto, con niños jugando con una pelota desinflada o con pedazos de juguetes rotos y viejos, con los miles de enjambres de moscas zumbonas que se estrellan en las caras de la gente, y el olor, ese olor a mierda podrida que se produce con el sol de mediodía, no es un cuadro imaginario, es un retrato actual, común en los tiraderos a cielo abierto que hay por todo el Tercer Mundo.

Los hombres de la basura tienen distintos nombres: Packs y Teugs1 (estos últimos pertenecientes a una casta social) en Dakar, Wahis y Zabbaleen2 en El Cairo; Gallinazos3 en Colombia; Scavengers o Garbage Pickers4 en países de habla inglesa; Pepenadores o Resoqueadores en México; en fin, nombres distintos que señalan una misma actividad: vivir de la basura.             

Los estudios sobre el rescate y reciclaje de materiales provenientes de la basura se han venido realizando desde hace varios decenios. Destacan entre los primeros estudios, el de una zona industrial en Akron, Ohio, que analiza brevemente la recuperación de materiales, los sistemas públicos de recolección, el uso de los presidiarios como fuerza de trabajo para la selección de materiales, la comercialización de estos materiales, etcétera5; También, el Manual de Programas de Reciclaje de la Comunidad6 permite trazar históricamente las raíces del reciclaje de basura en los Estados Unidos de 1890 a 1945, presentando diversos momentos, entre los que destaca un análisis de la ciudad de Nueva York, que, bajo la dirección de George Waring, a principios de 1890, creó un programa de recuperación de materiales, de limpieza de las calles y de mejoramiento de la salud pública, reduciendo los costos de administración en el manejo de los desechos sólidos, el cual fue ampliamente copiado en otras ciudades norteamericanas.

Así existen hasta mediados de este siglo varios estudios “aislados”, sin embargo, puede afirmarse que no fue sino hasta finales de los cincuenta, cuando el tema empezó a cobrar una importancia definitiva en los países desarrollados. Los estudios y reportes preparados por algunos especialistas (Gotaas, 1956; Andrews, 1959, 1957; IES, 1959), dan cuenta de ello, pero de hecho el verdadero “arranque mundial” de los estudios sobre la problemática que se desprende de la basura, se da a principios de los setenta, comenzando a ver también la situación de países no industrializados como Tailandia, Sri Lanka, Senegal, Egipto, Taiwán, Perú, China y Colombia entre otros.7

Debe resaltarse que en el caso de los países desarrollados, la tendencia general de los estudios estaba enfocada al desarrollo de tecnología, tanto para la recolección, transportación y destino final de los desechos, como para su recuperación, procesamiento e industrialización. Destaca el hecho de que en el caso de haber encontrado “pepenadores de basura” en alguna de las ciudades analizadas, la recomendación general era la de “excluirlos de los procesos de recuperación”8 para que éstos fueran lo más mecánicos posibles. Y esto, a pesar de tener el voto aprobatorio de las Naciones Unidas, merece, una nueva reconsideración al analizar los casos de los países del Tercer Mundo, ya que sus realidades respectivas presentan un enorme contraste, que parece ser insalvable entre lo que es la mecanización total de los sistemas y el uso extensivo de mano de obra en los tiraderos de basura, los cuales se encuentran encaminados al mismo fin de reaprovechar los desechos de la sociedad moderna.

Ahora bien, no todos los estudios realizados se refieren exclusivamente a la “tecnologización” del reciclaje o de la recolección. Hay, sobre todo en los estudios de caso de países tercermundistas, referencias directas a la función y formas de organizarse de los “pepenadores”, sus tipos de trabajo, sus condiciones de vida, sus ingresos y la interrelación social que guardan respecto a otros grupos.

En las partes analíticas de estos trabajos, se encuentran frecuentemente referencias al “sector informal”, a la “marginalidad”, a la “independencia en el trabajo” o a la “baja productividad” en el rescate manual de los productos, por no mencionar la “dualidad” de las economías de estos países, de lo cual resulta que sus propuestas estén más orientadas a proponer una modernización de estos sistemas, que de paso permita la venta de la tecnología que se produce en los países desarrollados (incineradores, plantas de compostaje, fundidoras de metales, etc.).

De esta forma tenemos, por un lado, un avance tecnológico en el manejo de la basura que aspira a tener ciudades limpias, con una reutilización máxima de los desechos y la implantación de una conciencia ecológica comunitaria. Por otro, el Tercer Mundo, con sus enormes tiraderos a cielo abierto, con cientos de miles de familias viviendo en y de los desperdicios, contaminando el ambiente, generando más pobreza y marginación conforme pasa cada día y, por si esto fuera poco, reduciendo sus espacios para afrontar el problema de sus desechos que pasan a un segundo o tercer plano con el avance de la crisis económica.

Pese a esto, un reduccionismo maniqueísta que ubicara al Primer Mundo como un mundo de “maravillas tecnológicas” y a los subdesarrollados como “el límite de la civilización”, sería falso. Ni todo está tan bien en unos, ni todo es tan malo en los otros. Recordemos el caso más o menos reciente de las barcazas repletas de basura provenientes de la ciudad de Nueva York (“el corazón del Imperio” como le llaman algunos), que navegaron infructuosamente durante varias semanas en la búsqueda de un “tiradero” donde poder vaciar sus desperdicios, que ningún país quería aceptar en su territorio. O bien, en el otro extremo, los contaminantes y malolientes tiraderos de basura a cielo abierto que se multiplican en el Tercer Mundo, pero que generan empleos y formas de sobrevivencia para miles de personas que normalmente no tienen acceso a otra forma de vida. ¿Qué quiere decir esto?

Es pertinente plantear que la tecnología, en si misma, no puede ser concebida como una panacea milagrosa que resuelva problemas como éste, sobre todo si de antemano se intuye la multiplicidad de relaciones sociales que pueden darse entre los diversos grupos humanos participantes de una misma actividad.

Con objeto de mostrar un ejemplo de lo intrincadas que pueden llegar a ser las relaciones sociales que se desprenden del manejo y disposición de los desechos en un país del Tercer Mundo, se ha escogido el caso de la ciudad de México, para ser comentado, aunque sea en forma esquemática. No se trata de minimizar la importancia de otros casos excesivos como lo serían el sistema de castas que existe en los tiraderos de Dakar, Senegal, o de los rudimentarios extremos de pobreza que se dan en El Cairo, Egipto, en donde todavía los sistemas de recolección se realizan en carros de madera, tirados por mulas, y en donde los “zabbaleens”, aparte de reciclar desperdicios, son criadores de puercos que se alimentan de los desechos, o bien del tiradero de Cali, Colombia, en donde los “gallinazos” trabajan cada uno en forma independiente, pero defendiendo en forma colectiva su derecho a vivir de la basura. En esta perspectiva, la ciudad de México se nos presenta como un enorme “laboratorio social”, en donde coexisten al mismo tiempo una humillante opulencia, cargada de recursos y bienes y frente a barrios miserables sin agua ni servicios, empotrados en cuevas y casas de cartón; en donde hay una abrumadora existencia de corrupción pública y privada en todos los estratos sociales; en donde una deficiente planeación urbana, ha traído como consecuencia el permanente ensanchamiento de innumerables “cinturones de miseria” en la zona metropolitana de la ciudad que, además de su crecimiento natural, recibe cotidianamente a los recién llegados migrantes de las zonas rurales, etc.

LA CIUDAD 

La ciudad de México puede ser vista como una sola unidad: 19 millones de habitantes, asentados sobre una superficie de poco más de tres mil kilómetros cuadrados, de los cuales, alrededor de mil 115 km2 corresponden a la llamada área urbana.9 Sin embargo, tanto para las autoridades de la capital mexicana, como para los estudiosos de la problemática urbana, esta “unidad” se encuentra dividida en dos partes: el Distrito Federal (1500 km2) y la zona metropolitana (1728 km2) conformada por 16 municipios conurbados del Estado de México. En cada una de las dos partes se encuentra aproximadamente un 50 por ciento de la población (9.5 millones de personas).

A pesar de la diferenciación geográfica y estadística que se hace de la ciudad de México, ésta vive interconectada entre sí. Para la vida cotidiana no hay fronteras que valgan, sin embargo hay contrastes claros: el Distrito Federal, incluso con sus múltiples barrios bajos y “ciudades perdidas”, está mejor equipado y su infraestructura resulta apabullante frente a cualquier otra ciudad del país; en él se concentra el poder económico y político, el comercio, el empleo, la industria, y, “de hecho, el país vive a través de la ciudad”; como comentan algunos intelectuales. En el otro lado tenemos una Zona Metropolitana desigual, algunas áreas plenamente urbanizadas y modernas, “al estilo gringo” dirían algunos, otras son asentamientos irregulares, ciudades proletarias sobrepobladas, con carencias de servicios, calles sin pavimento, zonas enteras sin agua potable,10 delincuencia, hacinamiento, desnutrición, niños semidesnudos que deambulan entre las calles polvosas de un lago desecado que hoy es un desierto, telarañas de cables que buscan robarle algo de luz a la ciudad, eso es México.

Ahí, en donde las contradicciones de la modernidad y la marginación afloran a cada tramo, el problema de la basura se convierte en un asunto sin solución, que de tan cotidiano parece ser ya parte del paisaje: “un mal necesario”.

Se estima que cada habitante de la ciudad de México desecha diariamente en promedio un kilogramo de basura, lo que viene a ser 19 mil toneladas diarias, que necesitan un espacio en donde ser depositadas. Para dar una idea de esto, los camiones recolectores cargan un promedio de tres toneladas por “viaje”, o sea que se necesitarían algo más de 6 mil trescientos viajes de camión, para recolectar la basura doméstica que genera la ciudad y su zona metropolitana.

Pero aun así el problema no es tan simple. Las diferencias entre el DF y la zona metropolitana (ZM) van más allá de la división geográfica o las estadísticas. En el DF, se emplea para la recolección equipo moderno: barredoras mecánicas, camiones compactadores, tráileres, camiones tabulares de volteo, etcétera, alrededor de dos mil unidades de recolección de las que, según reportes oficiales, un promedio del 35 al 40 por ciento, se encuentra sistemáticamente en los talleres mecánicos para su reparación; en cambio, en la zona metropolitana, las posibilidades para la recolección abarcan desde un perfeccionado sistema de “conteiners” (Cd. Satélite) hasta los tradicionales carros de madera tirados por mulas (Cd. Nezahualcóyotl).      

Para la ZM no hay datos globales sobre el empleo de los recolectores, sin embargo, en el DF se calcula que cerca de 15 mil trabajadores participan en esta recolección (choferes, barrenderos, ayudantes, macheteros y voluntarios), de los cuales 11 mil son empleados del municipio, con un salario promedio diario de 39000.00 pesos (3.5 dls./día), y los cuatro mil restantes (voluntarios), no cobran ningún salario y obtienen sus ingresos del “trabajo de separación de materiales que efectúan arriba del camión, lo cual se detallará más adelante; para los municipios conurbados, simplemente no hay información al respecto.      

En fin, podrían irse encontrando cada vez más y mayores diferencias y particularidades en cada uno de estos “mundos” que conforman la ciudad de México, aunque su simple revisión caería sencillamente en un análisis empirista, descriptivo del fenómeno, sin un significado concreto. No es fácil pensar que existan “hechos puros, independientes de un sistema conceptual que los consigne”,11 pero también es necesario recordar que la teoría sólo se construye con un conocimiento profundo de lo real.

De los procesos sociales, políticos y económicos, que giran alrededor de los desechos en un país como México, se han seleccionado algunas funciones y formas de interacción social que corresponden no sólo al DF y la zona metropolitana de la ciudad, sino incluso a muchas otras ciudades de México y que definen claramente a la “sociedad de la basura”.

DE LA BOLSA DE BASURA AL TIRADERO

Para el ciudadano común y corriente la basura empieza cuando encuentra que algo ya no le es útil, y termina cuando deposita ese “algo” en una bolsa de plástico y lo saca de su casa. Sacar la basura parece algo sencillo: puede dejarla en la calle, arrojarla a un terreno baldío, entregarla a un camión recolector o dársela directamente al barrendero que limpia su calle, el que, por una módica compensación económica, pasará regularmente a fin de que al ciudadano no se le acumulen los desechos.

Una vez que el barrendero ha pasado a muchas casas y ha llenado su “carrito de basura” (que son dos “tambos” de 200 lts. cada uno, sobre una base metálica con ruedas), se dirige a donde se encuentra el camión recolector de su zona para vaciar en él el contenido de su carrito.

El chofer del camión, sabiendo que el barrendero ha recibido “gratificaciones” de los vecinos por llevarse la basura, le pedirá al barrendero también, una parte de la gratificación para dejarlo que tire su basura en el camión y para que, de esa forma, vaya a recoger más basura y más gratificaciones.

Cuando les pregunté a los barrenderos y choferes qué opinaban de esto, me dijeron simplemente: “esa es nuestra costumbre”.   

En el camión de basura van normalmente el chofer y dos ayudantes que se conocen como “macheteros”, los tres pagados por el municipio. Estos últimos ayudan a vaciar los botes de basura al interior de los camiones, sin embargo, además de los macheteros siempre van dos o tres jóvenes más que se conocen como “voluntarios”, debido a que no reciben ninguna paga específica y a que su labor es totalmente libre y voluntaria.   

Entre los macheteros y los voluntarios van recibiendo la basura de las casas que hay en su ruta de recolección. Durante el transcurso de “un viaje” (en lo que se llena el camión), van separando: botellas, alimentos, muebles viejos, trebejos, fierro, cartón, papel, hueso, plástico, etc., que venderán después en uno de los más de dos mil negocios de “compra de desechos industriales” que hay en la ciudad de México.      

Cuando el camión termina su “viaje” lleva ya clasificada (“pepenada”) una parte de la basura y el dinero que sale de esta labor, se reparte en partes proporcionales entre el chofer, los macheteros y los voluntarios.

Dado que en las rutas de los camiones no sólo hay casas habitación sino también distintos tipos de comercios y pequeñas industrias se da origen a un negocio aparte conocido como “las fincas”. Decir “voy a finquear”, o bien, “voy a visitar mis fincas”, equivale a decir “voy a recorrer los negocios y comercios que hay en mi ruta”. En estos establecimientos, los choferes de los camiones tienen acuerdos preestablecidos para pasar determinados días de la semana a recoger la basura de los distintos negocios (panaderías, tiendas de abarrotes, talleres mecánicos, carpinterías, restaurantes, hoteles, autoservicios, etc.), y cada uno paga una cuota que acuerda directamente con el chofer, quien se queda con la mayor parte de las ganancias y reparte un 25 o 30 por ciento entre los macheteros y, algunas veces, también entre los voluntarios.

Una vez que el camión recibió la basura de los barrenderos y la de las casas, que visitó sus fincas, que separó los materiales que venían en el viaje, que fue a venderlos y que repartió las ganancias de ese día, se dirige a una de las diez “estaciones de transferencia” que hay en la ciudad en donde se llenará un “tráiler”, con capacidad para recibir de 20 a 25 toneladas de basura, provenientes de 7 u 8 viajes de camiones mas pequeños.

En la estación de transferencia el chofer del tráiler exigirá una “cuota” a los choferes de los camiones que van a descargar en ese tráiler, sabiendo que de no hacerlo no podrán vaciar su camión para regresar a su ruta, sus fincas, etc. En la estación de transferencia también se le da una “repasada” a la basura que llega pero ese negocio ya es de los empleados de la estación que están normalmente dirigiendo las maniobras de entrada, descarga y salida de vehículos.

Cuando el tráiler está lleno sale de la estación de transferencia para dirigirse al tiradero a cielo abierto* que tenga asignado para depositar ahí los desperdicios.

DEL TIRADERO AL CONTROL POLÍTICO

El tráiler o camión llega al tiradero, pasa una caseta de entrada, en donde registra su número de viaje y se encamina hacia las zonas de disposición final.

Los tiraderos de basura se encuentran controlados por un pequeño grupo de “lideres” que explotan a los pepenadores, escudándose en grupos de tipo “sindical”; entre ellos destaca una organización surgida a principios de los sesenta y que se conoce como la Unión de Pepenadores de los Tiraderos de Basura del DF “La Unión”.

La Unión tiene divididos los tiraderos en diversos “tramos”, a cada uno de los cuales llega la basura de diferentes zonas de la ciudad. De esta forma, hay tramos con una basura “más rica” o “mejor”, proveniente de una zona económica más alta y también hay tramos a los que se lleva a alimentar a los puercos con basura provenientes de los mercados públicos, y así varios tipos de tramos.

Cada tramo está a cargo de un “cabo”, que a su vez tiene bajo su mando a un número determinado de familias de pepenadores: él decide a qué familia le corresponden los viajes que van llegando a su tramo, o bien, a qué familia no le corresponde trabajar, lo cual se llega a convertir en una eficiente arma de presión.

Una familia de pepenadores está conformada en promedio por seis personas, aunque llegan a presentarse casos de familias extensas hasta con 29 individuos. La familia, que puede ser el padre y/o la madre con hijos, yernos, nietos, sobrinos, etc., tiene un trabajo determinado: las mujeres seleccionan papel y cartón, los jóvenes buscan el hueso, la lámina, el fierro o el vidrio, los niños seleccionan las botellas, el plástico, las “chácharas” (cosas rotas), los perros buscan pedazos de comida, y los hombres clasifican los desechos en bultos, pacas y costales, los amarran, los suben al carro de mulas y los llevan al “pesadero”.

Hay varios pesaderos en cada tiradero y ahí se encuentran “los pesadores”, quienes manejan las básculas; ellos pesan los materiales clasificados por los pepenadores; les compran los productos con dinero que les dan los líderes, pagándoles precios muy bajos por los materiales (menores que los que les pagan fuera del tiradero), además de “robarles” unos 10 o 15 kilos en cada pesada, aduciendo que “los materiales vienen muy sucios”, aunque también es cierto que para incrementar el peso los pepenadores se orinan o mojan el cartón y el papel, le echan piedras a los costales de vidrio, y otras muchas argucias similares.

En los pesaderos se van almacenando los productos durante dos o tres días, hasta que se “se hace un viaje” de material que puede ser llevado a una empresa o a otro intermediario que compra los materiales fuera del tiradero. La diferencia de precio entre el dinero pagado a los pepenadores y los precios de venta de los productos hacia el exterior, es de 1 a 8 en promedio, y las ganancias van a parar a los bolsillos de los líderes.

La vida cotidiana de los pepenadores es del tipo de su materia de trabajo: viven junto a las zonas del tiradero; tienen un ingreso promedio diario de 35000.00 pesos12 (2.00 dls./día); algunos tienen casas de tabique (prestadas o rentadas por los líderes) o bien casas de madera y lámina con techos de cartón recubierto de petróleo; viven normalmente hacinados en uno o dos cuartos muy pequeños; se trata en un 85 por ciento de hijos y nietos de pepenadores que no han conocido ninguna otra forma de vida; en muchas ocasiones se alimentan con productos encontrados en la basura; sus ingresos son variables, pero les permiten sobrevivir en estas condiciones; hay elevados índices de alcoholismo; utilizan el trabajo de los niños, desde que éstos son muy pequeños, y tienen un nivel de dependencia absoluto de las decisiones de los líderes, quienes ejercen un efectivo control de tipo patrimonial en los tiraderos.

Por su parte, la Unión debe su origen a un antiguo pepenador, Rafael Gutiérrez Moreno, quien fue un líder natural que organizó a los pepenadores para “reivindicarlos" de las “terribles condiciones de explotación” que habla antes de los sesenta; los organizó, formó la Unión y, a través de ésta y de la fuerza política que representaban los pepenadores (más de 10 mil en la ciudad de México), apoyó corporativamente al gobierno y al partido del gobierno (PRI) en manifestaciones públicas, campañas políticas, votos en las elecciones y acarreando gente a los actos cívicos del Estado, lo cual se intercambio por ciertas mejoras para los pepenadores (visitas de funcionarios públicos a los tiraderos, regalos el día de las madres, el día del niño, instalación de algunas tomas de agua potable, cables para la instalación de luz eléctrica, y semejantes) que legitimó poco a poco el papel de intermediario político del líder: como representante popular de los pepenadores por un lado, y como canalizador de los beneficios hacia los tiraderos por otro. En pocas palabras, un auténtico cacique urbano.

Esta función de cacique de un “pueblo de pepenadores” construido por él, aunado al enorme poder económico que se iba acumulando día con día por la compra venta de materiales rescatados de la basura, en promedio de 25 millones de pesos diarios (10000 dls./día), se transformó con el tiempo en megalomanía: todas las cosas (calles, bardas, iglesia, campos de futbol, monumentos, jardines, juegos infantiles, etc.) llevaban su nombre o bien sus iniciales (RGM). Nada pasaba dentro de los tiraderos o en el mundo del desperdicio de la ciudad que no lo supiera oportunamente Rafael; no había ninguna mujer en los tiraderos que le llegara a gustar, que no pudiera apropiársela; no había político importante del gobierno (incluyendo a los presidentes), que no hubiera ido a los tiraderos de basura a demostrar el afecto por el líder y a prometer mejoras a los pepenadores.

La entrada al tiradero tenía un lema en hierro colado: “Nosotros también somos mexicanos”; y otro más pintado en una pared: “La tierra es de quien la trabaja, la basura es de los pepenadores que la trabajan”. Como líder omnipotente y arbitrario, llegó a ser diputado por parte del partido gubernamental; llegó a ser su propia ley y, un día de marzo de 1987, murió asesinado de tres tiros en su cama, por una de sus esposas, mientras dormía. “Era una bestia y yo lo odiaba” declaró, después de confesar que ella lo había matado porque Rafael una semana antes, había violado a su madre y a una de sus hermanas.

Al morir dejó una lista de más de 85 hijos reconocidos, más de 37 esposas que reclamaban sus derechos a casas, propiedades, joyas y una fortuna estimada en varios millones de dólares, además de dejar un enorme vacío de poder en los tiraderos de basura de México.

Al poco tiempo una de sus múltiples esposas tomó las riendas de “Santa Catarina”, el más grande de los tiraderos, “para continuar con la labor del difunto”, según sus propias palabras, mientras que en el otro tiradero de “Santa Fe”, “El Dientón”, quien fue su brazo derecho los últimos 20 años de su vida, quedó al frente de la Unión.

Y todo esto iba ocurriendo mientras las personas seguían tirando normalmente su basura, mientras se formaba un discurso ecológico sobre los desechos sólidos, y mientras las autoridades no parecían tener otra alternativa (al menos aparentemente, ya que no han hecho nada), que la de respetar este “coto de caza” que dejó bien instrumentado Rafael y que funciona enteramente como un negocio privado, dirigido por los lideres de la Unión.

Finalmente, sólo valdría la pena recordar que la demanda de la industria por materiales reciclables, provenientes de los desechos domésticos e industriales es creciente y que, incluso en la actualidad, muchas empresas en México trabajan importando “desechos” provenientes de los Estados Unidos y Canadá.

CONCLUSION

La diversidad de situaciones y fenómenos que pueden encontrarse alrededor de un tema como el que hemos tratado, abre un amplio abanico de ideas para interpretar analíticamente diferentes “trasfondos” del asunto; sin embargo, y dado el reducido espacio de que disponemos se plantearan algunas reflexiones que permitan alguna conclusión.   

Es cierto que el problema de la basura ya es prácticamente tratado a nivel mundial y que, conforme pasa el tiempo, se van generando avances en diferentes campos del conocimiento, con los que se trata de dar alguna solución, aunque esto no ha sucedido de igual forma en los estudios sobre las relaciones sociales que se desprenden del manejo de los desechos y que adquieren una importancia relevante, sobre todo en el Tercer Mundo.

En el estudio de las problemáticas por las que atraviesan los desechos de la sociedad, puede decirse que la economía ha arrasado los análisis, ubicando los problemas en términos de estudios de prefactibilidad o de eficiencia, en donde los grupos sociales de trabajadores pertenecen a “sectores informales”, “subterráneos”, o bien “subsectores tradicionales”, en una sociedad “dualista y dependiente”, lo cual, en el fondo, no ayuda en mucho a saber hasta dónde son importantes o no las interrelaciones que surgen entre los diferentes grupos de trabajadores y la sociedad en general.  

En este sentido, los análisis sociológicos permiten avanzar “mas allá” en el conocimiento de la realidad, sobre todo en el caso de los pepenadores o recicladores de basura ya que por su condición marginal extrema, por su olor, muchas veces también por su color y por su aislamiento de la sociedad están “lejos y fuera”; conforman grupos y sociedades cerradas con sus propios hábitos y costumbres, con sus creencias y sus valores en donde la gente de afuera no puede entrar.

Seguramente con un análisis comparado de diferentes ciudades, de diferentes tiraderos y grupos de pepenadores, podrían encontrarse nuevos elementos y conceptos que permitieran encuadrar los casos que actualmente parecen extremos, como México, Dakar, o El Cairo.
Técnicamente no debería ser difícil montar más y mejores sistemas sanitarios en los tiraderos, pero los miles de pepenadores que ahí viven temen por la única fuente de trabajo que ellos conocen, y el reciclaje de basura genera muchas fuentes de empleo, para ellos y para las fábricas que dependen de su trabajo. Debería haber un mensaje en esto, si tan sólo nosotros pudiéramos saber cómo descifrarlo.

 articulos
 
     

 Refrerencias Bibliográficas

1 Communauté Urbaine de Dakar, 1986, Etude des systèmes de gestion des déchets et de récupération des ressources dans la zone métropolitaine de Dakar, (mimeo.), BCEOM, Septiembre.
2 Neamatalla S., Monir, et al., 1985, Solid waste collection and recycling in Cairo. A System in Transition (mimeo.).
3 Birkbeck, Chris., 1979, Self-Employed Proletarians in an Informal Factory. The case of Cali’s garbage Dump, en: The Urban Informal Sector, Pergamon Press, Great Britain, pp. 1173-1187.
4 Ibíd.
5 Baldensparger, H. L., 1979, The Akron lndustrial Salvage Company. A Community Incorporated Waste-Saving Experiment, U. S. Dept. of Commerce, Washington, D.C.
6 Hoy, S. M. & M. C., Robinson, 1979, Recovering the Past: A handbook of Community Recycling Programs, 1890-1945, Public Works Historical Society, Chicago, USA.
7 Para ampliar información, se recomienda revisar: 1984. Recycling from Municipal Refuse: A state-of-the. Art Review and Annotated Bibliography, World Bank, Technical Paper Number 30, Washington, D.C.
8 SCS Engineers, 1974, Analysis of Source Separate Collection of Recyclable Solid Waste: Separate collection. Prepared for Resource Recovery Division, U.S. Environmental Protection Agency, Washington, D.C.
9 De la Garza, Gustavo, et al., 1978, Atlas de la Ciudad de México, DDF, México, p. 120.
10 Se hace referencia al “Valle de Chalco”, que es un Municipio conurbado de la Cd. de México en donde viven alrededor de un millón de personas sin contar con servicios públicos de agua, drenaje, pavimentación y dotación de luz eléctrica
11 De Bernis, D. Gerard, 1978, Equilibrio de Regulación: una hipótesis alternativa y proposiciones de análisis, Revista de Investigación Económica, vol. XXXVIII, Núm. 144, AM, p. 15.
12 Jacobs, Michael, 1984, Social X Ray, People Magazine, vol. II, Number 3, England, pp. 7-8.

Baldensparger, H. L., 1919, The Akron Industrial Salvage Company: A Community Incorporated Waste-Saving Experiment, U. S. Dept. of Commerce, Washington, D. C.
Bromley, Ray, et al., 1979, The Urban Informal Sector, Pergamon Press, Great Britain.
Castillo Berthier, Héctor, 1983, La Sociedad de la Basura: Caciquismo en la Cd. de México, UNAM, México, D. F.
Communauté Urbaine de Dakar, 1986, Etude des systèmes de Gestion des Déchets et de Récupération des ressources dans la zone Métropolitaine de Dakar, BCEOM, Sept., (mimeo.).
De Bernis D, Gerard, 1978, Equilibrio y Regulación: una hipótesis alternativa y proposiciones de análisis, Revista de Investigación Económica, vol. XXXVIII, núm. 144, UNAM, México, D. F.
De la Garza, G., et al., Atlas de la Cd. de México, DDF-COLMEX, México, D. F.
Hoy, S. M., & M. C. Robinson, 1979, Recovering the Past: A Handbook of Community Recycling Programs. 1890-1945, Public Works Historical Society, Chicago, USA.
Jacobs, Michael, 1984, Social X Ray, People magazine, vol. II, Number 3, England.
Marx, Carlos, 1972, El Capital, FCE, México, D. F., 3a reimpresión.
Neamatalla, S. Monir, et al., 1985, Solid waste collection and Recycling in Cairo: a System in Transition, (mimeo.).
SCS Engineers, 1974, Analysis of Source Separate Collection of Recyclable Solid Waste: Separate Collection, Prepared for Resource Recovery Division, U. S. Environmental Protection Agency, Washington, D. C.
Small, E. William, 1970, Third Pollution, Praeger Publishers, New York.
World Bank, 1984, Recycling from Municipal Refuse: A State-of-the-Art Review and Annotated Bibliography, World Bank, Technical Paper, Number 30, Washington D. C.   

* Según datos oficiales existen tres tiraderos a cielo abierto en el DF, el maya de ellos con más de 60 ha de superficie, y 16 tiraderos en los municipios conurbados con un promedio de 5 a 8 ha cada uno.

     
____________________________________________________________
     

Héctor Castillo Berthier
Instituto de Investigaciones Sociales, UNAM.

como citar este artículo

     
R20Articulo3   menu2
PDF→                                                                
   
   
Alberto Robledo y Gerardo Ruíz
     
               
               

TENSION INTERFACIAL Y FORMACION DE MICELAS

El aceite flota en el agua pero se sumerge en el alcohol. Parecerla lógico entonces preparar una solución de agua y alcohol, en la que el aceite ni se hunda ni flote. La fuerza de flotación —la misma que mantiene a los barcos sobre la superficie del mar— contrarresta la acción de la gravedad, y entonces el aceite ya no adquiere la forma del recipiente que lo contiene, sino que se forma una esfera.

La esfera es la figura geométrica con mayor número de simetrías, pero además cuenta con una propiedad singular: imagínese que con el volumen de la esfera se pudiesen construir otras figuras, por ejemplo un cubo, una lámina o cualquier forma caprichosa imaginable. Pues bien, todas ellas tendrán inevitablemente un área mayor que la superficie de la esfera. El aceite del experimento tiende a disminuir el área de su superficie exterior, por ello adopta la forma de una esfera. Expresado en el lenguaje de la física contemporánea diríamos que llega a la configuración de mínima energía.

Las moléculas de un líquido, que se ubican en la superficie de contacto con otro medio, poseen una energía mayor que sus similares situadas dentro del volumen del propio liquido. Así, el exceso total de energía es proporcional al número de moléculas superficiales, y esto, a su vez, al área de la interfase (S). Por lo tanto:

E = γS

El coeficiente de proporcionalidad γ se conoce como tensión interfacial y depende de las características de los medios en contacto.   

Otro experimento simple permite apreciar la diversidad de manifestaciones de la tensión interfacial: se ha depositado aserrín sobre agua. El aserrín flota apaciblemente sobre el líquido, pero si se introduce la punta de un jabón de tocador dentro del agua, se observa que el aserrín se aleja impetuosamente. En realidad una película de jabón se extiende sobre la superficie acuosa, desplazando todo lo que encuentra a su paso. La tensión interfacial entre el agua y el jabón, es menor que la suma de las tensiones interfaciales agua-aire y jabón-agua. Entonces, la segregación del jabón por toda la superficie, produce una disminución de la energía.   

Las moléculas de jabón están compuestas de una parte escasamente soluble en agua (porción alifática) y de un grupo polar excesivamente soluble en ella (ver figura 1). La existencia de estas dos fracciones es la que produce la solubilidad de los jabones tanto en el agua como en el aceite, y en ella se fundamentan los procesos de lavado.

 
Figura 1. Estructura típica de una molécula de anfifilo iónico.

Las moléculas con una porción alifática y un grupo polar se conocen como anfifilos (del griego amphi, en ambas partes y philo amistoso). También se les da el nombre de tensioactivos, pues en una solución acuosa estas moléculas muestran una fuerte tendencia a segregarse hacia la superficie del líquido, con las porciones alifáticas dirigidas hacia afuera del agua (ver figura 2), y bajo estas circunstancias abaten notablemente la tensión superficial.

Cuando se disuelve una pequeña cantidad de anfifilo en agua, éste se deposita en la superficie, formando una capa que se interpone entre el aire y el líquido. La adición de nuevas porciones de anfifilo da lugar a un incremento en su concentración superficial, hasta llegar a un valor límite, cuando ya no es posible ubicar más moléculas de anfifilo en la superficie. A partir de ese momento no se modifican las propiedades interfaciales y dentro del volumen del agua surgen nuevas estructuras: las moléculas de anfifilo que ya no caben en la capa superficial forman grupos de alrededor de un centenar de ellas, con dimensiones típicas de 100 o 200 angstroms. Estos agregados moleculares se denominan micelas y en ellas las cabezas polares hidrófilas separan el agua de las porciones alifáticas hidrófobas. Los agregados micelares también pueden formarse en solventes no acuosos, como por ejemplo, en un hidrocarburo fluido. En estos casos las micelas que se forman son invertidas, en el sentido de que la cabeza polar del anfifilo se coloca en la región interna, protegida del solvente hidrofóbico por la porción alifática que se dispone hacia el exterior. Lo anterior se muestra en la figura 3.

 
Figura 2. Disposición de los anfifilos en las intercaras a) agua-aire; b) agua-aceite.

El tipo de micelas depende del anfifilo, o más apropiadamente, de las interacciones anfifilo-anfifilo y anfifilo-solvente. Si la cabeza polar del anfifilo es menos voluminosa que la porción hidrofóbica, la película se curvará hacia el aceite, formando una micela invertida; en caso contrario lo hará hacia el agua y se formará una micela normal. La inversión de las estructuras —de micelas normales a invertidas y viceversa—, puede obtenerse con la variación de la temperatura en sistemas con tensioactivos no iónicos. Para sistemas con tensioactivos iónicos, se puede lograr el mismo efecto añadiendo sal a la mezcla, pues ésta reduce las repulsiones entre las cabezas polares de los anfifilos, y por lo tanto, su tamaño efectivo.

 
Figura 3. a) micela; b) micela invertida.

Una propiedad interesante de ambos tipos de micelas, es su habilidad para solubilizar especies químicas, las que son de por si insolubles en el solvente puro. De esta manera es posible solubilizar aceites y grasas en solventes acuosos, alojando estos materiales en el interior de las micelas. De igual forma, puede hacerse soluble el aceite empleando micelas invertidas (ver figura 4). Cuando la cantidad de material solubilizado es grande se pueden formar micelas hinchadas, de varios centenares a un millar de angstroms (ver figura 5).

MEZCLA DE SUSTANCIAS NO SOLUBLES

El aceite y el agua no se mezclan; es más, cuando se depositan en un mismo recipiente, el primero se dispone por encima del agua. Sin embargo, si se agrega un poco de jabón u otro tensioactivo, una pequeña parte del aceite quedará atrapada en la micelas, luego de una agitación intensa. Se ha formado una emulsión turbia, consistente en pequeñas gotitas de aceite separadas del agua por el tensioactivo. Con el paso del tiempo las gotitas chocan entre sí y forman gotitas más grandes, con lo cual la emulsión se debilita y finalmente se precipita.

 
Figura 4. a) Micela hinchada, b) micela hinchada invertida.

La existencia efímera de la emulsión se debe a que la formación de gotitas produce un incremento en la superficie del tensioactivo, y con ello, la energía del sistema aumenta. Explicaremos lo anterior con más detalle: cuando se agrega un tensioactivo a una solución acuosa, éste forma una capa superficial, lo que da lugar a una disminución de la energía interfacial. Cuando se agrega más tensioactivo y se forman las micelas, surge una nueva contribución a la energía, la de la interfase entre las micelas y el líquido circundante. Nuevamente la energía del sistema aumenta y e irá aumentando mientras más gotitas haya. La emulsión tenderá a disminuir su energía, pero eso sólo es posible a costa de la desaparición de las gotitas en suspensión.

Un sistema termodinámico tratará de llegar, simultáneamente, a un estado de mínima energía y a un estado de máxima entropía. Sin embargo, para una suspensión (agua en aceite o aceite en agua), ambas características se excluyen mutuamente. La mínima energía corresponde a la precipitación de la emulsión, mientras que la entropía crece con la fragmentación del aceite y la correspondiente disminución de las dimensiones de las gotitas. Evidentemente no se pueden cumplir simultáneamente las condiciones sobre energía y entropía, pero después de todo, el sistema evolucionará hacia un estado, dependiendo de cuál de los factores domina. Una primera conclusión que puede extraerse de esto, es que deben tenerse gotitas, de radios inferiores a 1 micrómetro, para tener suspensiones estables. Las emulsiones comunes contienen precisamente gotitas cuyas dimensiones características son del orden de 1 micrómetro.

Si las dimensiones de las gotitas en suspensión son de centenares de angstroms, entonces el aumento de la entropía compensará el efecto del incremento de la energía y la solución será estable; es decir, tendrá un tiempo de vida largo. A estos sistemas se les da el nombre de microemulsiones.   

La producción de una microemulsión, requiere grandes cantidades de tensioactivo, ya que con la fragmentación de la sustancia que se va a disolver aumenta el área interfacial. A modo de comparación diremos que para producir una microemulsión, se necesita una cantidad de tensioactivo 100 veces mayor que para producir una emulsión (el peso del tensioactivo en la microemulsión es aproximadamente del 10%). Desafortunadamente éste es uno de los principales problemas que impiden una más amplia utilización de las microemulsiones.

 
Figura 5. Micela en forma de barra.

El papel del tensioactivo es formar una barrera entre las sustancias no miscibles y también el de disminuir la energía interfacial. La última característica es favorable a la formación de microemulsiones, pero se deben tener tensioactivos con un coeficiente g, extremadamente pequeño para que se formen gotitas de dimensiones de centenares de angstroms. Desafortunadamente, la mayoría de los tensioactivos reducen la energía interfacial sólo en un orden de magnitud. La manera de resolver este problema es agregar una sustancia más —el cotensioactivo—, cuya función será disminuir aún más la energía de superficie. Los cotensioactivos utilizados comúnmente, son los alcoholes de cadena de mediana longitud. El cotensioactivo tiende a homogeneizar las propiedades de las sustancias no miscibles, de manera que se atenúen las diferencias entre una y otra.

Algunos anfifilos son insoluble: en agua y no forman tampoco soluciones micelares. Éste sería el caso de los lípidos derivados de las colinas que tienen dos cadenas hidrocarbonadas (partes hidrofóbicas) y que son elementos estructurales comunes en las membranas biológicas. La razón de este comportamiento puede entenderse cuando se comparan el carácter hidrofílico débil de sus cabezas polares, con la acción de sus dos largas cadenas hidrofóbicas. Sin embargo, cuando este tipo de lípidos se ponen en contacto con interfases agua-aire, se forma con facilidad una capa en la superficie. Cuando se agita el líquido que mantiene la capa insoluble de lípido con cierta frecuencia, por ejemplo ultrasónica, ésta es capaz de penetrar en el interior del líquido formando una bicapa que se cierra a sí misma, dando lugar a un vesículo que encierra la misma fase acuosa que lo rodea (ver figura 6). Los glóbulos rojos de la sangre de los mamíferos, son un ejemplo de estas estructuras. Es posible generar soluciones vesiculares, en las que este proceso se repite varias veces, de forma que los vesículos más grandes encierran vesículos más pequeños en su interior.

Las características de las microemulsiones dependen de la cantidad relativa de los solventes. Para comprender lo anterior, imagínese que dividimos el volumen de la microemulsión en cubos pequeños, y que en cada uno de ellos se puede poner, indistintamente, alguna de las dos sustancias. Consideraremos que tenemos una solución de agua en aceite, aunque lo que se diga también será válido para soluciones de aceite en agua. Al principio, la cantidad de agua es pequeña, y por lo tanto, sólo una fracción reducida de los cubos está ocupada por este líquido. La fase acuosa se presenta como discontinua. Con el aumento de la concentración, la cantidad de cubos con agua aumenta y eventualmente llegará el caso de que se forme una fase continua, aunque también habrá partes aisladas de agua (ver figura 7). Cabe decir que en ese instante, ambas fases son continuas. Para producir estas estructuras, la película de tensioactivo debe variar su curvatura espontánea.

 
Figura 6. a) vesícula; b) un vesículo se forma a veces dentro de otro.

Una forma de detectar la formación de una estructura bicontinua, es midiendo la conductividad eléctrica. Cuando la fase acuosa se vuelve continua, se produce una variación en la conductividad, ya que, a partir de ese momento, las corrientes eléctricas pueden pasar simultáneamente por el aceite y el agua.

 
Figura 7. Estructura bicontinua.

Las estructuras que forman los anfifilos en las soluciones micelares y en las microemulsiones, son sólo transitorias, aunque sus vidas medias sean relativamente grandes. La imagen que se obtiene de estos sistemas es una, donde se manifiesta siempre una película de tensioactivo (formada quizá por una infinidad de porciones), que se renueva constantemente, por medio del intercambio constante de moléculas de anfifilo. Los intercambios individuales son rápidos, sobre todo aquellos que corresponden a moléculas pequeñas de cotensioactivos de cadena hidrofóbica corta. Como una evidencia de los anterior, se ha observado que la viscosidad en las microemulsiones siempre es pequeña, varios órdenes de magnitud menor que aquella que se obtendría en fases que muestran una estructura permanente. Los intercambios moleculares rápidos son la razón de fondo de la similitud en el valor de los coeficientes de transporte entre las microemulsiones y las mezclas fluidas convencionales.

APLICACIONES

El primer uso comercial de una microemulsión, fue la preparación de cera de carnauba por George Rodowald, en 1928. Él descubrió que una mezcla de agua caliente y cera derretida, da lugar a una solución transparente, con propiedades útiles en el acabado de pieles y el pulido de pisos. En particular, la superficie donde se aplica la cera queda lustrosa al secarse, con lo cual se hace innecesario pulirla. No es difícil entender por qué sucede esto: el tamaño de las partículas de cera es inferior a los 1500 Å. En contraparte, la aplicación de cera sólida sobre una superficie deja muchas asperezas, las que dan un aspecto opaco (la reflexión de la luz tiene un carácter difuso). La operación de pulido tiene por objeto disminuir las dimensiones de estas irregularidades y así se logra que la reflexión de la luz se acerque a la producida por un espejo.

Las microemulsiones también se utilizan en el corte de metales. Durante la operación de corte se requiere de una sustancia que sea capaz de lubricar y de enfriar a la vez. Sin embargo, ambas características no son fáciles de obtener juntas. El agua es una buena sustancia para el enfriado, pero no sirve para lubricar. Los aceites son buenos lubricantes, pero se calientan fácilmente. La combinación de agua y aceite en una microemulsión, ha sido la solución a este problema. Además, su relativamente alta estabilidad, permite que las emulsiones se puedan reciclar durante periodos prolongados de tiempo.

Las microemulsiones han encontrado aplicación también en la extracción de petróleo. Las reservas petrolíferas están contenidas en una roca porosa —las dimensiones de los poros son de 0.1 a 100 micrómetros— lo que dificulta su extracción total. La recuperación primaria consiste en la perforación de un pozo y su inmediata extracción por medio de la presión que ejercen los gases naturales sobre el petróleo y lo obligan a salir. Después de haber agotado este procedimiento, la extracción prosigue por medio de inyección de agua destinada a desplazar al petróleo. A pesar de todo, en el yacimiento puede quedar atrapado hasta el 70% de dicha sustancia. Recientemente han adquirido importancia los métodos para recuperar el remanente de petróleo (extracción terciaria), como por ejemplo la inyección de bióxido de carbono y el uso de microemulsiones. Cuando se agrega un tensioactivo, se abaten las fuerzas capilares que atrapan el aceite en los poros más pequeños de la roca.

Por las propiedades muy peculiares que los anfifilos le imprimen a las soluciones micelares y las microemulsiones, éstas tienen otras aplicaciones importantes, y debido a que el área interfacial microscópica que forma la estructura interna de las microemulsiones es tan amplia, y a que constantemente se efectúan intercambios moleculares a través de ella, estos sistemas son agentes catalizadores importantes. Todo ello ha hecho posible la realización de nuevas reacciones químicas, como la polimerización iónica en solventes orgánicos no polares. Puesto que las microemulsiones son soluciones transparentes, actualmente se investiga su potencialidad en la conversión fotoquímica de la energía solar. Debido a su estabilidad termodinámica también se les investiga como sustitutos de la sangre. Actualmente son las emulsiones de compuestos carboflourinados los sustitutos más empleados.

 articulos
 
     

 Refrerencias Bibliográficas

1. Degiorgio, V. y M. Corti, 1985, Physics of Amphiphiles: Micelles, Vesicles and Microemulsions, North-Holland, Amsterdam. El gran número de artículos en este libro, muchos de ellos excelentes, constituyen una magnífica introducción y fuente de información al tema. Ver también referencias 2 al 5.
2. Langevin, D., 1986, Microemulsions and Liquid Crystals, en: Advances in Liquid Crystals, G.H. Brown (ed.), Academic Press, New York.
3. De Gennes, P. G., y C. Taupin, Feature Article, J. Phys. Chem., 86, 2294 (1982).
4. Langevin, D., 1986, Physica Scripta T13, 252.
5. Robledo, A., 1989, Statistical Mechanical Models for Micellar Solution and Microemulsion, Supplement to the Proceedings of the Fourth Mexican School on Statistical Physics, Peralta, R. y C. Varea (ed.) World Scientific, Singapore.
6. Matveév, A. N., 1987, Física molecular, Editorial Mir, Moscú.

     
____________________________________________________________
     

Alberto Robledo
Instituto de Física, UNAM.

Gerardo Ruíz                                                                                        Facultad de Ciencias, UNAM.

 

como citar este artículo

     

R20Articulo2

  menu2
PDF→                                                                
   
   
Richard E. Michod
     
               
               

En el principio, de acuerdo a Aristófanes, al hablar en el Symposium de Platón, el mundo estaba habitado por seres humanos extraordinarios, llamados hombres-círculo, cada uno con cuatro piernas, cuatro brazos, dos caras, dos corazones —en síntesis, el doble del número de cada rasgo del hombre moderno. Zeus, deseando reducir el poder de la humanidad, dividió en dos a estos seres prístinos. El dios Apolo los cortó por la mitad, reconstruyó la piel cortada, y suavizó las arrugas, excepto unas cuantas en el ombligo. De acuerdo a las órdenes de Zeus, Apolo volteó cada cara hacia la parte cortada —el lado del ombligo— de forma tal que pudieran recordar su división. Desde entonces, los humanos han vivido con la necesidad constante de reunirse con sus otras mitades, y es así, explicó Aristófanes, que el hombre es motivado por el amor, “el amor que nos restaura a nuestro estado original, al intentar unir a dos seres en uno y sanar las heridas que la humanidad sufrió”.

Los oradores posteriores en el Symposium, añadieron una capa de complejidad a la noción de Aristófanes. Si el amor constituye un deseo de totalidad, dice la profetiza Diotima a Sócrates, pero sólo puede existir si el todo es en sí mismo algo bueno, “su objeto”, dice, “es procrear y dar a luz en belleza… porque la procreación es la cosa más cercana a la perpetuidad y a la inmortalidad que puede alcanzar el ser humano”. Los humanos no permanecen por siempre iguales, como los dioses, explica Diotima, pero a través de la procreación “se reparan las pérdidas causadas por la edad”.    

La discusión en el Symposium está dirigida hacia la importancia y la complejidad del amor, como una emoción humana. Los oradores trazan un continuo del amor físico de dos individuos, al amor por la sabiduría inherente al hombre. Pero al hacerlo, los filósofos antiguos tocan sin intención uno de los mayores misterios básicos no resueltos de la biología: ¿Por qué hay sexo? O, cómo se formula más comúnmente la pregunta ¿Por qué evolucionó el sexo? 

La pregunta misma parece extraña: la sexualidad es parte fundamental de la naturaleza humana, e incluso de mucha de la vida en la Tierra. Una respuesta inmediata puede ser que el sexo es placentero, pero hay organismos sexuados que no tienen cerebro —las plantas con flores, por ejemplo— y, por lo tanto, difícilmente pueden saber cómo se siente algo. Una abeja se posa en una flor; un ciervo levanta su cabeza y brama; una pareja humana yace exhausta en un abrazo apasionado. Lo que tienen en común estos actos, aparentemente disímiles es que están implicados en la extensión de la vida. Pero es demasiado simple decir que el sexo evolucionó para concebir nueva vida, ya que pueden también existir formas asexuales de reproducción: las esponjas y la mayoría de las bacterias se reproducen sin aparearse, y en ciertas especies de lagartijas sólo hay hembras asexuales, que fertilizan sus propios huevos. Aún más, es posible tener sexo sin reproducción.

La pregunta de por qué evolucionó el sexo se hace especialmente difícil cuando se considera el gran costo que éste implica en energía, tiempo y recursos. Los humanos están íntimamente familiarizados con la magnitud del esfuerzo requerido: la mayoría están preocupados, a partir de la adolescencia, por encontrar parejas adecuadas, unirse a ellas, y conservarlas. Y a otras especies sexuadas tampoco les resulta fácil. Consideremos al pavorreal, que carga en la cola un conjunto de plumas notablemente ornamentadas, que sirven para atraer a las hembras, pero que igualmente atraen a los predadores; o el caso del alce macho, cuyas elaboradas astas crecen de tal forma que sea más atractivo a las hembras o, tal vez, que pueda enfrentarse a otros alces con el propósito expreso de ganar una hembra deseada. Las astas no le ofrecen ventajas para su sobrevivencia, y lo que es más, probablemente la obstaculizan al dificultarle moverse entre la vegetación.

Otro costo de la reproducción sexual es la limitación que impone en el número de genes que una planta o un animal puede transmitir a sus descendientes. La teoría evolutiva establece que la motivación fundamental para cualquier ser vivo es preservar sus genes al pasarlos a la siguiente generación. La bacteria asexual replica su genoma completo (todo el conjunto de sus cromosomas) cada vez que se reproduce. En cambio un organismo sexual contribuye sólo con la mitad de sus cromosomas a cada progenie, la otra mitad proviene del otro padre.

Finalmente, hay un costo que el sexo impone en el potencial reproductivo de la especie como un todo. Los machos forman aproximadamente la mitad de cualquier población pero, en la gran mayoría de las especies, no contribuyen con nada, excepto con sus genes, para la siguiente generación; las hembras generalmente cargan con toda la responsabilidad de criar a la progenie. (Algunos padres humanos, y los machos de algunas especies de aves, peces e insectos, por ejemplo, permanecen cerca para dedicar tiempo, energía y recursos al cuidado de sus crías, pero son raras excepciones de la naturaleza.) En las especies que sólo tienen hembras que no se reproducen sexualmente, todos los individuos pueden producir y cuidar a la progenie, de tal forma que la población aumenta su potencial reproductivo al doble.

La pregunta, entonces, puede ser circunscrita a ¿por qué tantas especies adoptaron esta forma costosa de procrear? La respuesta del libro de texto es que la unión sexual crea variación genética. Una esponja que hace una copia exacta de sí misma no produce nada esencialmente nuevo. Pero un sabueso que se aparea con un pequinés puede producir un cachorro que no se parece a ninguno de sus procreadores. De acuerdo a la teoría clásica, esta habilidad de proveer variación, a su vez aumenta la habilidad de una especie para adaptarse a cambios en el ambiente. Por ejemplo, el clima puede estarse haciendo más cálido, y una rana joven, por alguna combinación fortuita de los genes de sus padres, tal vez sea más capaz de sobrevivir al calor. Una vez que se crean tales adaptaciones, pueden ser compartidas, de tal forma que la historia continúa, vía reproducción sexual, en otras familias al interior de la especie.   

Esta explicación parece más científica que la de Platón. Y parece tener sentido intuitivo, o no estaría tan ampliamente difundida. Sin embargo, ha sido difícil probar que la variación que surge de la recombinación sexual de los genes realmente confiere alguna ventaja evolutiva; las criaturas asexuales aparentemente son tan adaptables como las sexuales, al menos en el corto plazo.

Hay una mejor explicación para la evolución del sexo —una que da cuenta de por qué persiste a pesar del costo que conlleva. Esta teoría no tiene que ver con la adaptabilidad de una especie como un todo, sino con la integridad del material genético en las células de cada planta o animal. La reproducción sexual, como es cada vez más claro, juega un papel crucial en la reparación y mantenimiento de los genes. Durante la fabricación de las células germinales (huevos y espermatozoides) —estadio clave en la reproducción sexual— se repara cualquier daño que hayan sufrido los genes. O, para usar las palabras de Diotima, “las pérdidas causadas por la edad, son reparadas”. Así, la hipótesis de la reparación en la evolución del sexo, es como un regreso a la idea los diálogos de Platón expresada hace ya alrededor de doscientos años: el amor es una forma de hacer la vida completa de nuevo.

La noción de que el sexo evolucionó para aumentar la adaptabilidad no fue siempre tan popular como lo es hoy. A finales del siglo diecinueve, cuando los científicos consideraban las numerosas implicaciones de la revolucionaria teoría de la evolución por selección natural de Darwin, era una idea común que el papel del sexo fuera rejuvenecer la vida, crear hijos de padres maduros. De alguna forma misteriosa, razonaban, la reproducción sexual debe hacer el trabajo mejor que la reproducción asexual, o no estaría tan difundida.

Esos mismos científicos consideraron la posibilidad de que la reproducción sexual pudiera aumentar la adaptación, pero concluyeron que, de hecho, lo contrario resulta probablemente más común. Si el sexo puede promover la variación genética, es igualmente capaz de eliminar cualquier variación que haya creado. Debido a que las características adaptativas que surgen en un animal, a través de la unión del material hereditario de sus padres (el término genes todavía no se usaba) en la reproducción sexual, no pueden pasar directamente a la siguiente generación, sino que deben ser mezcladas con las de la pareja, es muy probable que se diluyan. Consideremos, por ejemplo, un par de aves, que se aparean, en un bosque en el cual el follaje ha cambiado ligeramente de color. Uno de sus descendientes puede tener un plumaje que se combine particularmente bien con la nueva flora y, por lo tanto ofrezca un mejor camuflaje. Pero cuando este pájaro madure y se reproduzca, mezclando sus rasgos con los de su pareja, la combinación que produjo su coloración, muy probablemente será eliminada, y las plumas de sus descendientes podrían tener de nuevo la tonalidad original.

Este razonamiento, como se mostró después, era correcto, pero en 1889 perdió credibilidad, gracias a los influyentes artículos del biólogo alemán August Weismann. Weismann trazó una distinción fundamental entre la línea germinal de un individuo, las células transmitidas de padres a hijos (huevos y espermatozoides), y su línea somática, las células que forman los tejidos, órganos, estructuras esqueléticas de la planta o el animal. La característica notable de la línea germinal, notó, es que puede vivir por siempre: es teóricamente posible trazar la ascendencia de cualquier huevo o espermatozoide, a través de una sucesión continua de generaciones, hasta las primeras células que se formaron en la Tierra. En contraste, las células somáticas envejecen y mueren; se derivan de células germinales, pero deben comenzar de nuevo en cada generación.

Weismann creía que esta distinción tenía implicaciones importantes sobre cómo debía actuar la evolución. La mayoría de los biólogos hablan asumido que las múltiples mutaciones ventajosas que ocurrían en los genes de un organismo, durante el curso de su vida, podían ser pasadas a sus descendientes. Cuando Weismann se dio cuenta de que sólo se transmiten los genes de las células germinales concluyó que esto debía limitar severamente el número de rasgos adaptativos que podían ser preservados. Después de todo, de los millones de células que una planta o un animal puede contener, sólo hay una célula germinal transferida a cada miembro de la siguiente generación.

Weismann buscó una manera de reconciliar la selección natural con la continuidad de la línea germinal, intentó explicar cómo las generaciones sucesivas podían acumular características adaptativas, y encontró la respuesta en la reproducción sexual: la unión de genes, provenientes de dos padres, que da por resultado combinaciones inusuales, debe ser el principal mecanismo por el cual los rasgos nuevos son introducidos en la línea germinal para “alimentar” a la evolución. En otras palabras, la variabilidad que crea la reproducción sexual, debe superar su propia habilidad para diluir las nuevas características.

Aunque Weismann no tenía evidencias específicas para sustentar este razonamiento, logró arraigo, y la teoría de que el sexo evolucionó para facilitar la adaptación ha persistido a través del siglo veinte. Los genetistas han sido capaces de concebir ambientes en los que la reproducción sexual aumentaría la adaptabilidad. Imaginemos, por ejemplo, dos hábitats vecinos, uno con temperaturas cálidas y suelos ácidos, el otro con clima templado y un suelo más básico, y una especie de helecho que se ha adaptado a ambas localidades. Los helechos que habitan la primera zona tienen genes que los hacen prosperar en el calor y la acidez; mientras que los que viven en la segunda, tienen genes ligeramente diferentes, que los adaptan a temperaturas templadas y suelos básicos. Supongamos, entonces, que el clima del primer hábitat cambia de forma tal que se toma tan templado como el segundo, pero su suelo permanece ácido. Idealmente, si los helechos que vivieran ahí pudieran cruzarse con helechos de la localidad vecina, la combinación de ambos conjuntos de genes podría producir, al azar, al menos algunos descendientes adaptados tanto al clima templado como a la acidez. Así, en ciertas situaciones la reproducción sexual puede ofrecer un medio eficiente de crear una combinación ideal de rasgos.

Sin embargo, este escenario está claramente limitado: los dos hábitats deben estar lado a lado, o el cruzamiento entre los dos grupos de helechos no podría llevarse a cabo; las condiciones en uno deben cambiar de cierta forma (una variable cambia, no la otra); y el sexo entre las plantas debe, por azar, producir la combinación ideal de genes de temperatura templada y genes de suelo ácido en cantidades significativas, cuando es igualmente posible que su cruzamiento produzca plantas adaptadas a temperaturas cálidas y suelos básicos, el opuesto exacto de lo que se necesita. De hecho, ninguno de los escenarios hipotéticos que los genetistas han diseñado hasta ahora ha sido lo suficientemente amplio para explicar por qué la reproducción sexual está tan ampliamente difundida; en cada caso el sexo parece ser ventajoso sólo en situaciones limitadas. Es más, el biólogo inglés John Maynard Smith, una autoridad mundial en el terna, admite en su libro La evolución del sexo: “Temo que el lector pueda encontrar estos modelos insustanciales e insatisfactorios, pero son lo mejor que tenemos.”

Naturalmente, esto ha motivado la búsqueda de explicaciones alternativas de por qué el sexo está tan difundido. Harris Bernstein, Henry Byerly, Fred Hopf y yo, hemos reconsiderado la noción de que de alguna forma la reproducción sexual funciona mejor que la asexual, como un mecanismo de cambio de células de organismos maduros a organismos jóvenes. Weismann desechó esta idea con la afirmación “dos nadas no pueden hacer uno”, queriendo decir que no hay una ventaja aparente en usar dos células maduras, de dos organismos separados, en vez de una sola célula madura, de un solo organismo asexual, para producir una nueva planta o animal. En años recientes, sin embargo, con la comprensión de cómo opera el ADN y cómo se forman las células germinales, se ha probado que Weismann pudo estar equivocado: dos nadas pueden hacer uno.

El ácido desoxirribonucleico (ADN) es una molécula diseñada para almacenar la información necesaria para crear y mantener la vida de un organismo información, por ejemplo, acerca de qué estructuras (brazos, piernas, alas, hojas, capullos) deben ser formadas y dónde; acerca de qué enzimas deben ser producidas para controlar operaciones como la respiración y la digestión. La información está codificada en cuatro compuestos químicos llamados nucleótidos (adenina, citosina, guanina y timina), que están arreglados para formar las dos cadenas en la molécula de ADN —al igual que la información que se expresa en la lengua inglesa está codificada en cadenas de caracteres romanos. Una hebra doble de mil a cinco mil nucleótidos de largo, puede constituir un solo gene, y puede haber tantos como decenas de miles de genes en una molécula de ADN: el cromosoma.    

Todas las células somáticas de cualquier planta o animal sexuado son diploides, lo que significa que contienen dos copias de cada cromosoma, uno heredado de cada uno de sus padres. (La mayoría de las criaturas sexuadas tienen entre cinco y cincuenta pares de cromosomas: un humano tiene veintitrés; una rana, once; un caballo, treinta y dos; un perro, treinta y nueve y un mosquito, tres.) Conforme la planta o el animal crecen el número de células somáticas aumenta por medio de la mitosis, el proceso por el cual una célula se divide, y cada célula nueva contiene una copia de todos los pares de cromosomas de la célula madre.

Cuando esta siendo copiado, durante la mitosis, el ADN puede sufrir un tipo de cambio azaroso, accidental, conocido como mutación, en su cadena de nucleótidos. Tales mutaciones son irreversibles, porque la célula no puede reconocer el error. La timina puede ser sustituida por la citosina en algún punto a lo largo de una cadena de nucleótidos, pero no hay nada en la timina en sí misma que sea extraño para la célula, así es que no se hace nada para deshacerse del nucleótido mal colocado. Cuando la célula se divida, reproducirá la timina en su nueva posición como si ésta fuera correcta. Tales mutaciones, si ocurren en posiciones claves en los genes, o si hay muchas de ellas, puede llevar a la alteración de rasgos en el organismo. Los cambios ventajosos pueden ayudar al organismo a sobrevivir, y mientras estén presentes en las células germinales del organismo, pueden ser transmitidos a futuras generaciones.      

Una forma más drástica de cambio accidental, conocida como daño, puede ocurrir cuando el ADN se expone a efectos de la luz solar, la radiación ionizante, o a toxinas químicas. Los organismos vivos han desarrollado defensas sofisticadas contra tales agentes dañinos: la piel humana, por ejemplo, se oscurece cuando se expone al sol, para filtrar las radiaciones ultravioletas; las células mismas contienen enzimas que neutralizan a los compuestos que dañan al ADN; el empacado del ADN dentro del núcleo de la célula, probablemente está diseñado en parte para proteger a los genes de las sustancias cáusticas producidas en el citoplasma durante el metabolismo. Pero a pesar de toda esta protección el daño ocurre inevitablemente. Uno o más nucleótidos pueden ser cambiados por otra sustancia química, interfiriendo con la expresión del ADN —su transcripción en ARN—, que crea las proteínas necesarias para desarrollar el trabajo de la célula.

A diferencia de las mutaciones en el ADN, el daño es reconocido por ciertas enzimas como una aberración en la cadena de nucleótidos, lo que produce una acción en respuesta al problema. Si el daño es suficientemente extenso, la célula puede dejar de reproducirse. (Esto puede no dañar al organismo, si tiene otras células en cantidades suficientes, para compensar la pérdida.) En otros casos, puede ser posible repararlo. Para esto, la célula necesita acceso al ADN de repuesto, tal como un mecánico automotriz necesita partes de repuesto para hacer reparaciones. En las células, hay ADN de reserva en cualquier sitio en que se de redundancia genética.

Existe una forma de redundancia dentro de las hebras complementarias de una sola molécula de ADN. Si hay daño en una sola hebra, éste puede ser extirpado por enzimas, y el hueco resultante se rellena con una cadena de nucleótidos unidos, a través del uso de la cadena complementaria, a modo de un templete. Este proceso, la reparación por escisión, ocurre continuamente en la mayoría de las células.

Una segunda forma de redundancia —que es más importante para comprender el valor de la reproducción sexual ocurre dentro de las células diploides de la línea germinal, que eventualmente se dividen para formar huevos o espermatozoides (que son haploides y contienen sólo una copia de cada cromosoma). Los dos miembros de cada par de cromosomas son redundantes y, por lo tanto, pueden efectuar reparaciones uno sobre el otro. En tales células, incluso el daño en las dos hebras (potencialmente letal para las células), puede ser reparado. Primero, la porción dañada del gene es extirpada, y entonces la hebra correspondiente es cortada de la otra molécula de ADN e insertada en el hueco del ADN dañado. Esto deja dos huecos de una sola hebra en cada molécula de ADN, y éstos pueden llenarse como en la reparación por escisión.

Esta forma de reparación es una parte integral de la meiosis, la división de la célula germinal diploide en célula huevo o espermatozoide. La meiosis difiere significativamente de la mitosis: antes de que la célula germinal se divida, los dos miembros de cada par de cromosomas se alinean lado a lado y se recombinan, o intercambian algunos de sus genes. (En la mitosis, tal intercambio de genes ocurre sólo rara vez.) Cuando se ha terminado, cada cromosoma contiene una mezcla de genes de cada uno de los padres del organismo. Entonces la célula se divide, dejando uno de los cromosomas alterados en cada una de las nuevas células germinales.

Cuando este proceso se dilucidó por primera vez, los científicos asumieron que el principal propósito de la meiosis era asegurar que cada célula germinal tuviera una mezcla única de los genes de sus padres. Pero en 1983, los biólogos descubrieron que el ímpetu para la recombinación proviene del daño del ADN. Se piensa que los huecos en la doble hebra en los cromosomas de la célula diploide germinal, hechos por enzimas que han reconocido el daño en esas zonas, son los lugares en donde ocurre el intercambio de genes. En otras palabras, de los dos procesos —recombinación y reparación— la reparación parece ser el fundamental; la recombinación se lleva a cabo para asegurar que las reparaciones se realicen.

Estudios de una gama de organismos sexuales —incluyendo levaduras, bacterias, virus, moscas de la fruta, y humanos— han corroborado la importancia de la reparación genética en la formación de las células. Cuando los entes vivos están sujetos a agentes que causan daño del ADN, la recombinación génica, en preparación para la reproducción sexual, aumenta en frecuencia. Y cuando los organismos pierden su habilidad para realizar reparaciones al recombinar ADN, la sensitividad de éste al daño, aumenta significativamente.

La reparación que ocurre cuando las células germinales se forman, es el mecanismo que subyace en la aseveración de Weismann de que “dos nadas no pueden hacer uno”. Si los dos nadas son dos moléculas de ADN dañadas o envejecidas, pueden ser reparadas, al formarse células germinales listas para la reproducción sexual. Consecuentemente, se complementa de nuevo el ADN transferido por cada padre. Esta forma altamente eficiente de mantenimiento genético es lo que explica, satisfactoriamente el por qué existe el sexo.

Con la hipótesis de la reparación en mente, es posible imaginar por qué la reproducción sexual evolucionó en organismos de una sola célula, similares a bacterias y virus, que son haploides. En tales criaturas, la reparación del daño en las dos hebras no es posible (porque no hay un segundo cromosoma con el cual trabajar); de alguna manera, deben haber encontrado una vía para combinar sus cromosomas con los de sus congéneres, para así volverse a completar. Tal vez comenzaron por desarrollar la habilidad para practicar la transformación, una función común a muchos tipos de bacterias que existen hoy. En este proceso, las bacterias toman, y mezclan en su propio ADN, fragmentos de cromosoma liberados por otras bacterias. La transformación es, esencialmente, una forma de sexo, aunque no está asociada con la reproducción, porque provee de nuevo material genético para ser usado en la reparación del ADN dañado. Eventualmente, conforme evolucionaron los primeros organismos diploides, debe haberse dado un proceso parecido a la transformación, que estuvo íntimamente involucrado en la reproducción.

Conforme la vida continuó diversificándose, los organismos diploides emergieron como la forma dominante. Aparentemente en este punto, el apareamiento ya no resultaría necesario, porque cualquier reparación en un cromosoma podría hacerse por recombinación con el otro miembro del par. Sin embargo, la mayoría de los diploides continuaron apareándose no, como Weismann pensó, para asegurar la variación genética en sus descendientes, sino para garantizar el éxito de la reparación del ADN.

La necesidad de suministros frescos de ADN para una reparación efectiva en organismos diploides surge de la forma en la cual los genes son expresados o enmascarados por otros genes. Frecuentemente, uno de los dos genes para un solo rasgo (uno heredado del padre y transportado en un cromosoma; el otro heredado de la madre y transportado en el otro) dominará, enmascarando al otro, el gen recesivo. Éste es el principio que Gregorio Mendel, el monje austriaco del siglo XIX, descubrió al experimentar con plantas de chícharo en el jardín de un monasterio. Si una planta con flores púrpuras se cruza con una que tenga flores blancas, de tal forma que cada descendiente herede un gen (o conjunto de genes) para morado y uno para blanco, sus flores serán todas púrpuras, porque el gen púrpura domina. Sólo las plantas que han heredado genes de flores blancas de ambos padres pueden tener flores blancas.

El mismo principio puede operar en el caso de genes mutantes, que frecuentemente son recesivos. Si la célula germinal de un padre contiene un gen defectuoso —uno que especifique, por ejemplo, que una estructura anormal (tal vez un miembro mal formado o un rasgo facial) debe desarrollarse— es probable que sea anulado en la prole por el gen normal de la célula germinal del otro padre. Sólo si ambos genes contienen la misma mutación ocurrirá el crecimiento anormal.

La razón por la cual el incesto, o la cruza entre parientes, lleva a la creación de descendientes desadaptados, es la expresión acentuada de esas mutaciones deletéreas recesivas. Si ambos padres son de la misma familia, cada uno puede haber heredado la misma mutación recesiva de un ancestro compartido. Ellos en sí mismos no serán afectados, porque también poseen genes normales dominantes para el mismo rasgo. Pero si las células germinales de ambos padres tienen la misma mutación recesiva, los descendientes pueden sufrir —por algo tan inocuo como un dedo mal formado o tan desastroso como un corazón que no funcione bien. Y si la cruza entre parientes es mala para la progenie, imaginen las consecuencias de que un organismo se reproduzca consigo mismo. Cuando la recombinación ocurre una y otra vez con el mismo material genético, las mutaciones recesivas pueden sumarse, y no hay nunca genes nuevos dominantes que eviten los problemas. El cruzamiento, por contraste, asegura que los cromosomas que se recombinan durante la meiosis, efectivamente enmascaren las mutaciones recesivas uno sobre otro.

Naturalmente, hay algunas especies que han abandonado el cruzamiento. Por ejemplo, una población de una lagartija común que vive en los desiertos del suroeste americano, se ha transformado en el transcurso de los últimos diez mil años, de sexual a partenogenética. Las hembras de esta especie fertilizan sus propios huevos, al introducir cromosomas de una de sus propias células tipo huevo (conocidos como cuerpos polares, que son producidos, junto con los huevos, durante la meiosis), de tal forma que nunca se introducen los genes de un segundo animal. Pero los biólogos creen que antes de que cualquier especie pueda hacer tal transformación a la reproducción asexual, debe haber eliminado de su lote genético, a través de la selección natural, la mayoría de las mutaciones dañinas recesivas. Una vez que la especie se torna asexual, sin embargo, es sólo cuestión de tiempo antes de que el número de tales mutaciones aumente de nuevo, —lo que puede explicar por qué la mayoría de las especies que cambian de reproducción sexual a asexual se extinguen pronto.

La hipótesis de la reparación también explica por qué la línea germinal es potencialmente inmortal. Una de las teorías más plausibles de cómo envejecen plantas y animales, es que sufren, a lo largo del tiempo, una cantidad insostenible de daño del ADN en sus células individuales. Las células somáticas pueden hacer numerosas reparaciones, pero eventualmente la constante acumulación de daño las estropea. Las células germinales, por otro lado, son creadas de tal forma, que se asegura que el ADN esta en un orden perfecto, o casi, y son pasadas a la siguiente generación antes de algo malo suceda.

Así, la línea germinal constituye la única aproximación que cualquier criatura terrenal tiene a la inmortalidad. “Es de esta forma que todo lo mortal es preservado”, dijo Diotima en el Symposium, “no para permanecer por siempre iguales, lo cual es prerrogativa de la divinidad, sino al sufrir un proceso en el cual las pérdidas causadas por la edad son reparadas por nuevas adquisiciones de un tipo similar…; es para asegurar la inmortalidad, que cada individuo es poseído por este deseo vehemente y este amor.”

 articulos
 
     

 Refrerencias Bibliográficas

Artículo aparecido en THE SCIENCES, mayo/junio de 1989. Traducción: Consuelo Bonfil S.

     
____________________________________________________________
     

Richard E. Michod
Universidad de Arizona, E.U.

como citar este artículo

     
R20Articulo1   menu2
PDF→                                                                
   
   
Radmila Bulajich y Rafael Martínez Enríquez
     
               
               

INTRODUCCION

Vivimos en un mundo en que los conceptos matemáticos y sus generalizaciones ocupan un sitio de privilegio. La descripción y el entendimiento de los fenómenos naturales y sociales recurren en forma creciente a las matemáticas, a sus técnicas y a sus formas de conceptualizar. El camino no es nuevo, nace con las antiguas civilizaciones, y ya en la Grecia de los clásicos era transitado por insignes y experimentados pensadores. Platón, durante una exposición que sembró polémicas entre sus contemporáneos, discutió su visión de un Universo organizado sobre la base de principios matemáticos. Una interpretación moderna de esa idea —debida a F. Browder— podría iniciar contemplando a las matemáticas como “la ciencia de la forma significante… la forma última transparente de todo conocimiento humano”.1 Algo similar fue expresado por el matemático y filósofo A. N. Whitehead: “la noción de que la existencia de una norma o patrón es algo importante es muy antigua. Todo arte descansa en el estudio de los patrones. La cohesión de los sistemas sociales depende de la continuidad de los patrones de comportamiento. De ahí que buscar patrones que provean de unidad a los eventos naturales y descubrir la estabilidad de tales patrones, así como sus posibles modificaciones, es la condición necesaria para la realización de lo excelso. Las matemáticas son la herramienta más poderosa para el entendimiento de patrones y el análisis de sus relaciones".2

El desarrollo de la matemática ha sido multifacético, y de vez en vez ha contribuido a revolucionar nuestras formas de concebir lo que significa entender y conocer. Una de las revoluciones más profundas en el pensar surgió de las aportaciones de Newton y Leibniz. Su cálculo diferencial e integral permitió una descripción detallada de una amplia gama de fenómenos naturales, desde los movimientos planetarios hasta la estructura del átomo. Sin embargo su rango de aplicabilidad se limita a problemas que involucran un comportamiento “suave” o, dicho de otra manera, cambios en una(s) variable(s) produciendo cambios “equiparables —llamados continuos por los matemáticos.

La realidad —sin atender a nuestra comunidad— con frecuencia se aparta de las consideraciones anteriores y nos presenta serias dificultades: si los sistemas en cuestión sufren cambios bruscos o “discontinuidades”, el aparato matemático que se origina en el cálculo se enfrenta a obstáculos insalvables para su aplicación exitosa. Paradójicamente este tipo de problemas ha atraído en los últimos años a muchos de los, grandes matemáticos, quienes han aceptado el reto que surge de intentar analizar los fenómenos que se resisten a ser descritos por el cálculo clásico. Estos fenómenos abundan, algunos han sido “identificados” en términos del lenguaje de la ciencia moderna —ondas de choque, transiciones de fase, rompimiento de estructuras sujetas a esfuerzos— y otros nos han llegado desde los tiempos clásicos, como por ejemplo, la turbulencia y el nacimiento de las formas, tanto en los seres vivos como en el mundo de lo inanimado.

En un intento de explicar —y en lo posible de clasificar— directamente los tipos de procesos discontinuos que pueden aparecer, el matemático francés René Thom desarrolló a principios de los setentas una teoría cuyo rasgo más sobresaliente es la conclusión de que las relaciones matemáticas que describen este tipo de procesos pertenecen a sólo siete tipos básicos distintos de comportamiento. Con el objeto de enfatizar el carácter “instantáneo” de los cambios Thom les llamó catástrofes y, por consiguiente, el aparato matemático que las estudia fue bautizado con el atractivo nombre de Teoría de Catástrofes.

PERFIL DE LA TEORIA DE CATASTROFES

La Teoría de Catástrofes (TC) tiene su aplicación inmediata en los sistemas cuya descripción matemática corresponde, si hacemos una analogía con la mecánica, a un sistema con un alto grado de fricción, y que obedece a la Ley de Aristóteles (velocidad es proporcional a la fuerza), en lugar de a la conocida Segunda Ley de Newton (aceleración es proporcional a la fuerza). El comportamiento del sistema se puede considerar determinado por una función de energía E —que no necesariamente es la energía física del sistema— que nos indica que el sistema tiende rápidamente a un estado estacionario o a uno de equilibrio.

Esta situación perfila uno de los elementos que contribuyen al atractivo de la TC, a saber, su estrecho apego a lo visual, a la posibilidad de mostrar gráficamente las características de los sistemas o procesos bajo estudio. Esto resulta evidente si, por ejemplo, suponemos que el estado en que se encuentra un sistema puede ser descrito por una variable x, y que además conocemos el comportamiento de la función E en cuanto a su dependencia respecto de x. Una posible gráfica sería la siguiente:

Entra figura

Los puntos de equilibrio corresponden a los puntos donde la tangente es horizontal y podemos distinguir tres tipos de puntos: x1, x3 y x5, puntos donde E es un máximo y corresponden a estados de equilibrio inestable; en x5 hay un punto de inflexión (cambia de concavidad la gráfica) y x2, x4, donde E es mínima, y son los estados de equilibrio estable. Estos últimos se consideran los más interesantes pues, como su nombre lo indica, son los estados del sistema a los cuales éste regresa si es perturbado ligeramente. La mejor forma de ilustrar estas ideas y las que son propias de la TC, es observando cómo se utilizan en un ejemplo sencillo en cuanto a su funcionamiento, pero rico en lo que concierne al manejo del aparato conceptual de la TC. A lo largo del desarrollo que sigue se hace evidente la capacidad de la información cualitativa —que se aprecia visualmente en las gráficas y los diagramas— para lograr un entendimiento de las características del proceso bajo estudio.

UN EJEMPLO ELEMENTAL

Para entender cómo fuerzas continuas pueden producir saltos catastróficos E. C. Zceman diseñó un juguete educativo que es muy fácil de construir e ilustra este fenómeno en el caso de la catástrofe denominada cúspide.3, 4

El procedimiento más sencillo para construirlo es tomar dos ligas elásticas casi iguales. La longitud de las ligas sin elongar será la unidad. Cortamos un disco de cartón cuyo diámetro es una unidad y le colocamos una tachuela en el punto Q cerca de la circunferencia, como se indica en la figura 1. Montamos el disco, con la tachuela hacia arriba, en una base de madera y lo fijamos, en el centro de la base, con un clavo colocado en el centro del círculo O. Amarramos las ligas en la tachuela, punto Q, y una de ellas la fijamos con otro clavo en el punto R de la base a dos unidades del centro O. La otra liga queda libre de un lado; a este punto le llamaremos el punto control c. Por lo tanto, el espacio control C será la superficie de la madera y el “estado” de la máquina estará dado por la posición del disco. Dicha posición estará determinada por el ángulo x = RÔQ. Las posibles posiciones del disco corresponden a los puntos de un círculo llamado el espacio de estados.

Cuando movemos el punto control c suavemente en la superficie de la madera el estado x también cambiará suavemente, excepto en algunos puntos donde se registrará un salto brusco. Si marcamos un punto en la superficie cada vez que observemos un salto, muy pronto nos daremos cuenta que dichos saltos ocurren en una curva que tiene forma de diamante curvo, tal y como se ilustra en la figura 1. Esta curva se conoce como el conjunto de bifurcación B. Sin embargo, algunas veces se ve que c cruza el perímetro sin causar ningún salto. Por ejemplo, si hacemos que c cruce en ambas direcciones por los ángulos rectos de los ejes de simetría de la máquina, entonces sólo saltará en una de las dos direcciones, y estos saltos no ocurren en el mismo lugar, es decir, se observará un salto brusco cuando abandonamos la región B siempre y cuando hubiésemos entrado previamente por el lado opuesto. Finalmente, se puede ver que si c se encuentra fuera del diamante, entonces sólo hay un estado de equilibrio del disco, pero si c se encuentra dentro del diamante, entonces hay dos posiciones estables en las cuales puede permanecer el disco, una con Q inclinada hacia la derecha, y la otra con Q hacia la izquierda. Si tenemos cuidado al mover el punto c podemos encontrar un tercer punto de equilibrio, pero éste es inestable.

 
Figura 1. La máquina de catástrofes.

Con el objeto de entender mejor la forma como se hace el modelaje matemático, analizaremos este ejemplo con cierto detalle: consideremos para un punto control dada la función fc:X → R, la cual nos da la energía potencial de la ligas para distintos posibles estados x. Esta energía resulta ser una función suave f: C 3 X → R, donde f(c,x) = fc (x). Para una c dada la maquina tenderá rápidamente a un estado donde la energía potencial se minimiza, es decir donde f alcanza un mínimo. Para c fuera del conjunto de bifurcación B, fc tiene solamente un mínimo, es decir, un único punto de equilibrio estable, y la posición del disco estará determinada unívocamente. Para puntos dentro de B, fc tiene dos mínimos separados por un máximo (el punto de equilibrio inestable). En cuál de los dos mínimos la máquina decida estar, dependerá de su estado previo.

 
Figura 2. Gráficas de la energía en las ligas para pequeños valores de x, y puntos control cercanos a 0. En (a) se representan puntos fuera de B y en (b) puntos dentro de B.

El máximo y el mínimo de fc están dados por

Fórmula 01

La gráfica de (entra Fórmula 02) —haciendo variar c en el espacio control C— genera una superficie suavemente doblada M contenida en C 3 X con dobleces que se proyectan sobre B. Para la región de C cercana al punto cúspide A (ver figura I), y para pequeños valores de x, esta región se muestra en la figura 3. La parte superior e inferior de M representan los mínimos de fc dados por (entra Fórmula 03), y la parte intermedia de la sábana representa el máximo de fc dado por (entra Fórmula 04).

Los distintos estados que toma la máquina estarán siempre sobre la superficie M, variando entre la parte superior e inferior de mínimos, pero no apareciendo en la región del máximo (inestable). Esto nos explica el comportamiento de la máquina, ya que si el punto control c lo movemos a lo largo de la línea 1 marcada en el espacio control C (véase figura 3), el estado x cambia suavemente a lo largo de la trayectoria 19 en la superficie M. Pero si c viaja a lo largo de la línea p de izquierda a derecha, entonces x cambia suavemente hasta alcanzar el punto Q2, donde “saltará” de la sábana inferior a la sábana superior de la superficie, es decir, la máquina “salta” de un estado al otro. Hablando en términos de las gráficas de fc, es decir, las gráficas de energía, el mínimo se une con el máximo y desaparece; es entonces que el estado salta al mínimo restante, causando así el salto brusco (véase la figura 4).

 
Figura 3. La superficie de la cúspide.

Si c viaja a lo largo de la línea p, pero ahora en dirección opuesta, x permanecerá en la sábana superior y el salto no ocurrirá hasta llegar al punto Q1. Por tanto, el estado de la máquina cambiará suavemente con c hasta cruzar el conjunto B por segunda vez. Esto ocasiona que los saltos de la parte superior a la parte inferior de la superficie M, y de la sábana inferior a la superior, no ocurran en el mismo punto. A este hecho se le conoce con el nombre de histéresis (por analogía con el fenómeno físico así denominado).

Regresando a la máquina de catástrofes, y experimentando más, se puede ver que la cúspide frente al punto A tiene un comportamiento similar, pero las otras dos cúspides son duales, en el sentido de que los papeles del máximo y los mínimos están invertidos (figura 1). Es decir, los mínimos son inestables y el máximo representa un punto de equilibrio estable. Las diferencias se pueden observar haciendo pequeños círculos con los puntos control alrededor de cada una de ellas.

 
Figura 4. Cambios en las gráficas de f que resultan de desplazar el punto c a lo largo de la recta p.

LA CATASTROFE CUSPIDE

Una vez detallado el comportamiento observado y la forma de descripción, procedemos a introducir lo que seria una explicación más detallada en cuanto a la parte matemática.

Usando la ley de Hooke obtenemos una ecuación de tipo gradiente para la fuerza, de donde se deriva la ecuación de energía para las ligas. Si calculamos la ecuación que genera la superficie M obtenemos4

1.3a + 1.8bx - 1.3ax2 - x3 = 0

donde (a,b) son las coordenadas en el espacio de parámetros C, centrado en el origen, tal como se muestra en la figura 3. Esta ecuación es una aproximación, ya que los términos de grado mayor que 3 en x, y mayores que l en a y b, han sido ignorados. De hecho, para escribir la ecuación que mejor describe la superficie M se necesita una serie de Taylor infinita en x. Sin embargo, el teorema de clasificación de Thom4, 6, 7 nos dice que M es localmente equivalente a la cúspide canónica, la cual está dada por

a + bx - x3 = 0

Al hablar de equivalencia local estamos pensando que existe un cambio de coordenadas en una vecindad del origen, tal que M está dada precisamente por esta ecuación. Por tanto el teorema de Thom nos dice que podemos reemplazar la serie de Taylor infinita —con la cual resulta difícil trabajar— por una ecuación cúbica.

La figura 3 representa la superficie dada por ésta ecuación. El conjunto de bifurcación B es la proyección sobre un plano perpendicular al eje x de los dobleces de la superficie y nos da la cúspide 27a2 = 4b3.     

Si tomamos una sección de la superficie de la cúspide dejando b constante, b > 0, obtenemos la catástrofe llamada doblez (ver figura 5).   

Un hecho importante de estas catástrofes es que ambas son estables, donde por estable se entiende que para pequeñas perturbaciones de la función de energía obtenemos una superficie que es equivalente localmente a la original. 

Para todos debe resultar obvio que cualquiera que sea el proceso descrito, una vez determinada la ecuación para M, y si ésta resulta como en nuestro ejemplo previo, todo lo dicho en la sección anterior sigue siendo válido con sólo “interpretar” el significado de las variables en juego.

Hay que enfatizar que el resultado matemático que permitió la simplificación, sin la cual la TC no tendría la fuerza que posee, es el teorema de clasificación de Thom. Dada su importancia procedemos a explicarlo con más detalle.

 
Figura 5. Dos catástrofes doblez, cuyo conjunto de equilibrio está dado por a + bx - x3 = 0 (b > 0).

EL TEOREMA DE CLASIFICACION DE THOM

Con el fin de establecer un balance entre la sofisticación inherente al teorema y el carácter de divulgación de este escrito daremos únicamente una idea intuitiva del teorema.

Teorema. Dado un espacio de estados n-dimensional, X, un espacio de control, C, de dimensión 2 y f una función genérica suave* definida en X y parametrizada por C. Entonces M, el conjunto de puntos singulares de f (es decir M está definida por (entra Fórmula 05), es una superficie suave contenida en C x X, y las únicas singularidades que aparecen en la proyección de M en C son puntos doblez y cúspides.  

En otras palabras, la figura 3 ilustra las estructuras de M más complicadas que pueden aparecer localmente; globalmente pueden existir varias cúspides.  

La reducción de la dimensión del espacio control C —de dos a uno— implica que el conjunto de puntos singulares de f es una curva cuyas únicas singularidades son dobleces.

El teorema se extiende a espacios control de dimensión mayor. El aumento de la dimensión en el espacio control da lugar a nuevas catástrofes. De hecho, si el espacio control es de dimensión 3 tenemos tres nuevas singularidades, cuyos conjuntos de bifurcación aparecen en la figura 6.   

Si aumentamos la dimensión del espacio control en uno, es decir, que la dimensión de C sea igual a 4, obtenemos dos nuevas singularidades: la catástrofe mariposa y la parabólica Umbílica.4 El Teorema de Thom afirma que siempre es posible efectuar un cambio de coordenadas suave y reversible, con la propiedad de que en la vecindad de un punto dado, el sistema presenta uno de los siete tipos posibles de comportamiento mencionados anteriormente. Estas son las llamadas catástrofes elementales.

Uno de los hechos sorprendentes del teorema de clasificación es que admite sólo un número finito de posibilidades, y que el número de puntos singulares es en realidad muy pequeño. Sin embargo, esta clasificación perdería fuerza si estas catástrofes no formaran un conjunto abierto y denso en el espacio de funciones suaves definidas en X, es decir, tenemos la posibilidad de afirmar que casi todas las singularidades son de este tipo.4, 7 Las catástrofes elementales poseen otra propiedad fundamental que recibe el nombre de estabilidad estructural. Esto significa, a grosso modo, que la geometría no sufre cambios relevantes al modificar —o perturbar, como diría un experto— ligeramente la función de energía. Este hecho revela su importancia si consideramos que todo fenómeno que ocurra con suficiente regularidad como para ser identificado como tal, debe poseer algún tipo de estabilidad propia ante las pequeñas perturbaciones que ocurren en su medio ambiente.

 
Figura 6. Conjuntos de Bifurcación. (a) Cola de Golondrina, Conjuntos de bifurcación. (b) Elíptico umbílico, (c) Hiperbólico umbílico.

Una demostración completa del teorema de Thom se puede encontrar en [4]. Para dimensión del espacio control ≥ 5 la clasificación fue extendida considerablemente por Arnold y la escuela Soviética.8, 9 Thom se avocó al estudio de estas siete singularidades que corresponden al espacio control de dimensión ≤ 4, ya que estaba especialmente interesado en aplicaciones a la embriología, en la cual C representa el espacio-tiempo.

Antes de pasar a discutir algunas aplicaciones quisiéramos enfatizar que las catástrofes elementales no son solamente importantes por los diversos fenómenos que se han logrado explicar con ellas, sino que la geometría de cada una de ellas es sorprendente e interesante por sí sola.4, 7, 13 Es importante recalcar que en muchas aplicaciones la dinámica no está determinada por una ecuación del tipo gradiente, y en estos casos la teoría de catástrofes no nos puede decir mucho, ya que catástrofes no elementales pueden ocurrir. Un ejemplo clásico en este sentido es la bifurcación de Hopf.10

APLICACIONES

Desde sus inicios la TC hizo un reclamo en cuanto a su aplicabilidad a una gama muy amplia de situaciones y de problemas, todos ellos caracterizados por cambios discontinuos o catastróficos en alguna(s) de su(s) variable(s) conforme se sucedían variaciones suaves en los parámetros que determinaban las características del sistema. El interés que despertó entre los hombres de ciencia dio como resultado la aparición de una gran cantidad de artículos en donde la TC daba cuenta, en forma por demás elegante, de varios problemas que hasta entonces habían sido objeto de estudios con resultados poco satisfactorios en cuanto al esclarecimiento de los mecanismos generales que determinaban la dinámica de los sistemas en cuestión. Las limitaciones propias de este tipo de presentaciones hacen difícil ilustrar en detalle el uso de la TC, razón por la cual, en aras de esbozar el “paisaje”, sólo mencionaremos algunos problemas en donde se hace patente la “belleza” de este enfoque.

La óptica fue una de las primeras ramas de la ciencia que hizo uso de la TC, en particular en el estudio de las “cáusticas”.11 Un ejemplo sencillo de cáustica es la brillante silueta en forma de cúspide que se observa sobre la superficie de una taza de café cuando la luz se refleja en la orilla de la taza e incide en la superficie líquida. Las matemáticas nos dicen que en este caso se presenta la llamada “catástrofe de cúspide”. Los rayos de luz forman en un “espacio fase” adecuado una superficie con un doblez que al ser proyectado en el espacio real resulta en una cúspide. Es posible demostrar que los únicos tipos de cáusticas que pueden presentarse son las correspondientes a las catástrofes. Más aún, el arcoíris, que permaneció tanto tiempo en espera de una descripción adecuada, tiene en la catástrofe de doblez a un modelo del comportamiento de los reflejos de la luz solar en las gotas de lluvia. Otro ejemplo muy interesante en donde la TC juega un papel importante es la estabilidad de estructuras elásticas que se estudian en ingeniería (puentes, pilares, etc.)12 El comportamiento de este tipo de estructuras es modelado en forma aceptable por el hiperbólico umbílico.

Un último ejemplo, y posiblemente de los más ambiciosos en cuanto a riqueza conceptual y posibles consecuencias para el quehacer matemático, es el expuesto por Thom en su libro Stabilité structurelle et morphogénèse (1972).6 En esta obra la TC es presentada como una teoría general de la morfogénesis (nacimiento o creación de formas), con la biología ocupando un lugar importante. Dado que presenta “líneas de acción generales, mucho de lo ahí expresado sólo alcanza el nivel de conjetura”, y por ello quedó sujeto a comprobación tanto a nivel experimental como metodológico. La idea principal era modelar procesos morfogenéticos en términos matemáticos, enfatizando los aspectos cualitativos (de ahí el papel clave que juega la topología), y encontrar y clasificar las propiedades generales que dichos modelos deberían poseer. El crecimiento de un organismo era contemplado como una serie de cambios graduales provocados por cambios catastróficos en los procesos bioquímicos del sistema. Los cambios suaves a su vez podrían ser la causa de la aparición de otras catástrofes y así sucesivamente. Los procesos así tratados de ésta se consideraban vinculados a alteraciones —en otras escalas de tamaño— de las formas de los organismos. Estas ideas fueron tomadas posteriormente por E. C. Zeeman,14 quien las utilizó en la descripción de un embrión de anfibio. Aquí cabe recordar que sin importar lo bello que una teoría pueda parecemos, su utilidad esta fuertemente asociada a su verificación experimental. En dichos términos las ideas de Thom han superado la prueba, y desde la década de los años setenta, proliferaron las aplicaciones de la TC en otras ramas del conocimiento tales como astronomía,11 mecánica de fluidos,11, 12  fenómenos críticos,11 psicología,4, 11 lingüística,15 además de en las ciencias sociales: economía, sociología e historia.11, 25

CONCLUSIÓN

La Teoría de Catástrofes es con todo rigor una rama de las matemáticas. Plenamente establecida, es una parte de la teoría de singularidades. Su campo de acción nace con el cálculo y continuará creciendo en tanto el estilo de hacer ciencia —el marco conceptual en que se sitúa— siga siendo el de la ciencia actual. Pocas ramas de la matemática en las últimas décadas han generado el entusiasmo que la TC produjo en los años recientes. Entendida adecuadamente la TC aporta nuevos puntos de vista y manera de revelar los elementos esenciales en el desarrollo de ciertos procesos naturales, sociales o del intelecto. Sin embargo, a final de cuentas la TC decepcionó a mucha gente.16 Los críticos decían: “los modelos de la TC son simplemente ‘descripciones’ y no aportan nada nuevo en cuanto a explicación del fenómeno”. En el caso de los procesos embriológicos estudiados por Thom se decía que lo conducente era recurrir a modelos basados en la biología molecular, es decir, había que remitir la explicación a los elementos físicos básicos que conforman el sistema. Sólo con base en ellos se puede hablar de una explicación. De estos argumentos queda claro que lo que está en juego es algo relacionado con la distinción entre modelos descriptivos y modelos explicativos. Los puntos finos de este debate poseen un grado de sofisticación que rebasa las intenciones de esta presentación. Aun así cabe hacer algunas consideraciones. ¿Cuáles son los criterios que permiten calificar a un modelo como poseedor de un mayor poder de explicación que otro? ¿Podríamos considerar a la Ley de Gravitación Universal como un modelo descriptivo? Ciertamente no explica todo en tanto que no señala cuál es el mecanismo concreto que permite se genere la interacción entre dos cuerpos separados por una distancia finita (el mismo Newton se rehusó a discutir esta cuestión al declarar Hypotheses non fingo). Y sin embargo sería absurdo negar que la ley de Newton es uno de los más fantásticos éxitos del pensamiento a lo largo de la historia. Permite englobar una gran cantidad de hechos empíricos a la vez que ofrece la oportunidad de someter a una sola ley fenómenos aparentemente no relacionados (el movimiento planetario, las mareas, la caída de los cuerpos a la superficie terrestre). Queda la duda entonces de qué es lo que debemos considerar como una explicación. Thom ha señalado que una posible, respuesta debería apuntar a considerar como explicativo a todo cuerpo teórico que permita un decremento en la arbitrariedad de la descripción de un conjunto de datos empíricos. Desde este punto de vista no se tiene una explicación a menos que el modelo asocie el fenómeno, analógica o formalmente, a situaciones de mayor generalidad. Una teoría que reuniera esta característica sería a la vez una generadora de modelos. Qué tanto responde la TC a estas características está aún a discusión, y pudiera ser que solo el paso del tiempo y nuevos avances o cambios en las formas de discurrir y entender podrán dilucidar la cuestión.17 Que así pudiera suceder no es tan inusitado como podría parecer. Una y otra vez teorías que habían sido descartadas han vuelto a resurgir, y aunque la dinámica de este acontecer es muy compleja, podemos citar dos ejemplos de teorías que no hace más de tres años cobraron notoria popularidad, la primera por sus implicaciones científicas y tecnológicas y la segunda por su capacidad de ampliar nuestro poder descriptivo: la superconductividad, con la obtención de materiales superconductores a temperaturas cada vez más cercanas a que tengan un uso práctico, y la teoría de fractales, que aborda el estudio de objetos de geometría tan extravagantes como la de los copos de nieve vistas al microscopio o de las caprichosas formas que adoptan las nubes. Y sin embargo, en algún momento en el pasado, ambas disciplinas parecieron agotadas en cuanto a su objeto de estudio.

 articulos
 
     

 Refrerencias Bibliográficas

1 Browder, F. E., y S. Maclane, 1978, The Relevance of Mathematics, Mathematics Today, ed. Lynn A. Steen, Springer-Verlag, N.Y.
2 Whitehead Alfred North, 1956, Mathematics as an element in the history of thought, The World of Mathematics, ed. J. R. Newman, vol. 1, Simon and Shuster, N.Y.
3 Zeeman, E. C., 1982, A Catastrophe machine, Towards a theoretical biology 4, ed. C. H. Waddington, 276-282.
4 Zeeman, E. C., 1977, Catastrophe Theory, Reading, Mass: Addison-Wesley (Colección de artículos de Zeeman).
5 Saunders, P. T., 1980, An introduction to Catastrophe Theory, Cambridge University Press.
6 Thom, R., 1975, Structural Stability and Morphogenesis, W. A. Benjamin, Inc.
7 Brocker, Th., 1975, Differentiable Germs and Catastrophes, Cambridge University Press.
8 Arnold, V. I., 1974, Critical points of smooth functions, Proc. Int. Cong. Math., Vancouver 19-39.
9 Arnold, V. I., 1975, Critical points of smooth functions and their normal forms, Russian Math. Surveys 30, 1-75.
10 Marsden, J. E., y M. MacCracken, 1976, The Hopf Bifurcation and its applications, N.Y. Springer-Verlag.
11 Poston, T., & I. Stewart, 1978, Catastrophe theory and its applications, Pitman, London.
12 Gilmore, R., 1981, Catastraphe theory for scientisns and engineers, Wiley-Interscience.
13 Woodcock, A. E. R., & T., Poston, 1973, A geometrical study of the elementary catastrophes, Lectures notes in Math., Springer-Verlag 373.
14 Zeeman, E. C., 1974, Primary and Secondary Waves in Developmental Biology, Lectures on Mathematics in Life Sciences, Vol.7, A.M.S.
15 1975, Stewart I., The Seven Elementary Catastrophes, New Scientist.
16 Tonietti, 1983, T. Catastrofi, una controversia scientifica, ed. Dedalo.
17 Thom, R., 1984, Matemática y Teorización Científica, en: Pensar la Matemática, varios autores, Tusquets Editores, España. 
 

* Suave quiere decir que la función tiene derivadas de todos los órdenes. Genérica significa que si fc es la función correspondiente al punto control c, para cualquier punto c' suficientemente cercano a c, la función correspondiente fc' es de la misma forma que fc, es decir, las funciones son equivalentes.

     
____________________________________________________________
     

Radmila Bulajich y Rafael Martínez Enríquez
Departamento de Matemáticas, Facultad de Ciencias de la UNAM.

como citar este artículo

     
Você está aqui: Inicio Blog (2) revistas revista ciencias 20