revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
Calidad de vida un concepto en discusión
Solapa67-2
Calidad de vida, salud y ambiente
 
Magalí Daltabuit, Juana Mejía y Rosa Lilia Álvarez (coordinadoras)
 
crim, unam/ini.
 
 

HTML ↓
PDF Regresar al índice
     
La conceptualización actual de la calidad de vida y su aplicación empírica —la evaluación de los niveles de pobreza— obliga a revisar la discusión sobre las necesidades básicas humanas y sus satisfactores (que surge a partir de los años setentas) ante el fracaso del desarrollo económico para resolver los problemas de pobreza y mejorar la condición de las mayorías sociales en el mundo. Frente a la imposibilidad de generalizar en los países subdesarrollados los modos de vida de los desarrollados, se propone el enfoque de las necesidades básicas que se centra en conseguir, al menos, la satisfacción de éstas en toda la población.
 
Existen dos posiciones principales en este debate. Una es la de autores como Amartya Sen y Julio Boltvinik, que sustentan que las necesidades humanas fundamentales son finitas, pocas y clasificables; que son las mismas en todas las culturas y en todos los períodos históricos, por lo que definen en núcleo irreductible de necesidades básicas que al no cubrirse generan pobreza absoluta. Esta posición argumenta que el proceso de globalización de las relaciones económicas, políticas y culturales ha permitido una relativa homogeneización de las necesidades y los satisfactores humanos, conformando sistemas de necesidades de las sociedades actuales, caracterizados por la racionalidad del modelo de desarrollo económico hegemónico. Partiendo de esta perspectiva se ha generalizado, en la evaluación de la calidad de vida, la medición empírica de un núcleo irreductible de necesidades que deben ser reconocidas y resueltas, independientemente del contexto social en que se producen (alimentación, salud, vivienda, educación, socialización, información, recreación, vestido, calzado, transporte, comunicaciones básicas) y la seguridad de cubrirlas a lo largo de la vida.
 
Otros autores, como Peter Townsend, sostienen que las necesidades humanas tienden a ser infinitas, que están constantemente cambiando, que varían de una cultura a otra y que son diferentes en cada periodo histórico. Es decir, que las necesidades humanas son relativas, así como la pobreza. El argumento que sustenta esta posición es que debemos tener presente que la homogeneización de necesidades está matizada de forma determinante por el componente subjetivo, que expresa contextos culturales específicos.
 
En una tercera posición, sostenida por Max-Neef y Elizarde entre otros, se plantea que hay que distinguir necesidades y satisfactores, ya que lo que está culturalmente determinado son sólo los satisfactores de esas necesidades y que la norma de pobreza se compone de dos elementos: el núcleo de pobreza absoluta más la pobreza relativa. Estos autores proponen esquemas de clasificación de las necesidades, tomando en cuenta diferentes categorías existenciales: ser, tener, hacer y estar; y categorías axiológicas como las de subsistencia, protección, afecto, entendimiento, participación, ocio, creación, identidad y libertad.
 
En este libro se revisa el concepto de calidad de vida, los paradigmas donde se ha sustentado su análisis, así como su dimensión histórica. Se aborda y se cuestiona la metodología para su evaluación. Se recalca la necesidad de incluir los aspectos subjetivos y la importancia de considerar la dimensión cultural y ambiental que abarca el concepto teórico.Chivi67
 

Fragmentos de la introducción.

_______________________________________________________________

 

como citar este artículo

 

Daltabuit, Magalí y Mejía Juana, Álvarez Rosa Lilia. (2002). Calidad de vida, concepto en discusión. Ciencias 67, julio-septiembre, 79. [En línea]

 
Regresar al índice

 Nuestro patrimonio natural

Solapa67-1
Protegiendo lo nuestro.
Manual para la gestión ambiental comunitaria, uso y conservación
de la biodiversidad de los campesinos indígenas de América Latina
 
Eckart Boege, Porfirio Encino y Gustavo Ramírez
 
pnuma / ini / Fondo para el Desarrollo
de los Pueblos Indígenas de América
Latina y el Caribe.
   
HTML ↓ PDF Regresar al índice / artículo siguiente
     
La conservación y el manejo razonable de la biodiversidad se han convertido en una condición para alcanzar los objetivos del desarrollo sustentable. Sin embargo, los bosques y las selvas tropicales, así como los ecosistemas en los que ha evolucionado y se reproduce esta biodiversidad, no solamente constituyen reservas naturales, sino que también son territorios habitados por diversas culturas donde han configurado sus estilos étnicos de desarrollo aprovechando y transformando sus riquezas naturales.
 
La participación de la población local en la gestión de los recursos naturales se ha legitimado y legislado en los últimos años, al ser reconocida por organismos nacionales como una condición para dar eficacia a las políticas ambientales, y como un derecho de los pueblos para beneficiarse de su patrimonio de recursos naturales. A partir de Río 92 y de la puesta en operación de la Convención sobre Diversidad Biológica, varios proyectos de conservación de la biodiversidad se han desarrollado con la participación directa de las comunidades que habitan estas zonas.
 
No obstante lo anterior, la capacitación de las comunidades para la conservación y el manejo sustentable de los recursos de la biodiversidad continúa siendo una necesidad fundamental para alcanzar los objetivos de sustentabilidad y equidad, para lograr que las propias comunidades generen una capacidad de autogestión y cogestión, así como para la protección de sus recursos en beneficio propio y de la humanidad en su conjunto. La capacitación comunitaria cobra aún más importancia ante el propósito de recuperar y actualizar prácticas tradicionales de uso de los recursos, pero también ante la necesidad de renovar dichas prácticas en el contexto de los cambios globales de nuestro tiempo, de articularlas con las políticas ambientales y de enriquecerlas mediante una apropiación cultural de los potenciales de la ciencia y la tecnología moderna.
 
 
Este manual está concebido como material básico para un proyecto de capacitación comunitaria, para la conservación y el manejo sustentable de la biodiversidad y de los bosques de los países de América Latina y el Caribe.
 
 
De esta manera, se busca contribuir al desarrollo sustentable de la región; a un desarrollo que preserve las riquezas naturales de nuestros países por medio de una amplia participación social, que reconozca e impulse la riqueza y diversidad cultural de los pueblos de América Latina y el Caribe.Chivi67
 
Fragmentos de la Introducción escrita por Enrique Leff.
_______________________________________________________________
 

como citar este artículo

Boege, Eckart y Encino Porfirio, Ramírez Gustavo. (2002). Nuestro patrimonio natural. Ciencias 67, julio-septiembre, 78. [En línea]

Regresar al índice / artículo siguiente
  P01 P02  
 
 
     
El principio de la inercia
Pa­ra llegar a es­te prin­ci­pio se re­quirió un gran pro­ce­so de abs­trac­ción, por la sen­ci­lla ra­zón de que no es po­si­ble ob­ser­var­lo di­rec­ta­men­te en la na­tu­ra­le­za ni pue­de in­fe­rir­se in­me­dia­ta­men­te de la ex­pe­rien­cia, si­no a tra­vés de una es­pe­cu­la­ción que sea co­he­ren­te con lo ob­ser­va­do.
José Luis Álvarez García

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
El análisis de la evolución de las ideas científicas pone de manifiesto el enorme esfuerzo realizado para llegar a algunas de las nociones fundamentales laboriosamente desarrolladas por los grandes genios —esfuerzo que ha significado la superación de grandes obstáculos para que tales nociones sean accesibles e incluso parezcan naturales. Éste es el caso del principio de la inercia. Pero al mismo tiempo, para comprender este principio se requiere un gran proceso de abstracción, por la sencilla razón de que no es posible observarlo directamente en la naturaleza. El principio de la inercia no puede inferirse inmediatamente de la experiencia, sino a través de una especulación que sea coherente con lo observado. Tal y como señala A. Koyré, “el principio de la inercia no surgió ya elaborado del pensamiento de Descartes o de Galileo como Atenea de la cabeza de Zeus”, fue producto de un largo esfuerzo del pensamiento.
 
Este principio se encuentra al interior del marco del fenómeno del movimiento, el cual fue objeto de estudio desde la Antigüedad, y que tenía que ser explicado por cualquier filosofía que aspirara a ser aceptada. El primer estudio sistemático del movimiento corresponde a Aristóteles, cuyas ideas al respecto dominaron en su propia época y hasta los primeros siglos de nuestra era, para después ser recuperadas y remodeladas por Occidente, vía la tradición árabe, en los finales del siglo xi. Y fue la crítica a las teorías aristotélicas del movimiento, hecha primero por los escolásticos de la Edad Media y después por los pensadores del Renacimiento, lo que constituye el telón de fondo de donde parte Galileo para echar las bases de la nueva ciencia del movimiento, junto con los trabajos de Kepler, Gassendi, Descartes y Huyghens para llegar así a la gran síntesis newtoniana.
 
Aristóteles es el fundador de la física como ciencia de las cosas naturales; señala que el movimiento y el cambio son los fenómenos básicos de la naturaleza, y que quien no los entienda niega a esta última. Para el filósofo griego, el estudio del movimiento descansa en las nociones de espacio y tiempo, que para él no son categorías universales, ya que no pueden existir fuera de las cosas. Es así como los objetos particulares determinarán el espacio y los sucesos individuales, el “antes” y el “después”, el tiempo.
 
Para Aristóteles el espacio o lugar “no es aquello donde algo esté, sino que el lugar existe junto con la cosa, pues junto con lo limitado están los límites”. Teofrasto, su discípulo, describe la concepción aristotélica de espacio: “Quizá no sea, pues, el espacio una realidad en sí, sino que es determinado por la posición y la serie de las cosas conforme a su naturaleza y a sus funciones naturales”. No existe “lugar” fuera de las cosas, sino sólo como la determinación geométrica de una cosa que puede padecer movimiento, es decir, el lugar es la consecuencia en la relación que dos cuerpos tienen entre sí. Por tanto, el espacio vacío carece de estructura y por ello de cualidades. Aristóteles concluye: “Puesto que hemos demostrado que no existe el espacio en sí, se sigue de ello que tampoco existe un espacio vacío”.
 
El espacio aristotélico posee una estructura determinada por el centro del mundo, y a partir de ahí define los movimientos naturales en el mundo sublunar como aquellos que se dirigen a dicho centro. Los cuerpos son pesados o leves, dependiendo de si se acercan al centro o se alejan de él cuando se les deja libres para moverse, ya que se dirigirán a su lugar natural. Como conclusión, la permanencia del movimiento es imposible, ya que en algún momento el cuerpo en movimiento llegará al lugar que por su naturaleza le corresponde y, por lo mismo, se detendrá. Esto es, que para los movimientos naturales que tienen lugar debajo de la esfera de la Luna es imposible la permanencia del mismo, pero también lo es para los movimientos violentos que, dentro de la física aristotélica, requieren un motor para moverse.
 
Dentro de la física aristotélica el vacío no puede existir, ya que el espacio está totalmente lleno de materia, divisible hasta lo infinito, hasta entre los cuerpos y las pequeñísimas partículas que los componen. Aristóteles niega rotundamente su existencia, pues su aceptación lo conduciría irremediablemente al atomismo. Para que el movimiento pueda darse –continúa— no es necesario en absoluto la existencia del vacío. Más aún, supone que el concepto mismo lleva a conclusiones absurdas: cuanto menor es la resistencia del medio, tanto mayor es la velocidad del cuerpo en movimiento; por consiguiente, en el vacío, donde la resistencia es nula, la velocidad debe ser infinita, lo cual, según él, es imposible.
 
Respecto al cuestionamiento de porqué los proyectiles continúan moviéndose después de haber abandonado su motor, Aristóteles encontró la solución postulando como motor al aire: éste se abre ante, por ejemplo, la flecha y se cierra detrás de ella, pues la naturaleza no permite la formación del vacío, y de esta manera la impulsa hacia adelante.
 
Otra vez aplica su rechazo al vacío cuando afirma que si éste existiera no habría resistencia al movimiento y el cuerpo continuaría desplazándose indefinidamente, pero como esto es imposible, el vacío no puede existir. Es interesante ver cómo llega tan cerca del principio de la inercia; sin embargo, su aversión al vacío le impide comprender la permanencia del movimiento.
 
La física aristotélica es incompatible con el principio de la inercia y en ella el movimiento y el reposo pertenecen a estatus ontológicos diferentes: el reposo es un estado en el cual sí pueden permanecer los cuerpos, mientras que el movimiento es un proceso mediante el cual el cuerpo se dirige al lugar natural que le corresponde y, por tanto, no puede permanecer en movimiento indefinidamente.
 
Los pensadores medievales
 
Las teorías aristotélicas que explicaban el movimiento —en lo que respecta al lanzamiento de proyectiles— jamás convencieron a sus adversarios, quienes siempre opusieron a ellas el que el movimiento del proyectil, aun separado del motor, persistiera: la piedra lanzada por la honda, la flecha disparada por el arco, etcétera.
 
En el siglo vi, Juan Filopón realiza una crítica a las teorías de Aristóteles respecto al movimiento de proyectiles, utilizando el concepto de impetus, tomado del astrónomo helenístico Hiparco de Rodas, quien vivió en siglo ii a.C.
 
La teoría del impetus consiste en que en cualquier proyectil que ha sido lanzado se halla impreso algo que constituye la fuerza motriz de éste. Tal impetus permite al proyectil continuar su movimiento, una vez que ha dejado de actuar el motor. Es una especie de cualidad, potencia o virtud que se imprime al móvil, o mejor dicho que se impregna a consecuencia de su asociación con el motor. Mientras más tiempo esté sometido a la acción de este último, mayor será la cualidad que adquiera el móvil, por lo mismo, esta cualidad dejará paulatinamente de “impresionarlo”, y una vez que éste haya abandonado al motor, su movimiento cesará: el impetus es de naturaleza esencialmente perecedera. Entre los ejemplos que los partidarios del impetus nombran, está el del sonido que adquiere la campana y cuya cualidad sonora va perdiendo poco a poco. Así también está el ejemplo del hierro, que al ser calentado en el fuego, adquiere la cualidad del calor —hablando en términos aristotélicos— y que al ser retirado de la fuente que le proporciona dicha cualidad, poco a poco la va perdiendo.
 
Esta teoría —utilizada en el siglo xvi por Jean Buridan, miembro importante de la escuela nominalista de París— es ampliada y profundizada por su discípulo, Nicolás de Oresme, quien critica la refutación que Aristóteles hace de la teoría de Heráclides, la cual explicaba el movimiento diario de las estrellas mediante la rotación de una Tierra central. Oresme no cree en la rotación de la Tierra, solamente señala que ningún argumento lógico, físico, o incluso bíblico, puede refutar la posibilidad de una Tierra en rotación. Aquí tenemos el principio de la relatividad óptica que jugó un papel importante en las obras de Copérnico y Galileo.
 
Al final del siglo xiv una versión de la teoría del impetus, similar a la expuesta por Buridan, había reemplazado a la defectuosa explicación aristotélica del lanzamiento de proyectiles en prácticamente todas las obras científicas medievales. Así se enseñaba en Padua cuando Copérnico frecuentó esta universidad, y Galileo la aprendió en Pisa de su maestro Bonamico. También en Inglaterra, en el Merton College de Oxford, con base en la teoría del impetus, se desarrollaron alternativas para la explicación del movimiento.
 
Un predecesor muy importante de Galileo es Benedetti quien, en el siglo xiv, criticaba fuertemente la teoría aristotélica del lanzamiento de proyectiles. Benedetti continuó los estudios de los nominalistas parisinos e introdujo elementos de la matemática e hidrostática arquimediana, así como los conceptos de peso relativo y peso absoluto. Además planteó que el movimiento en el vacío sí era posible, contradiciendo con ello las enseñanzas de Aristóteles.
Todas las teorías y explicaciones alternativas sobre el movimiento surgieron de los restos del pensamiento aristotélico, desgarrado por la crítica escolástica, y representaron el marco que posibilitó el desarrollo conceptual en los siglos xvi y xvii.
 
Johannes Kepler
 
En Kepler se reúnen la innovación de Copérnico y una nueva actitud epistemológica ante los datos observacionales. Ésta la aprendió de Tycho Brahe y lo obligó a ajustar con todo detalle la teoría con los hechos, teniendo como resultado la formulación de sus tres famosas leyes, que serían las primeras leyes de la naturaleza en el sentido moderno. Kepler da el salto para atravesar la frontera entre la especulación metafísica del Medioevo y la ciencia empírica moderna, y fue su introducción de la causalidad física en la geometría formal de los cielos la que lo convirtió en el primer constructor de leyes de la naturaleza, lo cual hizo que le resultara imposible ignorar las pequeñas discrepancias entre los datos de la observación y la teoría. Mientras que la cosmología estuvo regida por meras reglas geométricas, independientemente de las causas físicas, las diferencias entre teoría y datos podían ser superadas al insertar otra rueda dentro del sistema, sin embargo, en un Universo movido por fuerzas reales, eso ya no era posible.
 
Kepler, al estudiar el movimiento de Marte, primero enfrentó el problema por los caminos tradicionales, pero tras su fracaso empezó a abandonar antiguas creencias sobre la naturaleza del Universo, para así, poco a poco, construir una nueva ciencia. Hizo varias innovaciones revolucionarias que lo llevarían a enfrentar el problema; una de éstas fue el cambio del centro del sistema con relación al Sol.
 
Los periodos de los planetas se conocían con bastante precisión desde la Antigüedad. En números redondos, Mercurio tiene un periodo de tres meses, Venus de siete meses y medio, la Tierra de un año, Marte de dos años, Júpiter de doce y Saturno de treinta. A mayor distancia del Sol, mayor tiempo se requiere para completar una revolución en torno a él; esto en términos generales, pero se necesitaba una relación matemática exacta. Así, Saturno se halla dos veces más lejos del Sol que Júpiter, por tanto requeriría dos veces más tiempo para recorrer una órbita del doble de longitud que la de Júpiter, esto es, veinticuatro años; no obstante, requiere treinta años. Lo primero sería cierto si la velocidad del planeta a lo largo de su órbita fuera siempre la misma e igual a la de todos, pero a medida que el planeta se aleja del Sol, su movimiento se torna más lento. Antes que Kepler nadie se había hecho la pregunta del porqué esto era así. La respuesta del astrónomo alemán fue que debía existir una fuerza que emana del Sol y que es la causa de que los planetas se muevan en sus órbitas. Por primera vez desde la Antigüedad, se hacía un intento no sólo por describir los movimientos celestes en términos geométricos, sino de asignarles una causa física.
 
Recordemos que el centro del sistema de Copérnico no era el Sol, sino el centro de la órbita de la Tierra, y que Kepler, desde un principio, había objetado tal suposición, considerándola físicamente absurda; puesto que la fuerza que movía los planetas emanaba del Sol, el conjunto del sistema tenía que hallarse en el centro del propio cuerpo de éste. Pero no es así, el Sol no ocupa el centro exacto de la órbita de la Tierra, sino uno de los focos de la elipse. Kepler aún no sabía esto último, creía que la órbita era un círculo. En consecuencia formuló la pregunta de que si la fuerza que mueve los planetas procede del Sol, ¿por qué insisten en girar en torno al centro de la órbita? A lo que respondió suponiendo que cada planeta estaba sujeto a dos influencias conflictivas: la fuerza del Sol y una segunda fuerza localizada en el propio planeta, y esta competencia ocasionaba que unas veces se acercara al Sol y otras se alejara de él.
 
Estas dos fuerzas son, como sabemos, la gravedad y la inercia, pero nunca llegó a formular tales conceptos; sin embargo, preparó el camino para Newton. Kepler mismo acuñó el término de “inercia”, pero la noción kepleriana aún está lejos del principio de la inercia. Para él ésta era la tendencia al reposo de todos los cuerpos en movimiento: sigue manteniendo a este último como un proceso, y al reposo como un estado.
 
Galileo conocía muy bien la obra aristotélica, y en general la de los clásicos, desde Platón hasta Benedetti, pasando por Ptolomeo y muy probablemente por los nominalistas parisinos y mertonianos, dada la difusión de las ideas de estos últimos. En sus primeras obras destaca su interés por los matemáticos griegos, Euclides y, muy especialmente, Arquímedes, y es a partir de aquí donde comienza su crítica a la teoría del movimiento de Aristóteles. En su obra De motu desarrolla esta crítica desde un marco clásico y medieval, desde el punto de vista de la fuerza impresa o impetus. Sin embargo, este concepto, ¿implica la formulación del principio de la inercia? Para Galileo el impetus es de carácter esencialmente perecedero, pues el movimiento eterno es imposible y absurdo, ya que es consecuencia de la fuerza impresa que se agota al producirlo. Él desarrolla la teoría del impetus y sabe —pues ha leído a Benedetti— de la necesidad de la detención del movimiento: la física del impetus es incompatible con el principio de la inercia.
 
El fenómeno de la caída de los cuerpos ocupó siempre la atención de los estudiosos del movimiento. Para Galileo, la caída de un cuerpo se efectúa debido a una fuerza constante: su peso; por tanto, ésta no puede tener otra velocidad que la constante. La velocidad no está determinada por algo exterior al cuerpo, sino que es algo inherente y propio del objeto. Así, a un cuerpo con mayor peso le corresponde una mayor velocidad, y a un cuerpo de menor peso le corresponde una menor velocidad. De esta manera, señala en De motu, la velocidad de caída de un cuerpo es proporcional a su peso y de un valor constante para cada uno.
 
Sin embargo, Galileo estaba obligado a reconocer que una piedra que cae lo hace cada vez más rápido, y esta aceleración sólo ocurre hasta que el cuerpo adquiere su velocidad característica; a partir de este momento su movimiento se efectúa con una velocidad constante. Y esta velocidad está en función del peso, pero no del peso absoluto sino del peso específico de los cuerpos. Un pedazo de plomo caerá más rápido que uno de madera, y dos pedazos de plomo caerán con igual velocidad. Más aún, Galileo —siguiendo a Benedetti— introdujo en su física que no se trata del peso específico absoluto de los cuerpos, sino de su peso específico relativo.
 
La velocidad de caída de los cuerpos, entonces, no está definida por su peso absoluto, sino por el específico y relativo. Estas precisiones permitieron a Galileo trascender el aristotelismo y la dinámica del impetus, al hacer la sustitución de la contraposición de cualidades (levedad y gravedad) por una escala cuantitativa, y este método cuantitativo le fue proporcionado por la hidrostática arquimediana: un trozo de madera, que cae en el aire, se elevará si es colocado en el fondo del agua. De esta manera, la fuerza (y la velocidad) con la cual desciende o sube un objeto, está en proporción a la diferencia entre el peso específico del objeto y el peso de un volumen del medio que es desalojado por el mismo. De lo anterior, concluye que no hay cuerpos leves, todos son pesados. En la física galileana, el fenómeno de la caída representa un papel de primer orden.
 
A partir de aquí, Galileo comenzó a construir la nueva física, donde el único movimiento natural que reconoce es el de los cuerpos pesados que son atraídos hacia abajo. La distinción entre el peso absoluto y relativo, y la repetida afirmación de que la velocidad de caída de un cuerpo está en función de su peso relativo en un medio determinado (y no de su peso absoluto), conduce a la inevitable conclusión de que es en el vacío, y sólo en él, donde los cuerpos tienen un peso absoluto y caen a una velocidad propia. A partir de este momento el movimiento ya no será un proceso, como en la física de Aristóteles, sino que comienza a ser algo propio del móvil, y ya no requerirá algo externo para prolongarse. Poco a poco se va geometrizando el espacio, y la consideración de que la velocidad de un móvil en el vacío no se hace infinita al desaparecer la resistencia del aire (y en general toda resistencia), parece “sugerirle” que debe trabajar en un plano absolutamente liso, una esfera totalmente esférica, etcétera. Y es a estos objetos a los que se les puede aplicar el principio de la inercia, al cual se llegará solamente hasta que el cosmos sea completamente sustituido por el espacio euclidiano y los cuerpos físicos por los objetos geométricos. Sólo así el espacio dejará de tener efecto sobre el movimiento de los cuerpos, de ser un proceso para convertirse en un estado con el mismo estatus ontológico que el reposo. Y de esta manera no será necesario buscar una causa que mantenga indefinidamente al movimiento. Mientras que para Aristóteles el vacío es imposible, para Galileo sí lo es y, además, sólo en el vacío los cuerpos caen con la misma velocidad.
 
Galileo realiza otra serie de experimentos en los cuales demuestra que la trayectoria seguida por un móvil después de abandonar un plano inclinado es una línea semiparabólica. Aquí considera equivalentes los movimientos de un móvil sobre el plano y el de uno en caída libre, y encuentra que el componente horizontal de la trayectoria parabólica que sigue el cuerpo, después de abandonar el plano, se conserva. Además, como buen copernicano, convencido del movimiento terrestre, intenta dar argumentos en favor de este último con su famoso experimento de la bala cayendo a lo largo del mástil de un barco en movimiento, con lo cual establece el principio de las transformaciones galileanas y que más adelante conformarán el concepto de sistemas inerciales.
 
En otros de los experimentos con planos inclinados, hacía rodar esferas sobre un canal, el cual tenía una primera porción descendente, luego continuaba con una parte horizontal y la tercera parte volvía a estar hacia arriba. Soltaba las esferas desde la primera y observaba hasta dónde subían en la tercera porción del canal. A continuación iba disminuyendo gradualmente la inclinación de esta última parte, y veía que las esferas lanzadas recorrían cada vez una mayor distancia. Haciendo una genial extrapolación, concluyó que si la tercera porción estuviera totalmente horizontal, la esfera conservaría su velocidad de manera indefinida.
 
Sin embargo, en esta revolución no le corresponde a Galileo enunciar (al menos de manera explícita) el principio de la inercia, pues no pudo deshacerse de la noción de pesantez ni de la de centro del mundo. Para él, los cuerpos físicos eran, por definición, cuerpos graves, y no pudo realizar la sustitución completa entre los cuerpos físicos y los objetos geométricos. Si privaba a los primeros de la cualidad esencial de pesantez, dejaban de existir por ese solo hecho. Por ello la física galileana es la física de los graves, ya que para Galileo el peso de un cuerpo era algo similar a lo que la masa es para nosotros en la actualidad.
 
En su última obra, los Discorsi, que supone al Galileo maduro, vemos cómo siguen prevaleciendo las ideas de pesantez y de centro del mundo: “Imaginemos un móvil proyectado sobre un plano horizontal del que se ha quitado el más mínimo roce; sabemos ya que en tal caso, y según lo hemos expuesto detenidamente en otro lugar, dicho movimiento se desenvolverá sobre tal plano con un movimiento uniforme y perpetuo, en el supuesto de que este plano se prolongue hasta el infinito. Si, por el contrario, nos imaginamos un plano limitado y en declive, el móvil, el cual se supone está dotado de gravedad, una vez que ha llegado al extremo del plano y continúe su marcha, añadirá al movimiento precedente, uniforme e inagotable, esa tendencia hacia abajo, debida a su propia gravedad”.
 
No obstante, su física está tan impregnada del principio de la inercia que sus discípulos podrán extraerlo sin ninguna dificultad y siempre atribuyéndoselo a su maestro. Pero incluso ellos (Cavalieri y Torricelli), a pesar de que lo utilizan de manera natural, jamás lo presentan como un principio fundamental de la física.
 
Pierre Gassendi
 
La obra de Gassendi está fuertemente inspirada por la de Galileo, y aquél comprendió con profundidad a este último. Siguiendo a Demócrito, a Gilbert y a Kepler, Gassendi logró deshacerse de los últimos obstáculos de la tradición y del sentido común que habían trabado el avance del pensamiento galileano, y fue el primero en publicar —si no el primero en enunciar— una formulación correcta del principio de la inercia.
 
Aclara ya el efecto de la pesantez como el efecto de una fuerza exterior, como una interacción con otro cuerpo, como lo es la atracción del imán sobre el hierro, que ya no es una propiedad intrínseca de los cuerpos, como lo era para Galileo.
 
Así pues, la gravedad no sólo es un fenómeno exterior y un componente esencial de los cuerpos físicos, es también un efecto que se puede eliminar con bastante facilidad (en la imaginación, no en la realidad). En efecto, para sustraer un cuerpo de la acción de la gravedad no hay más que situarlo suficientemente lejos. Gassendi, así como Gilbert y Kepler, imaginan que la acción de la atracción es finita. Fue preciso el genio de Newton para extender su acción hasta el infinito.
En su obra, De motu impresso a motore translato, Gassendi escribe: “Me preguntas lo que ocurriría a esa piedra que, según he admitido, puede ser concebida en los espacios vacíos si, sacada del reposo, fuera empujada por una fuerza cualquiera. Respondo que probablemente se moverá con un movimiento uniforme y sin fin […] En cuanto a la prueba, la saco de la uniformidad, ya expuesta, del movimiento horizontal; y puesto que éste no parece terminarse si no es por la admisión del movimiento vertical, se desprende que, puesto que en los espacios vacíos no habrá ninguna mezcla del [movimiento] vertical, el movimiento, en cualquier dirección que se haga, será similar al horizontal, y ni se acelerará ni se retardará y, por tanto, nunca cesará”.
 
En lo que se refiere al concepto de inercia, Gassendi se encuentra ya muy lejos de las vacilaciones de un Galileo y de los errores de un Kepler. La eliminación consciente de la noción de impetus, la posesión de una teoría de la pesantez y la geometrización definitiva del espacio, permiten a Gassendi traspasar las fronteras que habían detenido a estos dos grandes pensadores.
 
René Descartes
 
Pasar de Galileo a Descartes, esto es del Dialogo y los Discorsi al Mundo, es trasladarse a dos distintos escenarios en la historia de las ideas. En las obras de Galileo está presente la lucha por el establecimiento de las bases de las nuevas concepciones del mundo en contra de las tradicionales; son libros de “combate”. En cambio, en la última, ya no se discute en contra del sistema geocéntrico, el copernicanismo es la única concepción posible del mundo; ya no se rebaten las ideas tradicionales sobre el movimiento, la física aristotélica está muerta. En el Mundo, de lo que se trata es de fundar y desarrollar una nueva física, y se procede a construir a priori un mundo que tiene que obedecer a las leyes de la naturaleza. En el universo cartesiano el reemplazo del espacio físico por el espacio euclidiano y la sustitución de los cuerpos reales por los objetos geométricos están plenamente realizados; el universo cartesiano es espacio y movimiento.
 
La ley suprema en este universo es la ley de la persistencia. Las dos realidades del universo cartesiano, espacio y movimiento, una vez creadas, permanecen eternamente; el espacio no cambia, ni tampoco el movimiento. Más precisamente, la cantidad de movimiento no varía, permanece constante. Señala Descartes: “No me detengo a buscar la causa de sus movimientos: pues me basta pensar que han comenzado a moverse tan pronto como el mundo ha comenzado a ser. Y siendo así encuentro por mis razones que es imposible que cesen nunca sus movimientos, e incluso que cambien como no sea de objeto. Es decir, que la virtud o la potencia de moverse a sí mismo, que se encuentra en un cuerpo, puede perfectamente pasar toda o parte a otro, y así no estar ya en el primero, pero no puede ya no estar en absoluto en el mundo […] Y, sin embargo, podéis imaginar, si os parece, como hacen la mayoría de los doctos, que hay algún primer móvil que, al rodar alrededor del mundo a una velocidad incomprensible, es el origen y la fuente de todos los demás movimientos que allí se encuentran”.
 
Este “primer móvil” en el mundo de Descartes es muy diferente al del mundo aristotélico. Puede muy bien ser la fuente y el origen de todos los movimientos de este mundo; pero a eso limita su función, pues una vez producido el movimiento, éste ya no tiene ninguna necesidad de él. Ahora el movimiento se conserva y se mantiene solo, sin “motor”. Así pues, el movimiento cartesiano es anterior a todas las otras esencias materiales, incluso a la forma espacial; y no es en forma alguna un proceso sino una cualidad o estado.
 
Descartes nos señala que una de las principales reglas con las que actúa la naturaleza es “que cada parte de la materia, en particular, continúa siempre estando en un mismo estado, mientras que el encuentro con las otras no le obligue a cambiarlo. Es decir, que si esa parte tiene cierto grosor jamás se hará más pequeña si las otras no la dividen; si es redonda o cuadrada jamás cambiará de figura si las otras no la obligan a hacerlo; si está quieta en algún lugar jamás partirá de allí a menos que las otras la expulsen; y una vez que ha comenzado a moverse continuará siempre, con igual fuerza, hasta que las otras la detengan o la retarden”.  Como se ve, todo cambio tiene necesidad de una causa, por eso ningún cuerpo puede cambiar y modificarse por sí mismo.
 
El movimiento es un estado, pero además, es una cantidad. En el mundo existe una cantidad determinada de movimiento, y cada cuerpo en movimiento posee una cantidad del mismo, perfectamente determinada. Y cuando algún cuerpo pierde cierta cantidad de su movimiento mediante algún choque o interacción con otro, este último adquirirá con exactitud la misma cantidad de movimiento que perdió el primero.
 
Christian Huyghens
 
Huyghens constituye un eslabón importante entre Galileo, Descartes y Newton. Él adopta y extiende la física galileana de la caída de los cuerpos, la independencia de los componentes del movimiento compuesto y la relatividad del movimiento. Huyghens se restringió al fenómeno de las colisiones elásticas y adoptó la concepción cartesiana de la conservación de la cantidad de movimiento. Sus investigaciones fueron reunidas en el volumen póstumo De motu corporum ex percussione, publicado en 1700, y están basadas en tres hipótesis: 1) el principio de la inercia; 2) la conservación de la cantidad de movimiento en las colisiones elásticas; y 3) la relatividad del movimiento.
 
En lo que respecta al principio de la inercia, su enunciado ya está muy cerca del que Newton hace en los Principia en la primera ley: “Un cuerpo en movimiento tiende a moverse en línea recta con la misma velocidad en tanto no encuentre un obstáculo”.
 
Este enunciado carece de la profundidad metafísica del de Descartes, pero es ya muy conciso. Sin embargo, está todavía a un paso del de Newton, pues faltan las precisiones que éste hace por medio de las nociones de fuerza impresa y fuerza ínsita (íntimamente inserta en la naturaleza).
 
En sus estudios sobre colisiones elásticas, se muestra francamente cartesiano y adopta el principio de conservación de la cantidad de movimiento: “Dos cuerpos iguales que están en impacto directo uno con el otro y tienen iguales y opuestas velocidades antes del impacto, rebotarán a velocidades que son, aparte del signo, las mismas”.
 
La tercera hipótesis asevera la relatividad del movimiento y afirma: “Las expresiones ‘movimiento de cuerpos’ y ‘velocidades iguales y desiguales’ deben ser entendidas relativamente a otros cuerpos que son considerados en reposo, no obstante, puede ser que el segundo y el primero participen en un movimiento común. Y cuando dos cuerpos chocan, aun si ambos están sujetos a un movimiento uniforme, para un observador que tenga este movimiento común, ellos se repelerán uno al otro tal y como si este movimiento parásito no existiera”. Aquí asume la relatividad galileana que más adelante permite la definición de los sistemas inerciales.
 
Isaac Newton
 
El genio de Newton realiza la gran síntesis con toda la herencia que recibe de sus predecesores. Galileo y Kepler estudiaron un conjunto particular de movimientos (caída libre, lanzamiento de proyectiles, movimiento rectilíneo uniforme y movimientos planetarios); Newton extendió su estudio a todos los movimientos en la naturaleza. Los estudios que realizó Galileo son estudios cinéticos, esto es, que se refieren solamente a la descripción del movimiento. En los estudios de Newton ya aparece la idea de fuerza como causa de los movimientos, es el inicio de la ciencia de la dinámica.
 
Newton construye un cuerpo organizado de teorías que nos dan una visión y comprensión general del Universo. En su obra Principios matemáticos de filosofía natural (los Principia) aparece una actitud metodológica que podríamos resumir en los siguientes puntos: 1) no suponer ninguna causa más que las necesarias para explicar los fenómenos; 2) relacionar, tan completamente como sea posible, efectos análogos a una misma causa; 3) extender a todos los cuerpos las propiedades que se encuentran asociadas con aquellos sobre los cuales se hacen experimentos (esto es lo que le permite enunciar su ley de la gravitación universal); y 4) considerar toda proposición obtenida por inducción a partir de los fenómenos observados como válida, hasta que nuevos fenómenos ocurran y contradigan la proposición o limiten su validez.
Newton toma el principio de la inercia, ya plenamente establecido en esta época, y se enfrenta al problema de hallar el sistema referencial en el cual este principio y todas las otras leyes de la mecánica sean válidas. El principio de la inercia se refiere al estado de reposo o de movimiento rectilíneo uniforme de un cuerpo en ausencia de fuerzas que actúan sobre él. La pregunta que surge de inmediato es: ¿reposo o movimiento rectilíneo uniforme respecto a qué? La Tierra gira sobre su propio eje y alrededor del Sol, así que no puede ser respecto a ella como tampoco respecto al Sol. Además, al generalizar sus leyes a todos los cuerpos del Universo, él estaba consciente de que todos los objetos celestes se mueven bajo sus interacciones.
 
Probablemente éstas sean las razones que llevaron a Newton a la convicción de que un sistema de referencia empírico fijado por cuerpos materiales nunca podría ser el fundamento de una ley que involucrara la idea de inercia. De este modo, llega a la conclusión de que hay un espacio y un tiempo absolutos. La definición que realiza de espacio absoluto está muy relacionada con la geometrización del espacio real que ya había comenzado con Galileo y había sido continuada por Descartes. Las definiciones de espacio y tiempo absolutos aparecen en los Principia. La de espacio es la siguiente: “El espacio absoluto, por su naturaleza y sin relación a cualquier cosa externa, siempre permanecerá igual e inmóvil; el relativo es cualquier cantidad o dimensión variable de este espacio, que se define por nuestros sentidos según su situación respecto a los cuerpos, espacio que el vulgo toma por el espacio inmóvil […] Y así, usamos de los lugares y movimientos relativos en lugar de los absolutos y con toda tranquilidad en las cosas humanas: para la Filosofía, en cambio, es preciso abstraer de los sentidos, y considerar las cosas por ellas mismas, lo cual es distinto de lo que son las medidas sensibles de ellos. Por esto es que puede ser que no haya cuerpo realmente en reposo al cual los lugares y movimientos de otros puede ser referido”.
 
Newton plantea sus leyes del movimiento al interior de tales conceptos. Y estas leyes se referirán a los conceptos absolutos de tiempo y espacio, puesto que “las causas por las cuales los movimientos verdaderos y los relativos deben distinguirse unos de otros, son las fuerzas que se deben imprimir a los cuerpos para generar movimiento. El movimiento verdadero ni se genera ni se altera excepto cuando al cuerpo en movimiento se le imprime una fuerza; pero el movimiento relativo puede ser generado sin que se imprima ninguna fuerza sobre el cuerpo”. La definición de marco de referencia inercial viene dada con estas palabras en el concepto de espacio absoluto.
 
La razón por la cual Newton asume el espacio y el tiempo absolutos, es porque sin ellos la ley de la inercia carecía de sentido. Pero surge la cuestión de qué tanto esos conceptos merecen el término de “reales”, en el sentido que usamos en física. Un lugar fijo en el espacio absoluto de Newton no tiene realidad física. Para llegar a una formulación definida se introduce el concepto de sistema inercial, el cual es considerado como un sistema de referencia donde vale la ley de la inercia. Para esto se recurre al principio de relatividad utilizado por Galileo, el cual señala en esencia que las leyes de la mecánica tienen exactamente la misma expresión, ya sea desde un sistema de referencia con movimiento rectilíneo y uniforme o desde uno en reposo en el espacio.
 
La importancia de este principio radica en el hecho de que está relacionado directamente con la noción de espacio absoluto planteada por Newton. Si se consideran dos sistemas que se mueven uno con respecto al otro a velocidad constante, ¿qué sentido tiene preguntar cuál es el que está en reposo y cuál es el que se mueve? Pero, en cambio, la cuestión es que si en alguno de ellos “el movimiento verdadero ni se genera ni se altera excepto cuando al cuerpo en movimiento se le imprime una fuerza”, en el otro ocurrirá lo mismo. Esto es, los dos sistemas son inerciales y podemos ver que no es necesaria la existencia de un sistema en reposo absoluto al cual referir todos los movimientos, sino que existe una infinidad de sistemas inerciales, todos ellos efectuando un movimiento de traslación, uno con respecto al otro, y en los cuales valen las leyes de la mecánica. De esta manera, al caracterizar a los sistemas inerciales, ya no es necesario el concepto de espacio absoluto.
 
Es en este contexto de conceptualización donde Newton enuncia sus leyes del movimiento: las tres leyes de la dinámica y su ley de la gravitación universal. Y es en ellas donde sintetiza una concepción general del Universo, con lo que culmina una revolución en el pensamiento que se había iniciado casi ciento cincuenta años atrás.
 
Primera ley. “Todos los cuerpos continúan en su estado de reposo o de movimiento uniforme en línea recta excepto en la medida de que sean obligados a cambiar dichos estados por fuerzas impresas sobre ellos”.
 
Segunda ley. “El cambio de movimiento es proporcional a la fuerza impresa y se produce en la dirección de la línea recta en la cual se ha impreso la fuerza”.
 
Tercera ley. “Con toda acción ocurre siempre una reacción igual y contraria, o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones opuestas”.
Las dos primeras leyes establecen las interrelaciones cuantitativas de espacio, tiempo, materia y movimiento. La tercera ley viene a dar una coherencia definitiva a las dos primeras, estableciendo la idea de interacciones mutuas de los cuerpos materiales. Establece una unidad del mundo material al atribuir una acción recíproca entre los cuerpos materiales que provoca sus diferentes estados de movimiento, desechando la concepción del mundo como una simple suma de objetos y fenómenos dispersos y desligados entre sí.Chivi67
Agradecimientos
Al Dr. Juan Manuel Lozano Mejía por la observación sobre la importancia de Christian Huyghens en el desarrollo del principio de la inercia.
Referencias bibliográficas
 
 
Dugas, R. 1988. A History of Mechanics. Dover Publications, New York.
Galilei, G. 1638. Consideraciones y demostraciones sobre dos nuevas ciencias. Editora Nacional, Madrid, 1981.
Gómez, R., V. Marquina y J. E. Marquina. 1984. “Sobre las leyes de Newton”, en Revista Mexicana de Física, núm. 30 (4), p. 693.
Koestler, A. 1987. Kepler. Salvat, Barcelona.
Koyré, A. 1981. Estudios galileanos. Siglo XXI, México.
Newton, I. 1687. Principios matemáticos de filosofía natural. Alianza Editorial, Madrid, 1987.
José Luis Álvarez García
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

Álvarez García, José Luis. (2002). El principio de la inercia. Ciencias 67, julio-septiembre, 4-15. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Nuevos paradigmas y fronteras en ecología
La co­mu­ni­dad cien­tí­fi­ca me­xi­ca­na de­be­ría ela­bo­rar un ver­da­de­ro pro­gra­ma de in­ves­ti­ga­ción de ma­ne­ra in­ter­dis­ci­pli­na­ria, con me­tas a dis­tin­tos pla­zos, que per­mi­ta con­tri­buir al co­no­ci­mien­to cien­tí­fi­co así co­mo cons­truir una lí­nea pro­pia de in­ves­ti­ga­ción eco­ló­gi­ca sus­ten­ta­ble del país.
Ken Oyama

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Una de las cosas más fascinantes de la ciencia es su constante cambio en los conceptos, ideas, métodos y teorías. El incesante surgimiento de nuevas preguntas funciona como motor de la ciencia. En ocasiones éstas no pueden responderse al interior de los marcos teóricos y metodológicos existentes, por lo que se requieren algunos cambios. En estos casos, después de haber revisado las teorías y los métodos existentes, se elaboran nuevos marcos conceptuales que permitan ubicar estas nuevas interrogantes. Para lograrlo, se inicia la acumulación de nuevas evidencias obtenidas con nuevos métodos; emergen nuevos patrones, se construyen nuevos modelos y se plantean cambios en las teorías. Es así como se dan las condiciones para el desarrollo de los llamados paradigmas —cada uno de ellos con sus propias bases teóricas, científicas y filosóficas.
 
Las reuniones científicas, la publicación de artículos y libros científicos clave, y la fundación de nuevas sociedades científicas, constituyen el abanico de expresiones en el cual es posible detectar el surgimiento de los escenarios en que se desarrollan los nuevos paradigmas.
A mi parecer, este proceso no ocurre de manera simultánea. En la dinámica actual de la ciencia es difícil establecer cuándo el grado de desarrollo de una idea, un marco conceptual, o una síntesis de conocimientos ha alcanzado un grado de madurez tal, que amerite considerarlo como un nuevo paradigma. La delimitación exacta de los alcances de la ciencia no está definida en un libro de texto o por un científico. El alcance de los consensos no siempre es uniforme en la comunidad científica. Diferentes historias, políticas e intereses entran en juego, y es en esta matriz social, determinada bajo una serie de situaciones particulares, en donde se inician las modificaciones de las teorías que eventualmente pueden llegar a sustituir a los paradigmas dominantes.
 
Una de las preocupaciones de los filósofos e historiadores de la ciencia es, justamente, explicar cómo se generan los nuevos paradigmas y cómo son sustituidos. Existen varias posturas interesantes al respecto. Sin embargo, partimos del hecho de que en la ciencia, al acumularse un conjunto de soluciones científicas, se generan constantemente nuevos paradigmas, que se sintetizan en un marco teórico y que a su vez alcanzan un consenso sobre su validez en la comunidad científica.
 
Es posible realizar un análisis retrospectivo y delimitar el surgimiento, desarrollo y culminación de una teoría en particular. En la biología, por ejemplo, la teoría sintética de la evolución —una de las más importantes del siglo xx—, generó un paradigma al sustituir las ideas previas y marcar las rutas de investigación en muchos campos de las ciencias naturales. La teoría neutra de la evolución molecular constituye un caso más reciente, en el que el planteamiento de una nueva hipótesis, con una nueva explicación de la teoría misma de la evolución biológica, se ha establecido como un nuevo paradigma.
 
En síntesis, el quehacer científico constituye una actividad humana sumamente dinámica, que cambia constantemente e incorpora la mayor cantidad de conocimientos para explicar los fenómenos que ocurren en la naturaleza, sus procesos y patrones, sus mecanismos, sus concatenaciones y su complejidad.
 
En la actualidad se habla de una crisis ambiental sin precedentes, que pone en riesgo la existencia misma de la vida sobre el planeta. Hay una preocupación legítima por la salud ambiental de los ecosistemas y su destino, y se pregunta a los científicos sobre el futuro de la vida en la Tierra, sus predicciones y tendencias. Así, se habla sobre ecología, una y otra vez, muchas veces sin entender plenamente su significado. En este contexto, la ecología, como rama de la ciencia que estudia la interacción de los organismos con su ambiente, ha sufrido una serie de transformaciones conceptuales y metodológicas sin precedentes.
 
Los nuevos paradigmas y las fronteras de investigación en ecología se pueden ubicar, en primer lugar, en el hecho de que muchos de los problemas irresueltos en la investigación ecológica se intentan resolver combinando conceptos y métodos que provienen de diferentes disciplinas (existe una fuerte tendencia a la multi e interdisciplina). En segundo lugar, el reconocimiento de los sistemas naturales organizados en niveles dentro de un sistema jerárquico ha permitido distinguir los procesos ecológicos propios de cada nivel y su relación con otros niveles (la transescalaridad de los fenómenos ecológicos es una parte de esta teoría de las jerarquías). Y en tercer lugar, el análisis de los sistemas complejos, como una forma más precisa de estudiar los sistemas naturales, reconociendo que éstos no son siempre lineales que poseen múltiples estados de equilibrio, presentan mecanismos de autorregulación que no son predecibles ni reversibles, y cuyos procesos ocurren a distintas escalas. La necesidad de estudiar los sistemas naturales como sistemas complejos no es nueva, pero existe una nueva formalización en sus conceptos, teorías y aplicaciones.
 
Además, en el campo de la ecología existe una fuerte tendencia a considerar que los sistemas naturales no son completamente independientes de los sistemas sociales. El análisis de la influencia de las distintas actividades humanas en los sistemas naturales indica que la interacción sociedad-naturaleza presenta nuevas propiedades emergentes que deben ubicarse bajo nuevos paradigmas.
 
Estos cambios en la conceptualización de un sistema natural no son necesariamente nuevos, aunque el reconocimiento de los sistemas ecológico-sociales sí nos conduce, tanto a una nueva síntesis en la teoría ecológica como a nuevas agendas de investigación para solucionar los problemas de la llamada crisis ambiental.
 
Las nuevas disciplinas
 
Una revisión de la literatura ecológica de los últimos diez años nos indica que han surgido nuevas disciplinas relacionadas con la ecología. Esto es realmente sorprendente, si consideramos que hace unos veinticinco años sólo se hablaba de escasas disciplinas, como ecofisiología, ecología-genética, ecología del comportamiento, ecología evolutiva o ecología humana.
 
En la actualidad podemos reconocer dos grandes grupos de disciplinas. Por un lado, la ecología relacionada con otras disciplinas de la biología, como la ecología molecular, ecología funcional, ecología histórica, ecología comparativa, macroecología, ecología del paisaje, ecogeografía, ecología global, etcétera. Por el otro, con disciplinas sociales como la economía ecológica, etnoecología, ecología urbana, ecología industrial, etcétera. Y finalmente, el papel de la ciencia de la ecología en los temas de manejo de ecosistemas y sus recursos, en donde distintas disciplinas sustentan la teoría de la conservación, restauración, el control y el aprovechamiento de los recursos naturales.
 
Este panorama nos indica que el desarrollo de la ecología ha sido un pivote sobre el cual se han generado nuevos campos, tratando de plantear nuevos problemas de investigación y la solución de aquellos que afectan seriamente a la humanidad, generando nuevas disciplinas en este fin de milenio.
 
Ecología molecular
 
El desarrollo y aplicación de métodos y teorías de la biología molecular a la ecología ha generado un nuevo enfoque de investigación, y sintetiza adecuadamente la emergencia de nuevas explicaciones a preguntas pendientes en la ecología. La aplicación de las herramientas conocidas como marcadores moleculares y los nuevos métodos de análisis genealógico y filogenético han constituido, en conjunto, un nuevo enfoque de investigación que ha revolucionado las ideas predominantes en subdisciplinas tan importantes como la ecología evolutiva y la ecología del comportamiento. La amplitud y el tipo de problemas que pueden ser atacados por esta combinación de áreas son múltiples, ya que van desde el descubrimiento de las bases genético-moleculares de caracteres morfológicos y funcionales, hasta la reconstrucción histórica de linajes evolutivos.
 
En menos de una década, algunos de los temas de la ecología molecular han sufrido modificaciones importantes en su interpretación, e incluso se preveen cambios importantes en sus respectivos marcos teóricos. Con el uso de los marcadores moleculares se han logrado detectar patrones distintos a los observados previamente en problemas como la caracterización de la individualidad en especies con sistemas de reproducción combinados, la estructuración espacial de su diversidad genética, el flujo de genes, la determinación de los patrones de paternidad múltiple, los procesos de selección sexual, los procesos de especiación como la hibridación y la introgresión, la genealogía de haplotipos y su distribución geográfica, etcétera.
 
La ecología de las poblaciones
 
Una de las vertientes clásicas de la ecología es el estudio de las poblaciones. La mayoría de los modelos aceptados en ecología hacen referencia al comportamiento de las poblaciones y a sus interacciones. Los modelos de crecimiento poblacional de interacciones (depredador-presa, competencia, mutualismos, etcétera) han dominado el ámbito de la ecología de las poblaciones. Este desarrollo ha sido tal, que algunos autores consideran que esta disciplina ya ha alcanzado a resolver sus problemas más importantes.
 
A nivel poblacional se han acumulado tantas evidencias, que existe una base de datos sobre la dinámica de más de mil ochocientas especies de animales. A esta información se le conoce como la “Base de datos de la dinámica poblacional global” e incluye más de cuatro mil quinientos registros de la abundancia de las poblaciones de diferentes grupos taxonómicos a lo largo del tiempo y en el mundo. Esto brinda, por primera vez en la historia, una excelente oportunidad para analizar y encontrar patrones ecológicos de la dinámica de las poblaciones animales.
Los estudios sobre las interacciones de las especies se enfocaron durante mucho tiempo a entender la dinámica de una interacción en una localidad. Los modelos de coevolución que se produjeron a partir de estos estudios fueron muy aceptados en la teoría ecológica. Sin embargo, el surgimiento de las hipótesis de la especialización local y del mosaico geográfico de las interacciones, las cuales incorporaron la heterogeneidad ambiental espacial, el contexto geográfico y las interacciones múltiples, rompieron con la idea de las presiones selectivas recíprocas de los interactuantes y pusieron en cuestionamiento la teoría de coevolución estricta. En la actualidad, se acepta la hipótesis de la coevolución difusa como la más plausible para explicar las interacciones antagónicas y mutualísticas de las especies.
 
Otra de las nuevas líneas de la ecología de las poblaciones es el estudio de las metapoblaciones, es decir, de conjuntos de poblaciones. El contexto del paisaje incorpora este enfoque a su análisis, para lo cual se integran dos niveles de organización, una escala espacial regional que se extiende a la dinámica de la interacción de los componentes no sólo de tipo demográfico, sino de la conectividad a través de tasas de dispersión y flujo de genes entre poblaciones.
Estos tres casos ilustran cómo el análisis de las poblaciones en otras dimensiones y con otros enfoques sentarán nuevos paradigmas en uno de los campos clásicos de la ecología.
 
El funcionamiento de las comunidades y los ecosistemas
 
La visión holista e integradora de la ecología contemporánea ha resaltado la necesidad de enfocar las investigaciones desde otra perspectiva. Un ejemplo son las investigaciones de las interacciones bióticas, que pretenden entender la dinámica de la matriz que éstas constituyen en una comunidad. Los modelos de dos especies sólo sirven como un marco de referencia, ya que al incluir más, la dinámica y los resultados de las interacciones cambian cualitativamente. Los efectos de las causalidades ascendentes y descendentes de interacciones de distintos grupos taxonómicos ubicados en distintos niveles tróficos, ilustran claramente que las relaciones entre las especies no son lineales. La diversidad de interacciones tiene una influencia muy importante en la estabilidad, la capacidad homeostática y la resiliencia de las comunidades naturales. Ante una alteración en un ecosistema, como la extinción de una especie o un evento episódico ambiental, la respuesta de éste depende de la compensación que se pueda llevar a cabo en las funciones esenciales del mismo. Parte de estas funciones las desempeñan las interacciones de los componentes del ecosistema. La comprensión de esta problemática permitirá entender el papel de los grupos funcionales, los gremios ecológicos, los procesos de colonización y extinción de las especies, el papel de las especies clave y la capacidad de recuperación de los ecosistemas.
 
Los componentes no descubiertos de las comunidades
 
En muchas ocasiones, la investigación científica presenta sesgos, ya sea por el interés particular de la comunidad de científicos que desean entender ciertos fenómenos, por las limitaciones tecnológicas que impiden el estudio de algunos componentes, o simplemente porque existen serios prejuicios y se investiga sólo para constatar las ideas predominantes.
 
Este es el caso de los componentes de las comunidades que no han sido estudiadas con la misma intensidad: el suelo y el dosel.
 
El análisis ecológico del suelo ha recibido mucha atención por la importancia agrícola y la necesidad de producción de alimentos para el mantenimiento de la vida humana. Constantemente se escucha la existencia de problemas como la erosión del suelo, el agotamiento de nutrimentos en suelos de cultivo, etcétera. Sin embargo, en los sistemas naturales terrestres todavía no se descubre, cabalmante, la riqueza biológica ni se han documentado las funciones ecológicas de los elementos del mismo. Se dice que existen millones de organismos, desde bacterias hasta vertebrados, que constituyen y funcionan como un ecosistema sumamente complejo.
 
El otro componente es el dosel, el cual puede albergar miles de individuos y cientos de especies en un sólo árbol tropical. La relevancia de su estudio radica en que muchos de los procesos ecológicos fundamentales ocurren en esta capa. La ecología de las epífitas (orquídeas, bromelias, etcétera), de las lianas y plantas trepadoras, los análisis fenológicos, de polinización, de acumulación de biomasa, fotosíntesis, etcétera, se ubican en el dosel. Al igual que el suelo, éste cumple funciones muy importantes en los sistemas naturales, como la regulación de los ciclos biogeoquímicos, las modificaciones en el ciclo hidrológico, la renovación de nutrimentos, la descomposición de desechos, la regulación de poblaciones, de plantas y animales, entre otros.
 
La ecología global
 
Las diferentes problemáticas ambientales que se han identificado a nivel global se deben al desarrollo de modelos y métodos como la informática, la percepción remota y los sistemas de información geográfica. Esta trilogía ha demostrado un planeta en dimensiones no descritas con anterioridad ni con tanta precisión y claridad. Los efectos de los procesos regionales o globales sobre los locales han resultado ser muy importantes. La dinámica del flujo de nutrimentos o minerales no se puede estudiar como un sistema cerrado, ya que el impacto de fenómenos metereológicos a nivel global rompe con la dinámica de los componentes de un ecosistema.
 
Se habla entonces de la ecología global, ya que procesos que ocurren en una región pueden tener influencia en otras, como es el caso de los efectos del cambio climático y todos sus fenómenos asociados. Muchos fenómenos catastróficos para el ser humano como los huracanes y ciclones son eventos raros, pero pueden predecirse con cierta certidumbre si son estudiados a escala global y a largo plazo.
 
En términos de los problemas de la conservación biológica ha sido posible hacer estimaciones de las tasas de deforestación en diferentes partes del planeta. Los estudios de biodiversidad a nivel mundial permiten detectar las zonas de prioridad para su conservación, ya no sólo en benficio de un país o región, sino de toda la humanidad. Las predicciones sobre los escenarios futuros no podrían realizarse sin tener este panorama global de salud de los ecosistemas.
 
En busca de procesos y patrones
 
La Macroecología
 
Algunos ecólogos han identificado la necesidad de incluir escalas espaciales y temporales de mayores dimensiones, y de integrar los avances de disciplinas como la biogeografía, paleobiología y sistemática para descubrir los patrones que ocurren en la naturaleza. Este enfoque pone más énfasis en el análisis de los patrones estadísticos que en las manipulaciones experimentales. En su concepción filosófica rechaza los enfoques reduccionistas y busca estudiar los patrones y procesos emergentes y la extensión de su aplicación a nivel geográfico. Considera los sistemas complejos como objetos de estudio y esto, a su vez, determina las características de sus programas de investigación, en donde las comunidades y su ensamblaje de organismos definidos, tanto por su identidad taxonómica como por su similitud ecológica, son usados en estudios macroecológicos. El objeto de estudio puede ser un grupo funcional, un gremio ecológico, grupos de formas de vida o linajes evolutivos. Las escalas son regionales y globales y los periodos que se consideran van desde décadas hasta millones de años. Incluye, por tanto, los componentes de la historia evolutiva de los grupos taxonómicos involucrados.
Curiosamente, la macroecología pretende contestar preguntas científicas básicas de la ecología, como la abundancia, distribución y diversidad de las especies, en la búsqueda de los procesos que producen patrones y que no pueden ser obtenidos utilizando un enfoque experimental. Intenta así buscar la síntesis de los procesos a diferentes niveles de organización, desde los individuos hasta las comunidades y biotas regionales, de los procesos y patrones a diferentes escalas temporales y espaciales, y pretende generar una teoría que sintetice disciplinas tan disímiles como la ecología, la biogeografía, la sistemática, la macroevolución y las ciencias de la Tierra. Además, pretende conjuntar teorías y enfoques de la teoría de las jerarquías, así como de sistemas complejos y evolutivos. Sin duda, la macroecología pretende cubrir una meta muy ambiciosa, aunque cabe señalar que muchos de sus planteamientos son viejas propuestas teóricas y metodológicas ahora cubiertas por una sombrilla llamada macroecología. El énfasis de las escalas espaciales y temporales, por ejemplo, no es exclusivo de los enfoques macroecológicos, sino que es un común denominador de los nuevos enfoques de investigación en ecología.
 
Las escalas espaciales y temporales
 
La ubicación de los sistemas naturales en el espacio y de los procesos biológicos en unidades organizadas jerárquicamente, nos obliga a disectar los procesos ecológicos en cada una de estas escalas. Se ha demostrado que los sistemas naturales presentan variaciones temporales que sólo pueden ser detectadas en estudios a largo plazo. En este sentido, existe una red mundial de grupos de investigación (Long-Term Ecological Research) en donde se ha planteado realizar estudios comparativos ubicando el análisis en escalas temporales de varios años.
 
Estos estudios incluyen el monitoreo de múltiples parámetros físicos asociados a los procesos biogeoquímicos y a los regímenes climáticos, la observación de interacciones bióticas de las especies y el seguimiento de poblaciones de especies que intervienen en la formación de redes de relaciones que afectan a otros componentes de los ecosistemas. Además, incluyen manipulaciones experimentales de diversos componentes para tratar de conocer el papel de las especies clave en el mantenimiento de la diversidad biológica y sus consecuencias ecosistémicas. La remoción continua de especies clave, de grupos de especies funcionales o gremios ecológicos ha permitido, por ejemplo, entender mejor la dinámica de los sistemas naturales complejos.
 
La pregunta que surge es, ¿qué tipo de cambios importantes se han producido en la teoría ecológica al incorporar las dimensiones de las escalas espaciales y temporales? En el caso de la dinámica de las poblaciones y la composición de especies de una comunidad —teórica y experimentalmente— se ha demostrado que están determinadas por la limitación de recursos en el sistema y la competencia interespecífica. La predicción es que en condiciones de recursos limitados, causadas por bajas precipitaciones, por ejemplo, la abundancia y la distribución de las especies se verán afectadas negativamente. Sin embargo, al tratar de probar esta hipótesis en sistemas naturales más extensos y bajo periodos de observación más largos, se ha encontrado que los regímenes de precipitación son variables en el tiempo y presentan relaciones que no son lineales, que no siguen directamente con las fluctuaciones poblacionales. En la regulación de las poblaciones intervienen otros factores como la depredación y el almacenamiento de recursos. Además, las interacciones aparentemente indirectas pueden desencadenar efectos en cascada impredecibles y con mayores consecuencias, dada la compleja matriz de interacciones de grupos taxonómicos que forman parte de una comunidad determinada.
 
En estudios de largo plazo se puede observar cómo los cambios en el comportamiento de ciertos organismos están ligados a fenómenos globales como el cambio climático. Las oscilaciones en la precipitación pueden estar regulando la proporción de plantas que poseen distintas fisiologías para la absorción de carbono y, esto a su vez, puede tener repercusiones en los cambios numéricos de las poblaciones que dependen de estas especies, como es el caso de herbívoros y polinizadores. Los cambios de temperatura pueden afectar severamente a las poblaciones e incluso ocasionar extinciones locales de especies. El análisis en este contexto temporal y espacial es lo que permite detectar patrones que ocurren a nivel planetario.
 
Los determinantes históricos de las comunidades
 
Uno de los problemas más importantes en la ecología de las comunidades es la explicación del origen y el mantenimiento de la diversidad biológica que compone a una comunidad determinada. En años recientes se ha planteado la necesidad de entender tres elementos históricos: el origen del lugar, del linaje y de los procesos macroevolutivos.
 
Se parte de la idea de que el componente histórico no sólo es el escenario en el cual ocurren los fenómenos ecológicos, sino que proporciona argumentos para explicar dichos procesos. En estos análisis, por medio de la incorporación de investigaciones paleontológicas y paleoecológicas, se pretende reconstruir el origen de los lugares en donde pudieron existir los organismos. Conocer la historia de los linajes evolutivos de los grupos taxonómicos que componen una comunidad contemporánea por medio del establecimiento de hipótesis filogenéticas y geneaológicas es muy relevante, ya que en gran medida el funcionamiento de los gremios ecológicos y la explicación de la composición de las comunidades naturales se debe al origen de éstos. Finalmente, algo que parecía imposible hace algunas décadas es posible en la actualidad gracias a la aplicación de hipótesis macroevolutivas, entre las cuales se encuentra la selección de especies o las tasas diferenciales en su formación, y la extinción de los grupos taxonómicos en investigaciones ecológicas.
 
Sin duda, el conocimiento de los determinantes históricos de los sistemas naturales nos eleva a una dimensión evolutiva en las explicaciones ecológicas. Hace ya tres décadas, un famoso ecólogo teórico se planteaba la pregunta, ¿cómo evolucionan los ecosistemas? Pero pocos científicos se atrevían a elaborar una argumentación, ya que se veían grandes brechas teóricas y sobre todo metodológicas. Hoy en día, estamos cerca de elaborar marcos conceptuales para responderla.
 
¿Sistemas ecológico-económico-sociales?
 
En los análisis de los sistemas naturales existe cada vez más la tendencia a reconocer que los ecosistemas están constituidos por dos componentes: los biológicos y los sociales. La existencia, el funcionamiento y el mantenimiento de los sistemas naturales no pueden explicarse sin tomar en cuenta la influencia del hombre y su amplia gama de actividades (tanto actual como histórica). Sin embargo, el análisis de los sistemas naturales se complica al incorporar al hombre, ya que se incrementa el grado de impredecibildad. El estudio de la relación entre sistemas naturales y sistemas sociales es conocido como ecología humana. En la actualidad se reconocen interacciones de la ecología, la antropología, la política, la economía, la historia, la sociología, y la arquitectura, entre otras.
 
Las interacciones hombre-naturaleza son sumamente variables y obedecen a otras leyes y a otra lógica. Es por esto que existe una fuerte reticencia tanto de científicos naturales como sociales a aceptar los sistemas integrados, ecológico-sociales. Sin embargo, se hace una serie de esfuerzos valiosos por tratar de desarrollar marcos conceptuales, modelos o simples planteamientos, integrando elementos ecológicos, económicos, sociales e incluso culturales.
 
La economía ecológica
 
Dentro de la teoría económica ha surgido una fuerte escuela de pensamiento que intenta inscribir un nuevo modelo de desarrollo humano que no esté basado exclusivamente en la economía de mercado. A este nuevo modelo se le ha denominado económico-ecológico y constituye una propuesta muy atrevida, ya que cuestiona profundamente los modelos de desarrollo de las sociedades capitalistas contemporáneas, incorporando el capital social y cultural en adición al capital humano y natural. Parte de la inexistencia de una sustitución perfecta entre el capital natural y el humano, y de la importancia que tiene la consideración de los límites que impone el uso de energía y recursos naturales, así como de sus desperdicios, por lo que es uno de los nuevos paradigmas de los sistemas ecológico-sociales.
 
En este nuevo modelo de desarrollo se generan complejas relaciones de propiedad, ya que se tiene que hacer compatible la propiedad privada individual con los bienes de propiedad común, como puede ser el caso de los bosques, selvas, mares y otros sistemas naturales. También se reconoce tanto la existencia de los bienes y servicios ecológicos que los ecosistemas y sus recursos proveen, como la necesidad de la satisfacción individual y comunitaria (sin causar un daño irreversible al capital natural).
 
La investigación en esta área se concentra propiamente en líneas como la economía de los recursos naturales, la economía ambiental y la economía ecológica.
 
El desarrollo sustentable, ¿paradigma o utopía?
 
El paradigma actual de los sistemas ecológicos-sociales es por excelencia el del desarrollo sustentable. El reconocimiento de que vivimos una crisis ambiental con fuertes repercusiones que hacen peligrar la existencia del planeta mismo ha generado la necesidad de establecer una sociedad sustentable en términos ambientales, sociales y económicos. Existen varias definiciones de desarrollo sustentable, pero todas se acercan a la consideración de un desarrollo que satisfaga las necesidades presentes sin comprometer las necesidades de generaciones futuras, y que mantenga los procesos ecológicos esenciales y los sistemas que soportan la vida, así como sus recursos genéticos y el aseguramiento de la utilización de las especies y ecosistemas.
 
Es importante recalcar que el tema del desarrollo sustentable ha generado una gran discusión. Para algunos autores es una utopía alcanzar dicho desarrollo, porque los modelos obedecen a las leyes de mercado y éstas rara vez han sido compatibles con la conservación de los ecosistemas y sus recursos. En las economías capitalistas ha existido una fuerte tendencia a la explotación secuencial del capital natural sin ningún criterio de tipo sustentable. La incorporación de un criterio ecológico a la sustentabilidad genera nuevos imperativos que no pueden ser resueltos bajo la lógica del mercado, ya que se requiere una nueva visión del manejo de los sistemas naturales y una nueva actitud. Se dice que más que una meta, el desarrollo sustentable es un proceso, en donde las experiencias humanas diarias deben incorporarse para crear nuevos sistemas. En esta lógica se puede insertar no sólo una nueva agenda de investigación, sino una nueva posición.
 
Nuevas agendas de investigación
 
Distintas organizaciones y sociedades científicas en el mundo han definido nuevas agendas de investigación como resultado de su preocupación por resolver los grandes problemas ambientales que aquejan a la humanidad. Hace casi una década, la Sociedad Americana de Ecología propuso una agenda llamada “Iniciativa de una biósfera sustentable”, en donde se presentan las necesidades de investigación científica para un manejo inteligente de los recursos de la Tierra y el mantenimiento de los sistemas que soportan la vida.
 
Las prioridades de la investigación se concentran en tres puntos: el cambio climático, la diversidad biológica y los sistemas ecológicos sustentables. En cada uno de ellos se presentan las preguntas de frontera y los problemas más relevantes que hace falta investigar. Una muestra de los temas a trabajar son: 1) las causas y consecuencias del cambio climático global, su influencia en procesos ecológicos clave de los ecosistemas y en la diversidad biológica; 2) las consecuencias ecológicas de la degradación de los sistemas naturales, sus límites y capacidad de recuperación; 3) las consecuencias evolutivas de los cambios ambientales y antropogénicos; 4) los cambios en la diversidad biológica y sus consecuencias en la estabilidad y resiliencia de los ecosistemas; 5) el conocimiento de los patrones de diversidad a nivel mundial, incluyendo las especies con distintos niveles de vulnerabildad y rareza; 6) la investigación de los procesos de restauración ecológica y los indicadores de las respuestas de los ecosistemas a perturbaciones y estrés; 7) la comprensión y aplicación de los principios para establecer sistemas ecológicos manejables; y 8) la determinación de los principios que provocan enfermedades y los mecanismos de dispersión de los vectores de estas epidemias.
 
En agendas como la de la conservación de la biodiversidad se establecen regiones prioritarias a nivel mundial, como los denominados “focos rojos de diversidad”, con el fin de priorizar la conservación de especies endémicas y detener la destrucción de ecosistemas naturales. Otras tienden más bien a realizar un diagnóstico sobre la salud ambiental del planeta por medio de programas financiados por la Naciones Unidas para conocer el estado de los ecosistemas naturales del mundo.
 
Estas agendas y programas de investigación son interesantes y generan una serie de preguntas realistas para avanzar no sólo en el entendimiento de los procesos ecológicos, sino en cómo éstos pueden servir para coadyuvar a preservar, manejar y construir los sistemas naturales.
La comunidad científica mexicana debería elaborar una agenda que sirva para delinear la investigación científica ecológica del país. Esto no debe confundirse con las agendas gubernamentales o con los discursos de políticos y funcionarios científicos, sino con un verdadero programa de investigación elaborado por grupos interdisciplinarios con metas a distintos plazos, que nos permita no sólo contribuir al conocimiento científico, sino construir una línea propia de investigación ecológica sustentable del país.
 
Hacia una nueva ecología
 
A lo largo de la historia de la Tierra han ocurrido muchos eventos catastróficos de diferente magnitud, que van desde la tectónica de placas y la conformación de los continentes hasta cambios climáticos regionales, durante los cuales se han extinguido millones de especies. Sin embargo, en años recientes muchos de los ecosistemas se han visto alterados y miles de especies han desaparecido a causa de las actividades humanas. Para poder entender, controlar y predecir estos cambios en los sistemas naturales, las investigaciones ecológicas básicas son fundamentales. Asimismo, es importante resaltar la necesidad de adoptar una posición académica, filosófica y política sobre la naturaleza de los sistemas ecológicos-sociales. El avance de la investigación en ambas direcciones nos permitirá ir construyendo no sólo una nueva teoría científica de la ecología, sino la elaboración de políticas para la solución de los problemas ambientales.
 
Para que realmente se alcance el desarrollo de sistemas sustentables en sus dimensiones ecológicas, sociales y políticas, esta “nueva ecología” deberá de permear a todos aquellos que tengan poder de decisión en diferentes ámbitos, ya que no se puede alcanzar del desarrollo sustentable con los niveles de desigualdad e injusticia que prevalecen bajo los actuales modelos de desarrollo económico. Es imposible el alcance, la preservación y el manejo de los ecosistemas naturales de manera sustentable sin que existan políticas universales y nuevos modelos de desarrollo económico y social. Sin la existencia de una nueva cultura, una nueva ética y una nueva actitud hacia los problemas esenciales de la convivencia humana no será posible alcanzar un buen estado ambiental. No podemos continuar ignorando la relevancia de los problemas ecológicos ante el grave deterioro de la calidad de vida de la humanidad.Chivi67
Referencias bibliográficas
 
Allen, T. F. H. y T. W. Hoekstra. 1992. Toward a Unified Ecology. Columbia University Press, Nueva York.
Avise, J. C. 1994. Molecular Markers, Natural History and Evolution. Chapman & Hall, Nueva York.
Avise, J. C. 2000. Phylogeography. Harvard University Press, Harvard.
Berkes, F. y Folke C. (eds.) Linking Social and Ecological Systems. Management Practices and Social Mechanisms for Building Resilience. Cambridge University Press, Cambridge.
Brown, J. H. 1995. Macroecology. The University of Chicago Press, Chicago.
et al. 2001. “Complex Species Interactions and the Dynamics of Ecological Systems: Long-term Experiments”, en Science, núm. 293.
Costanza, R. 2001. “Visions, Values, Valuation and the Need for an Ecological Economics”, en BioScience, núm. 51.
Eldredge, N. 1985. Unfinished Synthesis. Biological Hierarchies and Modern Evolutionary Thought. Oxford University Press, Nueva York.
Enquist, B. J. y K. J. Niklas. 2001. “Invariant Scaling Relations Across Tree-dominated Communities”, en Nature, núm. 410.
Futuyma, D. J. 1998. Evolutionary Biology. Sinauer Associates Inc. Pub. Sunderland, Massachusetts.
Goodland, R. 1995. “The Concept of Environmental Sustainability”, en Annual Review of Ecology and Systematics, núm. 26.
Hanski, I. A. y M. E. Gilpin. 1997. Metapopulation Biology. Ecology, Genetics, and Evolution. Academic Press, San Diego.
Lubchenco, J. et al. 1991. “The Sustainable Biosphere Initiative: an Ecological Research Agenda”, en Ecology, núm. 72.
Myers, N. et al. 2000. “Biodiversity Hotspots for Conservation Priorities”, en Nature, núm. 403.
Oyama, K. y A. Castillo (eds.). 2002. Manejo, conservación y restauración de los recursos naturales. Perspectivas desde la investigación científica. Siglo XXI. México (en prensa).
Pérez Ransanz, A. R. 1999. Kuhn y el cambio científico. fce, México.
Pimm, S. L. et al. 2001. “Can we defy Nature’s End?”, en Science, núm. 293.
Thompson, J. N. 1994. Coevolutionary Process. The University Chicago Press, Chicago.
et al. 2001. “Frontiers of Ecology”, en BioScience, núm. 51.
Vitousek, P. M. et al. 1997. “Human Domination of Earth’s Ecosystems”, en Science, núm. 277.
Ken Oyama
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Oyama, Ken. (2002). Nuevos paradigmas y fronteras en ecología. Ciencias 67, julio-septiembre, 20-31. [En línea]

    Regresar al índice artículo siguiente
  P01    
 
 
     
El concepto de escala y la teoría de las jerarquías en ecología
La apli­ca­ción del con­cep­to de he­te­ro­ge­nei­dad pre­su­po­ne que el fun­cio­na­mien­to de la na­tu­ra­le­za es­tá ex­pli­ca­do por pro­ce­sos que se lle­van a ca­bo en di­fe­ren­tes es­ca­las es­pa­cio-tem­po­ra­les, esto es que los pro­ce­sos eco­ló­gi­cos son de­pen­dien­tes de la es­ca­la.
Leopoldo Galicia Sarmiento y Alba Esmeralda
Zarco Arista

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Hasta ahora, la aproximación al conocimiento de la naturaleza ha sido posible al utilizar el método científico tradicional (hipotético-deductivo), en el cual los fenómenos de la naturaleza han sido conceptualizados como sistemas simples y aislados, y cuya finalidad ha sido el ofrecer una explicación causal (determinista) y mecanicista de los fenómenos que ocurren en ella. El método hipotético-deductivo incorpora pocas variables, considerando que ellas están en equilibrio y que son estáticas y homogéneas tanto en el espacio como en el tiempo, es decir, unicausales, unidireccionales y lineales. Además, la escala de espacio y de tiempo que incorpora es muy pequeña, por tanto, en la búsqueda de explicaciones y predicciones de los patrones de la naturaleza, dicho método tiene un bajo poder de generalización. El fin último de este enfoque es establecer que el entendimiento de cada una de las partes que conforman a la naturaleza ofrece la comprensión de la misma como un todo. En esta concepción reduccionista no sólo existe una disminución en el número de factores que explican los patrones, sino también en la posibilidad de ofrecer explicaciones alternas, con lo cual se busca explicar el componente como resultado de su comportamiento intrínseco, es decir, sin tomar en cuenta su entorno.
 
La ciencia ecológica no ha sido la excepción al adoptar el método científico tradicional, por lo que en la búsqueda de generalizaciones y predicciones ha concebido una naturaleza en equilibrio, estática y homogénea. Los procesos ecológicos que la explican se conciben por tanto como fenómenos simples, unidireccionales, unicausales y con respuestas lineales. Los estudios mecanicistas han ayudado a entender las relaciones causa-efecto de algunos procesos ecológicos; sin embargo, no ha sido posible explicar los patrones ecológicos en la naturaleza por medio de la extrapolación de los resultados de laboratorio y de campo en pequeña escala. Esta limitante se debe a que en la naturaleza existe una gran heterogeneidad espacial y temporal que hace difícil extrapolar datos que se generan en condiciones homogéneas, es decir, que no se han logrado explicar los mecanismos que producen los patrones de distribución de especies en áreas geográficas grandes. La aplicación del concepto de heterogeneidad presupone que el funcionamiento de la naturaleza está explicado por procesos que se llevan a cabo en diferentes escalas espacio-temporales, que los procesos ecológicos son dependientes de la escala. Sin embargo, la importancia del concepto de escala no se ha generalizado en los diferentes niveles de organización ecológica, aun cuando se ha mencionado que el estudio de la heterogeneidad espacial es fundamental para la investigación en la naturaleza.
 
El concepto de escala puede definirse como la dimensión espacial y temporal que se requiere para un cambio en la tasa a la cual ocurren los procesos y en la importancia relativa de los factores que explican dichos procesos. La definición de escala implica heterogeneidad; conforme la ventana de observación de espacio o de tiempo aumenta, cambia la importancia de los organismos, sus características y los parámetros ambientales. Por tanto, la incorporación del análisis espacial puede ayudar a identificar la heterogeneidad en diferentes escalas espaciales y temporales sobre las cuales operan los procesos que explican los patrones en amplias áreas geográficas. Los estudios de procesos ecológicos en el laboratorio o el campo, en pequeña escala espacio-temporal, no son considerados dependientes de la misma, es decir, muchas veces los procesos que generan cambios importantes en el patrón ocurren lentamente y requieren amplias escalas geográficas y largos períodos de observación. Como menciona Levin, el estudio de la escala requiere el análisis del cambio y la variabilidad de los patrones de acuerdo con la escala de descripción.
 
Otro elemento conceptual importante en este trabajo es el de la teoría de las jerarquías, la cual considera a los sistemas ecológicos como sistemas complejos, es decir, que postula la existencia de una relación entre la entidad (el objeto de estudio en cuestión) y su contexto (las interrelaciones con su matriz), por lo que cada nivel jerárquico posee un grupo de relaciones diferentes. La importancia de este concepto es que nos ayuda a entender las diferentes tasas a las que ocurren los procesos ecológicos. Los fenómenos que se estudian en pequeñas escalas espacio-temporales no son muy predecibles porque los sistemas biológicos son poco persistentes y muy variables, lo cual se debe al límite y a la baja extensión espacio-temporal de los datos. La escala de observación también cambia el número de variables involucradas. A escalas pequeñas existe un gran número de variables que explican un proceso, por tanto, los fenómenos que ocurren en éstas tienen gran variabilidad y poca generalidad. Por el contrario, en grandes escalas, pocas variables explican los procesos, por lo cual se incrementa la predictibilidad.
 
En diferentes trabajos se ha establecido que los sistemas ecológicos poseen heterogeneidad y están estructurados jerárquicamente. Por lo mismo, el desarrollo de la teoría ecológica debe incorporar la descripción y la cuantificación de la variabilidad espacial y los diferentes niveles jerárquicos que explican los patrones ecológicos. Levin señala: “Todos los sistemas ecológicos presentan heterogeneidad y formación de parches en grandes escalas espaciales y temporales”. Estas características son fundamentales para entender la dinámica de las poblaciones, la estabilidad y organización de las comunidades y el reciclaje de elementos en los ecosistemas. Sin embargo, no se ha producido la información relevante en diferentes escalas para explicar los patrones del comportamiento de las poblaciones, la estructura de las comunidades y la de los ecosistemas, así como su funcionamiento.
 
La ecología de las poblaciones
 
Tradicionalmente, los modelos de crecimiento poblacional suponen que el espacio y el tiempo son homogéneos. El problema principal de este enfoque es que no considera que los parámetros demográficos como la natalidad, la mortalidad y la sobrevivencia dependen de la heterogeneidad espacial; por tanto, no pueden explicar los patrones de la distribución y dinámica de las especies en amplias escalas geográficas. Por otro lado, en la ecología de poblaciones, la incorporación del concepto de heterogeneidad espacial no ha sido la excepción.
Un tema reciente relacionado con este nivel de organización ha sido el papel de la heterogeneidad espacial en la reducción de las tasas de extinción de las poblaciones. Los modelos que toman en cuenta el espacio son: a) los de reacción-difusión, b) los de parches, y c) los de estados discretos basados en sistemas individuales. Estos modelos se basan únicamente en cómo los organismos responden a esa heterogeneidad, pero se vuelve a considerar que el crecimiento, la reproducción y la sobrevivencia ocurren en la misma escala temporal, a pesar de que es claro que éstas operan en distintas escalas temporales. Asimismo, se considera que los parámetros demográficos son producto únicamente del comportamiento de los organismos que componen la población; es decir, que los factores denso-dependientes son más importantes que los factores denso-independientes. Sin embargo, se ha reportado que los parámetros independientes de la densidad operan en escalas espacio-temporales que están por encima de la población y que son los más importantes para regular la dinámica poblacional. Un primer esfuerzo por incorporar la escala que determina la dinámica de las poblaciones ha sido llevado a cabo con el enfoque de metapoblaciones, en el cual se supone que los parches individuales tienen tasas de extinción altas, pero que la alternativa de colonizar más parches reduce la posibilidad de la extinción de las poblaciones. En este ejemplo ha sido importante la inclusión del enfoque de la teoría de la jerarquía para decidir a qué escala operan los procesos que mantienen dicha dinámica, por lo que es posible: a) entender la importancia relativa de todos los procesos (dependientes e independientes de la densidad), así como su variación en el tiempo; b) generar modelos poblacionales que posean una aproximación más real y mejorar la precisión de los modelos de proyección poblacional; y c) la incorporación de la teoría de jerarquías con el fin de observar a las poblaciones como un sistema jerárquico (recurso-población-comunidad). En dicho sistema podemos entender si la dinámica de la población está regulada por un nivel inferior, como la disponibilidad y heterogeneidad de recursos, o por un nivel superior, como la comunidad (interacciones al interior de la especie).
 
La ecología de las comunidades
 
Los comportamientos de las interacciones de dos especies han incorporado el papel de la heterogeneidad espacial. Los modelos que han sido utilizados para incluir el espacio han sido de reacción-difusión y de autómatas celulares. Estos trabajos concluyen que la heterogeneidad espacial es indispensable para la coexistencia de especies. En los trabajos en el ámbito de la comunidad, la integración de la heterogeneidad espacio-temporal y la escala han documentado el cambio de los factores que explican los procesos que mantienen la estructura de las comunidades. Por ejemplo, con el cambio de la ventana de observación espacio-temporal las interacciones de las especies pueden cambiar de intensidad e inclusive de dirección. Los recursos (agua, nutrimentos, luz) son heterogéneos, y dependiendo de la escala podemos observarlos formando parches o continuos. Asimismo, la variabilidad de éstos desempeña un papel clave en la variación espacial de la estructura de las comunidades.
 
El problema científico de la ecología de comunidades tiene que ver con las fuerzas que las estructuran y con la predicción de los cambios en el número de las especies de las mismas. Por tanto, tiene una amplia relación con la variabilidad. Muchos de los mecanismos por los cuales las especies coexisten son dependientes de la heterogeneidad ambiental en espacio o tiempo, o en el caso de perturbaciones de ambas heterogeneidades. Sin embargo, ésta no sólo existe en la distribución de los recursos, sino que hay una amplia heterogeneidad biótica (densidad y composición de las especies), en particular en los parámetros demográficos (sobrevivencia, crecimiento y fecundidad), los cuales varían en el espacio dando lugar a cambios en la estructura de la comunidad.
 
Las perturbaciones tienen un efecto estabilizador sobre la limitación de recursos, ya que éstas pueden: a) eliminar a los individuos competitivamente dominantes y reducir la exclusión competitiva; y b) generar una alta disponibilidad de recursos que permita que las especies de rápido crecimiento puedan coexistir.
 
Al incluir la teoría de las jerarquías y el concepto de escala se pueden conocer los cambios en la disponibilidad de recursos —integrando diferentes escalas espacio-temporales— y la manera en la que influyen sobre la coexistencia de especies en amplias áreas geográficas; también permiten comprender la interacción de la variabilidad de las características ambientales y los cambios en la estructura de la comunidad.
 
La ecología de los ecosistemas
 
La ecología de los ecosistemas ha sido uno de los enfoques que mayor atención ha puesto en la heterogeneidad espacial y temporal. En los estudios a nivel de ecosistema se ha observado que los procesos que explican la productividad, los balances de agua, los patrones de descomposición y la biogeoquímica, son procesos dependientes de la escala. Así, a escala local, la productividad es explicada por la precipitación y por la capacidad de retención de agua en el suelo, pero que, a escalas mayores, lo es por el patrón regional de la precipitación.
 
Holling menciona que la dinámica y estructura de los ecosistemas son explicadas por fenómenos que ocurren en diferentes escalas espacio-temporales, y establece que los procesos de la vegetación se explican en pequeña escala por el crecimiento de las plantas, por su estructura y por la del suelo, a mediana escala por los procesos de perturbación (fuego, plagas de insectos y los huracanes), y a macro escala son los procesos geomorfológicos los que mantienen la estructura de los ecosistemas. Asimismo, él propone que se debe buscar información que se pueda cruzar entre escalas para determinar la estructura y el funcionamiento de los ecosistemas. Aunque la heterogeneidad espacial de muchos procesos en los ecosistemas es desconocida, los resultados de los sitios específicos no pueden extrapolarse a escalas regionales.
 
Una propuesta interesante sería entender cómo los procesos que ocurren en escalas pequeñas influyen sobre la estructura y funcionamiento de los ecosistemas, es decir, cómo pequeños procesos tienen grandes implicaciones en la dinámica de éstos. Otro aspecto de interés es concebir la entrada de energía y materia a los ecosistemas como fenómenos aleatorios y estocásticos (i.e. la entrada de precipitación a los ecosistemas). Esto tiene profundas consecuencias en el comportamiento de los ecosistemas; por ejemplo, la dinámica de los flujos se presenta en pulsos (actividad microbiana y liberación de nutrimentos al suelo). Lo anterior pone de manifiesto que si los ecosistemas se abordan con los parámetros anteriores, se puede ofrecer una visión novedosa acerca de la complejidad de la naturaleza.
 
Heterogeneidad espacial estadística
 
Como se mencionó previamente, uno de los aspectos que ha adquirido relevancia en la teoría ecológica es el reconocimiento de la variabilidad, la cual refleja la heterogeneidad espacial y temporal de los sistemas ecológicos. El problema de concebir a la naturaleza de manera simplificada y homogénea se manifiesta en la forma de abordarla analíticamente. Con anterioridad, en los trabajos ecológicos la variabilidad era considerada como ruido en la interpretación estadística de los datos, ya que éstos se analizan bajo los supuestos de que existe homogeneidad de varianza, independencia, etcétera. En realidad, lo que se ha considerado como ruido se debe a que en los sistemas ecológicos la heterogeneidad es inherente al sistema, por lo cual éstos no pueden cumplir con los requisitos de replicación, homogeneidad de varianzas, independencia, etcétera.
 
El concepto de heterogeneidad ha sido usado indistintamente en las áreas de ecología y estadística, y es interpretado de diferente manera en ambas disciplinas. Los ecólogos la definen como la variación espacial en la composición de especies, la disponibilidad de recursos, etcétera, es decir, que identifica cambios en los valores de un parámetro cuantitativo o cualitativo. Por el contrario, en estadística la heterogeneidad se refiere a que los datos no presentan una distribución normal e independiente, por tanto, no se refiere a la heterogeneidad espacial de los patrones en la naturaleza.
 
Es importante comprender la variabilidad asociada a la heterogeneidad espacial en diferentes formas y combinaciones. Asimismo, no se debe perder de vista que los componentes de los diseños experimentales son deterministas (en pequeñas escalas espacio-temporales), pero se ignora si puedan existir componentes estocásticos y caóticos. Los componentes deterministas pierden importancia en estudios de grandes escalas espaciales porque en éstas las interacciones son más importantes que las relaciones causa-efecto.
 
Alternativas al método científico
 
Considerando lo anterior, permanece el reto de comprender a la naturaleza como un sistema complejo, multidireccional, multicausal, sin equilibrio, dinámico y con respuestas no lineales. Es decir, hace falta incorporar la heterogeneidad biológica y ambiental en diferentes niveles tróficos de manera simultánea para entender las fuerzas que regulan la organización de los sistemas ecológicos. La forma de llevarlo a cabo es integrando el concepto de escala espacial y temporal y la teoría de jerarquías en la descripción de los patrones ecológicos en la naturaleza. Entender los fenómenos ecológicos de cada uno de los niveles de organización como un sistema complejo (componentes y contexto), es un reto para el cuerpo conceptual en la ecología. Bajo estas condiciones, la aproximación experimental tiene que llevar a cabo experimentos que consideren: a) sistemas de muchas especies, b) recursos múltiples limitantes, c) la incorporación de diferentes niveles tróficos, d) experimentos en grandes áreas geográficas, y e) estudios de largo plazo. Esto puede ser interesante para entender la dinámica de poblaciones y la estructura de las comunidades.
 
Una alternativa más es concebir a los patrones ecológicos de las poblaciones, los ecosistemas y las comunidades como sistemas autoorganizables con dinámica de parches y con equilibrios múltiples y estables. Esto puede ser posible aplicando la teoría general de sistemas y la teoría del caos para entender la variabilidad espacio-temporal y las escalas de resolución.
La ecología necesita la implementación de técnicas estadísticas que incluyan en sus hipótesis e interpretaciones la heterogeneidad espacial, técnicas como los índices para patrones de punto, variogramas, análisis de varianza dependiente de la escala y correlogramas para patrones de superficie. Asimismo, hace falta la incorporación de los índices fractales para determinar las tasas de cambio de los procesos en el espacio. Por otro lado, la inclusión de la teoría del caos es importante porque ésta puede ayudarnos a determinar analíticamente si los patrones en la naturaleza son periódicos, caóticos o aleatorios, así como la escala temporal a la cual ocurren los procesos.
 
El reto de la complejidad
 
En la información revisada en la literatura ecológica la descripción de la heterogeneidad espacial es vista sólo como una entidad estática. La variabilidad espacial y temporal ha sido descrita como una entidad más, es decir, sólo afecta a los organismos y a su forma de responder a esa heterogeneidad espacial; sin embargo, poco se ha dicho sobre cómo el cambio de escala y la heterogeneidad pueden influir en las conclusiones que se obtienen en un nivel jerárquico aislado. Por tanto, es necesario crear modelos con diferentes niveles de complejidad, es decir, entender los patrones ecológicos, integrando diferentes niveles de organización y, sobre todo, generando información a la escala adecuada para discernir la importancia de los procesos que explican los patrones en la naturaleza.
 
Como se mencionó anteriormente, uno de los retos es la integración de los diferentes enfoques en la ecología. Este tipo de visión comienza a utilizarse al enlazar procesos funcionales entre el nivel de poblaciones y el de ecosistemas, como las relaciones entre la actividad fisiológica de los individuos (fotosíntesis, uso eficiente de agua y nutrimentos) y la estructura de los ecosistemas. Asimismo, sería conveniente combinar parámetros de la estructura de la población (tamaño de los individuos, tasa de crecimiento) con la productividad del ecosistema. Otro ejemplo son los estudios que incluyen las relaciones entre comunidades y ecosistemas, como el papel de la diversidad de especies sobre el funcionamiento del ecosistema.
 
Los cambios y las perturbaciones dentro de los sistemas ecológicos son atribuidos a propiedades de las entidades, pero no a cambios en el contexto. La organización de los sistemas ecológicos posee características como la estructura, el funcionamiento y la complejidad, y éstas cambian por influencia de fuerzas internas y externas.
 
Tal vez en la teoría ecológica lo más interesante sea estudiar la amplitud y periodicidad
de las fluctuaciones ecológicas y los patrones de variación acorde con la dinámica
espacio-temporal.Chivi67
Agradecimientos
Queremos agradecer al Dr. Jorge Meave del Castillo por su valiosa revisión del trabajo.
Referencias bibliográficas
 
Allen, T. F. H. y T. W Hoekstra. 1992. Toward a Unified Ecology. Columbia. University Press, Nueva York.
Dutilleul, P. y P. Legendre. 1993. “Spatial Heterogeneity against Heteroscedasticity: an Ecological Paradigm versus a Statistical Concept”, en Oikos, núm. 66, pp.152-171.
Holling, C. S. 1992. “Cross-scale Morphology, Geometry, and Dynamics of Ecosystems”, en Ecological Monographs, núm. 62, pp. 447-502.
Kareiva, P. 1994. “Special Feature: Space: The Final Frontier for Ecological Theory”., en Ecology, núm. 75, pp. 1-2.
Levin, S. A. 1992. “The Problem of Pattern and Scale in Ecology”, en Ecology, núm. 73, pp. 1943-1967.
O’Neill, R. V., A. R. Johnson y A. W. King. 1989. “A Hierarchical Framework for the Analysis of Scale”, en Landscape Ecology, núm. 3, pp. 193-206.
Pahl-Wostl, C. 1995. The Dynamic Nature of Ecosystems: Chaos and Order Entwined. John Wiley & Sons, Londres.
Tilman, D. 1994. “Competition and Biodiversity in Spatially Structured Habitats”, en Ecology, núm. 75, pp. 2-16.
Turner, M. G. 1989. “Landscape ecology: The Effect of Pattern on Process”, en Ann. Rev. Ecol. Syst., núm. 20, pp. 171-197.
Leopoldo Galicia Sarmiento
Instituto de Geografía
Universidad Nacional Autónoma de México.
 
Alba Esmeralda Zarco Arista
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

Galicia Sarmiento, Leopoldo y Zarco Arista, Alba E. (2002). El concepto de escala y la teoría de las jerarquías en ecología. Ciencias 67, julio-septiembre, 34-40. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
El paisaje en ecología
El uso de la pa­la­bra pai­sa­je, co­mo tér­mi­no téc­ni­co, se ha in­cre­men­ta­do en la úl­ti­ma
dé­ca­da en­ las cien­cias so­cia­les y bio­ló­gi­cas. Sin em­bar­go, aun cuan­do en ellas se re­fie­re a una ex­ten­sión de te­rre­no, el pai­sa­je no ha
si­do de­fi­ni­do cla­ra­men­te ni de­li­mi­ta­do en el
es­pa­cio.
Elvira Durán, Leopoldo Galicia Sarmiento,
Eduardo Pérez García y Luis Zambrano

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
¿Quién no ha visto los programas de Bob Ross que enseña en menos de una hora a pintar un paisaje con ayuda del verde vejiga o del rojo carmesí? Sus cuadros representan bosques, montañas nevadas, lagos y trigales que están “bajo alegres nubecillas que danzan en el cielo”. Este señor de cabellos a la afro pinta paisajes que surgen de su visión de la naturaleza, aunque para observar otros “reales”, podemos ir al munal en el centro de la ciudad de México, en donde es posible admirar preciosos óleos de fines del siglo xix pintados magistralmente por José María Velasco, que representan a la campiña mexicana. La obra de los pintores paisajistas indica que el paisaje normalmente se refiere a la variedad de cosas que puede ver el ojo humano, ya sea en pequeñas o grandes extensiones de terreno (un río, una ciudad, los cultivos, los bosques, etcétera), pero... ¿será que esta percepción del entorno inspiró el desarrollo de toda una disciplina en las ciencias naturales? Pues así es, el interés por comprender de manera integral los patrones y procesos ecológicos del espacio que percibimos dio origen a la ecología del paisaje.
 
Ésta es una disciplina que integra aspectos del área biológica y de las ciencias de la tierra, y que tiene al paisaje como su principal objeto de estudio. La premisa fundamental de esta doctrina es que la heterogeneidad ambiental de una extensión de terreno influye en los patrones y procesos ecológicos. En 1939, el alemán Carl Troll realizó una integración del enfoque geográfico y del botánico para acuñar el término de ecología del paisaje. Sin embargo, en su desarrollo esta disciplina ha ido estructurando un cuerpo teórico y metodológico para el análisis de la relación entre el componente biológico y el medio físico, y en algunos casos, el factor humano.
 
Además de las preguntas académicas, la crisis ambiental y la necesidad de un uso racional de los recursos naturales han propiciado que numerosos cuestionamientos y acciones prácticas en la ecología, en las ciencias ambientales y en el manejo de los recursos hayan adoptado la perspectiva integradora de la ecología del paisaje. Esta situación se refleja, entre otras cosas, en el incremento de trabajos publicados sobre el tema en las revistas especializadas de mayor difusión en ecología básica y aplicada. Sin embargo, esta tarea —especialmente en lo referente a la investigación básica— se enfrenta a los problemas semánticos y conceptuales derivados de una amplitud de interpretaciones de lo que es el paisaje. Por ello, consideramos que el concepto de paisaje debe acotarse para que contribuya a la edificación de bases conceptuales, teóricas y aplicadas en ecología.
 
El uso de la palabra paisaje, como término técnico, se ha incrementado en la última década entre las ciencias sociales y biológicas. Sin embargo, aun cuando en todas ellas se refiere a una extensión de terreno, el paisaje no ha sido definido claramente ni delimitado en el espacio —situación que propicia la interpretación individual de quien lo usa. La tarea de discutir qué se entiende por paisaje es importante porque a lo largo de la historia se ha comprobado que, en el ámbito científico, la libre interpretación de un concepto genera problemáticas al momento de alcanzar conclusiones. El hecho de que cada persona tenga una visión particular sobre un concepto determinado, equivale a hablar idiomas distintos y a pretender que se habla uno común. Esto crea el riesgo de que cada interlocutor genere conclusiones afines al concepto que adoptó, y no a las derivadas de la interpretación de los hechos bajo una referencia común. En años recientes, la necesidad de desarrollar un sistema conceptual en distintas disciplinas ha propiciado que varios investigadores, sociedades académicas y filósofos de la ciencia se hayan involucrado en la discusión de conceptos clave, entre los que figura el paisaje como un tema no agotado.
 
Especialmente en ecología, tiene distintas concepciones, ya que en algunos casos se le ha referido de manera intuitiva como un escenario (cuadro 1). También se plantea como un espacio de naturaleza heterogénea en donde tienen lugar distintos fenómenos naturales o se desarrollan diferentes actividades y problemáticas antrópicas; o bien, como un espacio donde ocurren distintos procesos biológicos y se manifiestan y perciben patrones naturales. En dichos planteamientos no es claro el contexto espacial y los elementos que lo delimitan, por lo cual parecen ambiguos en cuanto a la naturaleza del paisaje que abordan y sus límites (que pueden ir desde cientos de metros hasta regiones de miles de hectáreas).
 
 
Cuadro 1. Diferentes definiciones de paisaje
Una extensión de terreno compuesta de una agregación de componentes que interactúan y que se repiten a través del espacio (Forman y Godron, 1986).
 
 
 
El total de entidades físicas, ecológicas y geográficas que integran todos los patrones naturales y humano (Naveh y Lieberman, 1987).
 
 
 
 
Un escenario natural integrado por un conjunto de formas de relieve (Wiens, 1995).
 
 
 
 
Es un complejo de sistemas que simultáneamente forman una extensión de terreno reconocible, formada y mantenida por acción mutua de factores abióticos, bióticos y humanos (Zonneveld, 1995).
 
 
 
 
Una configuración topográfica, con un patrón de cobertura de vegetación y de uso del suelo, que delimita con coherencia procesos naturales y actividades antrópicas (Green et al., 1996).
 
 
 
 
Es una escala espacial adecuada a la cual se pueden investigar procesos ecológicos  (Farina, 1994).
 
Considerando esta situación, proponemos la siguiente definición pragmática: El paisaje es un ecosistema acotado espacialmente a nivel de mesoescala, de naturaleza heterogénea y que presenta una estructura inherente, la cual está conformada por parches homogéneos en sus características edáficas (suelos), litológicas (rocas) y topográficas, así como biológicas (vegetación u otros organismos estructural o funcionalmente importantes). Esta definición no incluye de manera explícita al factor humano (aunque da apertura para considerarlo), porque en ecología básica se tiene particular interés por entender los patrones y procesos ecológicos naturales y por ello comúnmente se realizan estudios en reservas ecológicas o sitios con menor influencia antrópica. Asimismo, la definición propuesta pretende disminuir la ambigüedad respecto a la escala del paisaje, sus límites y los criterios para determinar su estructura, y mostrar que este espacio es una unidad natural de estudio. Por lo tanto, consideramos que cualquier estudio en ecología del paisaje, previo a abordar una pregunta, debería documentar o tratar de comprender cuál es la estructura espacial de la heterogeneidad ambiental (medio físico y biológico) que se analizará.
 
Por el carácter técnico de la definición anterior, es conveniente discutir el problema de las escalas en ecología y especialmente el término “mesoescala”, así como lo referente a las características de medio físico, en particular en lo relacionado al suelo, la litología y la topografía, debido a que son la base para entender la heterogeneidad ambiental.
 
Las escalas en ecología
 
La escala se refiere a dimensiones cuya delimitación permite comparar sistemas de acuerdo a la magnitud de sus diferencias. Las escalas espaciales y temporales son las más analizadas en ecología de paisaje. Convencionalmente, los estudios ecológicos se ubican en tres dimensiones: la microescala o escala local, la mesoescala, y la macro o megaescala. La mesoescala es la dimensión a la cual se aboca el estudio del paisaje y que en el sentido espacial, corresponde a extensiones mayores a hectáreas, pero menores a miles de kilómetros cuadrados (regiones). Asimismo, esta escala se limita en el tiempo más allá de años y hasta decenas de siglos. Se ha comentado que el paisaje posee una estructura, la cual mantiene una relación jerárquica con otras escalas, es decir, con fenómenos que ocurren a otras escalas espacio-temporales.
 
A partir de numerosos estudios se tiene claro que la comprensión de un fenómeno ecológico es diferente cuando se aborda su análisis a distintas escalas. Por ello, actualmente la dimensión espacial se considera como una de las nuevas fronteras de la ecología. Sin embargo, la pregunta de a qué escala es correcto abordar el estudio de un determinado fenómeno ecológico no tiene una respuesta acertada si no es a la luz de metas y preguntas específicas, ya que, a diferencia de otras ramas de la biología como la fisiología celular o la biología molecular, en ecología los estudios se realizan a diferentes niveles si son individuos, poblaciones, comunidades o ecosistemas de lo que se trata.
 
Debido a que todos los fenómenos biológicos (los ecológicos incluidos) tienen una naturaleza jerárquica, no es posible conocer todo acerca de un fenómeno ni desde todas las dimensiones espaciales y temporales posibles en que éste opera. Esto tiene la virtud de abrir horizontes inimaginables para tratar de visualizar y estudiar aspectos biológicos a diferentes escalas; sin embargo, al mismo tiempo limita los alcances de los resultados generados al analizar solamente una escala. Por lo tanto, en función del propósito de estudio es necesario definir la escala más apropiada para efectuar un análisis, sólo así el paisaje puede ser promisorio para estudiar diferentes fenómenos en ecología, los cuales no podrían ser comprendidos a otras escalas.
 
La estructura del paisaje
 
El análisis de los patrones y procesos ecológicos en un paisaje requiere el conocimiento de su estructura, la cual corresponde a la disposición espacial de extensiones de terreno que son ambientalmente diferentes y se denominan parches.
 
Una metodología que nos aproxima a delimitar los parches en un paisaje es la provista por el enfoque morfoedafológico, el cual permite delimitar áreas homogéneas en cuanto a su medio físico, denominadas unidades morfoedafológicas. Éstas se caracterizan por su constancia edáfica (tipo de suelo) y geomorfológica, entendiendo a esta última como la integración de la forma del relieve, la litología superficial (roca madre) y los procesos morfodinámicos (como la erosión y los flujos de agua). En general, las características morfoedafológicas no son independientes del componente biológico, por ello, el integrar ambos aspectos hace posible distinguir a los parches, que son áreas ambientalmente homogéneas en cuanto al medio físico y el biológico (i.e. el tipo de vegetación cuyo carácter de homogeneidad podría incluir además variables estructurales como la cobertura, el área basal y la composición de especies).
 
Un elemento básico en la estructura de un paisaje es la matriz, la cual se considera como el elemento predominante, ya que comprende la forma de los parches y su extensión, su número, su dinámica interna y la conexión que mantienen entre sí, que son las características más importantes para definir la estructura del paisaje. Con base en esta última es posible reconocer en el paisaje un arreglo espacial a manera de mosaico, donde la interacción de los parches genera dinámicas ecológicas propias. La dinámica y la estructura constituyen las propiedades emergentes del paisaje y determinan la naturaleza e intensidad de los procesos ecológicos en el espacio. El hecho de analizar a estos procesos desde una perspectiva espacial permite obtener información que generalmente no es proporcionada por la ecología tradicional. Con la finalidad de presentar más elementos que permitan ubicar el aporte del enfoque paisajístico en ecología básica, presentamos un ejemplo de las bondades de éste en el estudio de la vegetación de islas de hábitat en un ecosistema tropical mexicano.
 
Enclaves de vegetación xerófila
 
En la región de Nizanda, Oaxaca, el paisaje está conformado principalmente por lomeríos de esquistos de baja altitud, entre los que irrumpen de forma abrupta y de manera muy vistosa, afloramientos de roca caliza carentes de suelo desarrollado. Los afloramientos rocosos son discontinuos y pueden reconocerse como islas de hábitat (parches), ya que las plantas que se establecen en ellos contrastan con las de la vegetación circundante, debido a que su morfología recuerda más a las formas de vida de una zona árida. Por lo anterior, fueron denominados como enclaves de vegetación xerófila.
 
En Nizanda predomina la vegetación arbórea tropical estacional, la cual es propia de la vertiente mexicana del Océano Pacífico y se caracteriza por presentar árboles de baja estatura (menores de quince metros) que carecen de hojas durante la temporada seca. A este tipo de vegetación se le puede llamar selva baja caducifolia, y en ella puede haber comunidades carentes de una cobertura arbórea continua, dominadas por plantas con mayores adaptaciones a la baja disponibilidad de agua (plantas xerófilas), como los magueyes (Agave) y las cactáceas, tanto columnares (Cephalocereus) como globosas (Mammillaria). Por estas características se clasifican como un matorral xerófilo.
 
De esta manera, la cuantificación de las diferencias en composición y estructura de la vegetación xerófila respecto de la matriz de la selva se planteó como objeto de estudio bajo un diseño de muestreo acorde con los métodos tradicionales. No obstante, las islas de hábitat calcáreas de Nizanda nos tenían reservados algunos secretos. Inicialmente se pretendía comparar dos tipos de vegetación muy contrastantes, el matorral xerófilo y la selva baja caducifolia; sin embargo, al recorrer el sitio de estudio se hizo evidente la existencia de una tercera comunidad cuyas características eran intermedias entre las otras dos, ya que presentaba un dosel continuo pero su flora era muy xerófila, particularmente en el estrato bajo (sotobosque). Por lo que se hizo un análisis de la vegetación de este sistema de estudio concibiéndolo como un gradiente ambiental, para lo cual el diseño contempló la toma de muestras en las cimas, las laderas y el pie de monte de los enclaves.
 
Una vez que se puso en marcha el muestreo de la vegetación, fue evidente que esta nueva delimitación de las tres comunidades era una sobresimplificación incapaz de reflejar completamente la realidad. Si bien existía una buena correspondencia entre la ubicación topográfica y el tipo de vegetación, no todas las cimas tenían matorrales xerófilos y la inclinación de la ladera no determinaba siempre la existencia de comunidades intermedias. Por esta razón fue necesario replantear la selección de sitios de muestreo, considerando que si lo que se quería era comparar las diferencias florísticas entre comunidades, había que definir criterios independientes de la composición de especies pero asociados claramente a algún factor ambiental. Un primer criterio fue la continuidad del suelo, es decir, si éste era continuo y relativamente profundo o si había afloramientos de la matriz de roca, creando un suelo discontinuo y somero; otro criterio fue la continuidad del dosel, y con base en él se separó el matorral xerófilo de las comunidades arbóreas. Con la combinación de estos dos criterios se realizó el muestreo de la vegetación, reconociendo tres comunidades de estudio: el matorral xerófilo, la selva en roca y la selva en suelo desarrollado (figura 1).
 
 
Figura1a
Figura 1. Perfil de la región de Nizanda, Oaxaca.
 
Una vez realizados estos ajustes, los resultados del muestreo permitieron examinar la hipótesis de que la riqueza de especies por unidad de área disminuye al aumentar las restricciones del hábitat. Los resultados obtenidos mostraron un abatimiento escalonado de la riqueza de especies, donde el recambio de especies llegó a ser de 100% en distancias de decenas de metros, por lo que las diferencias en la composición florística fueron mayores a lo largo del gradiente ambiental respecto a las obtenidas al interior de cada comunidad. Por el contrario, cuando los criterios de muestreo no se aplicaron estrictamente se obtuvieron resultados opuestos a la predicción original. Esto se ejemplifica en uno de los cuadros de muestreo ubicados en la mitad del gradiente ambiental, ya que una parte fue situada en la matriz de roca y la otra en una depresión con una mayor acumulación de suelo. Como consecuencia de ello, este cuadro presentó el mayor número de especies obtenido para una muestra individual. Además, había problemas para agruparlo con los de su categoría en los análisis de clasificación multivariados que se realizaron, dado que la composición de especies era mixta, tanto de las comunidades xerófilas como de la selva que crece donde hay suelo.
 
Una de las lecciones que se derivan de este trabajo es que los atributos topográficos por sí mismos pueden ser insuficientes para delimitar a las comunidades vegetales de un sistema complejo. Pero cuando a estos criterios se anexan características edáficas y caracteres fisonómicos de la vegetación, los parches se delimitan mejor y es posible reconocer su arreglo espacial. Una gran ventaja de los resultados así obtenidos no sólo radica en que se pueden explicar los patrones de la vegetación, sino que además permiten reconocer con más confianza a las especies que tienen distribución restringida. En el caso de los afloramientos de roca caliza de Nizanda, cada tipo de vegetación presentó especies exclusivas, es decir, que no se comparten con las otras. Sin embargo, fueron las dos comunidades xerófilas que se desarrollan en la matriz rocosa las que concentraron a las especies microendémicas (de distribución muy restringida), como Agave nizandensis y Barkeria whartoniana. Resumiendo, al tener una descripción más detallada de la estructura del paisaje se pueden tener patrones más claros de distribución de las especies.
 
Otra bondad del enfoque paisajista es que la secuencia topográfica puede analizarse desde distintas perspectivas y no sólo como un análogo de una secuencia temporal formada por el gradiente ambiental. En el caso de los enclaves de vegetación xerófila, la relativa estabilidad de los afloramientos calcáreos en el tiempo hace que no tenga sentido ubicar a las distintas comunidades como etapas sucesionales, sino más bien hay que reconocerlas como parches de vegetación coexistentes, con interés biológico propio. Así, existe la posibilidad de que las comunidades xerófilas representen relictos de una vegetación que anteriormente estaba más extendida, como lo sugiere la presencia de organismos endémicos con características ancestrales.
 
Implicaciones para la ecología
 
El concepto de paisaje que presentamos puede ayudar a uniformar el lenguaje técnico y facilitar la delimitación de las unidades ambientales en el espacio al proveer los criterios para ello. Además, puede ser útil para mejorar los diseños de muestreo encaminados a obtener información del medio físico, del componente biológico o de ambos (cuadro 2).
 
 
Cuadro2a
Cuadro 2. Difencias entre el enfoque tradicional de comunidades y el de paisaje
 
Asimismo, proporciona las bases para dirigir preguntas y explorar variables “propias” del paisaje, que son clave a nivel de mesoescala. De esta manera se pueden comparar paisajes más fácilmente cuando se reconoce una estructura definida bajo los mismos criterios.
Finalmente, consideramos que el promover el análisis de los patrones y procesos ecológicos en el paisaje ayuda a proveer de fundamentos empíricos que pueden ser la base para proponer alternativas de uso de recursos, de conservación y de restauración ecológica.Chivi67
Referencias bibliográficas
 
Farina, A. 1994. Principles and Methods in Landscape Ecology. Chapman & Hall, Londres.
Forman, R. T. T. y M. Godron. 1981. “Patches and structural components for a landscape ecology”, en Bioscience, núm. 31(10), pp. 733-740.
Geissert, D. y J. P. Rossignol. La Morfoedafología en la Ordenación de los Paisajes Rurales. inireb/orstom, México.
Turner, M. G. 1989. “Landscape Ecology: The effect to pattern on process”, en Annual Review Ecology and Systematic, núm. 20, pp. 171-197.
Wiens, J. A. 1995. “Landscape mosaics and ecological theory”, en L. Hansson, L. Fahrig y G. Merriam. Mosaic Landscapes and Ecological Processes. Chapman & Hall, Londres, pp. 1-26.
Zonneveld, I. 1995. Land Ecology. An Introduction to Landscape Ecology as a Base for Land Evaluation, Land Management and Conservation. spb Academic Publishing, Amsterdam
Elvira Durán
Instituto de Ecología,
Universidad Nacional Autónoma de México.

 
Leopoldo Galicia Sarmiento
Instituto de Geografía,
Universidad Nacional Autónoma de México.
 
Eduardo A. Pérez García
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
 
Luis Zambrano
Instituto de Biología,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

Durán, Elvira y Galicia Leopoldo, Pérez García Eduardo, Zambrano Luis. (2002). El paisaje en ecología. Ciencias 67, julio-septiembre, 44-50. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Un vistazo a la teoría de gráficas
Las grá­fi­cas son ob­je­tos su­ma­men­te vér­sa­ti­les. Su gran de­sa­rro­llo tie­ne que ver con las bri­llan­tes in­cur­sio­nes que hicieron en otras áreas del co­no­ci­mien­to hu­ma­no, aun­que de­fi­ni­ti­va­men­te sus prin­ci­pa­les apli­ca­cio­nes se en­cuen­tran en las cien­cias de la com­pu­ta­ción.
Gabriela Araujo Pardo y Pilar Valencia Saravia

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
¿Cómo concibe la mayoría de la gente a las matemáticas? Parece que ésta no es una pregunta sencilla y tiene muchas posibles respuestas. Para los matemáticos, por ejemplo, no sólo son útiles, sino fundamentalmente amenas, interesantes y absolutamente bellas. Quienes se dedican al estudio de otras disciplinas científicas saben que con ellas se puede entender el Universo. Los sucesos físicos, químicos o biológicos que nos rodean, e incluso los económicos y sociales, pueden ser explicados por el lenguaje matemático. Las matemáticas nos han facilitado la creación de mapas y la navegación, la construcción y la perspectiva en el arte, la radio, la televisión, el teléfono, la computadora, en fin, la lista es inacabable, pero aunque la mayor parte de las personas reconoce que son una herramienta útil para “resolver problemas” de la vida común, cuando oyen hablar de ellas casi siempre recuerdan algún tipo de experiencia desagradable.
 
Digamos entonces que si bien no es tan fácil advertir su belleza, al menos sí son célebremente distinguidas por su utilidad en la resolución de problemas. Y es que ésta es una de sus características primordiales: su versatilidad. Cuando encontramos un problema de la “vida real”, siempre podemos hacer de él una descripción o un modelo matemático. Aunque, siendo francos, lo más común es que encontrar este modelo sea en sí mismo un obstáculo, a veces tan o más complicado que el problema mismo.
 
En este sentido, desde tiempos lejanos el ser humano ha recurrido de un modo muy natural al uso de las gráficas para tratar de representar problemas o situaciones de su entorno. Así, por ejemplo, hemos usado gráficas para indicar en un mapa las rutas de acceso entre ciertas ciudades o poblados, o para señalar accesos comerciales o de comunicación entre ellos; las usamos al dibujar e identificar las constelaciones en la esfera celeste o cuando representamos nuestras relaciones familiares en un árbol genealógico; hacemos gráficas también para establecer las jerarquías en la estructura de una empresa o de cualquier organismo en el que se pueda identificar un orden, como el gobierno o el ejército. De hecho, es casi seguro que toda persona haya dibujado gráficas alguna vez en su vida. Cualquier sistema que involucre una cierta colección de objetos y alguna “regla” que relacione parejas de los mismos puede ser representado mediante una gráfica.
 
La rama de las matemáticas que estudia estos objetos se conoce como teoría de gráficas, y surgió en el siglo xviii, época en que los matemáticos veían en las gráficas un simple divertimento. Es por eso que no resulta sorprendente que gran parte de los resultados obtenidos inicialmente en esta área hayan surgido a partir de acertijos y pasatiempos. Fue hasta la última mitad del siglo pasado cuando el interés por la teoría de gráficas se incrementó notablemente. Desde luego, las razones de tal fenómeno son muchas, aunque otra vez su versatilidad parece ser determinante: se ha encontrado una enorme diversidad de aplicaciones de la teoría de gráficas en muchas áreas del conocimiento. Así, la vemos haciendo aportaciones en biología, ingeniería civil, arquitectura, genética, economía, antropología, lingüística, química, física, economía y, por supuesto, en otras áreas de las matemáticas.
 
Y a todo esto, ¿qué es una gráfica? Como objeto matemático, una gráfica es un par de conjuntos; el primero de ellos no puede estar vacío y a sus elementos les llamamos vértices; el otro está formado por “parejas” de vértices, las cuales son denominadas aristas. Representar una gráfica mediante un dibujo en papel o en un pizarrón es un procedimiento muy sencillo: únicamente ponemos puntos o pequeños circulitos para representar a cada uno de los vértices, y líneas o curvas entre las que forman una arista.
 
Sus usos son muy variados. Los químicos usan las gráficas para dibujar moléculas. En 1857 Cayley descubrió una importante clase de gráficas, llamadas árboles en la química orgánica y las usó para representar los isómeros de los hidrocarbonos saturados. De este modo Cayley descubrió cuántos isómeros (es decir cuántos árboles) existen para un número dado de átomos de carbono (figura 1).
 
 
Figura1a Figura1b Figura1c
Figura 1. Árboles
 
 
 

Los físicos teóricos han utilizado las gráficas de múltiples maneras. Por ejemplo, en mecánica se utilizan gráficas en las que los vértices representan moléculas, y cuando dos de ellos son adyacentes indican algún tipo de interacción física, tal como repulsión o atracción magnética. De manera similar, Feynman usó gráficas en las que los vértices representan partículas físicas, y las aristas trayectorias de las mismas después de colisionar.
 
Kirchhoff también hizo descubrimientos en la teoría de gráficas cuando intentaba resolver el sistema de ecuaciones lineales simultáneas obtenido por el paso de corriente en cada circuito de una red eléctrica. Así, abstrajo de la red eléctrica —con sus resistencias, condensadores, inductancias y demás—, una estructura consistente sólo de puntos y líneas sin indicar el tipo de elemento eléctrico que representaban. Mediante la “gráfica subyacente” a la red eléctrica, notó que el problema original podía ser resuelto más fácilmente sin considerar los ciclos que se formaban, utilizando lo que hoy conocemos como “árbol generador” (figura 2).
 
 
Figura2
Figura 2. Árbol Generador
 
Las gráficas se utilizan al diseñar circuitos integrados impresos en chips de silicón, que son usados en dispositivos electrónicos —ésta es una de las aplicaciones más importantes de lo que conocemos como gráficas planas— que deben ser diseñados de tal modo que las porciones conductoras no se crucen entre sí (figura 3).
 
 
Figura3
Figura 3. Circuito integrado
 
Actualmente, los psicólogos representan el “espacio vital” de un individuo mediante un mapa, el cual es asociado a una gráfica; de hecho las investigaciones acerca de las “dinámicas de grupo” utilizan con frecuencia gráficas en las que los vértices representan personas y las aristas algún tipo de relación interpersonal.
 
Las gráficas también han sido una útil herramienta en otras ramas de las matemáticas, como la teoría de grupos, el análisis numérico, la probabilidad, la topología, la combinatoria, la teoría de algoritmos y computación, y muy particularmente en lo que se refiere al estudio y representación de estructuras abstractas de datos. En el área conocida como investigación de operaciones, las gráficas juegan un papel relevante —ahí se les conoce como redes y casi siempre son dirigidas, es decir, a cada arista se le agrega “una flecha” que indica una dirección— y se utilizan principalmente para la planeación de actividades y el diseño de sistemas de comunicación o distribución de bienes y servicios.
 
Coloreando gráficas
 
Situémonos por un momento en nuestra última fiesta de fin de siglo: la noche del 31 de diciembre de 2000. Pensemos en el momento preciso de las doce campanadas y los abrazos de fin de año. ¿Podremos saber cuántos abrazos hubo esa noche en nuestra fiesta?, es decir, ¿cuántos hubo si sólo había en ella dos personas?, ¿cuántos si asistieron tres, cuatro o cinco?, ¿cuántos si asistieron n personas?
 
 
2 personas
3 personas
4 personas
5 personas
Figura4a Figura4b Figura4c Figura4d
Figura 4. Figuras de gráficas completas
 
Probablemente contar el número de abrazos en cada caso resulte latoso, sin embargo, una gráfica puede simplificarnos el conteo (figura 4). Los vértices representan a los asistentes a la fiesta y cada arista indica un abrazo entre las personas que representan sus vértices. Hemos colocado todas las aristas posibles pues suponemos que hubo abrazos entre cualquier par de personas en la fiesta. Es evidente que el único abrazo no incluido es el de una persona a sí misma. Si sólo hubieran asistido dos personas, entonces habría habido un solo abrazo, si hubieran sido tres habrían sido tres los abrazos, si cuatro, entonces seis, etcétera. ¿Cómo contamos?, fácilmente: cada persona abraza a cualquier otra en la fiesta menos a sí misma y cada abrazo lo contamos dos veces (una por cada uno de los involucrados en el abrazo) entonces, si asisten n personas tenemos la fórmula abrazos entre n personas
 
número de abrazos = (n(n-1)) / 2

 
 
 
 
 
A las gráficas que utilizamos aquí para representar este problema se les conoce como gráficas completas; en ellas todos los vértices están unidos entre sí por una arista, y si hay n vértices tenemos (n(n-1))/2 aristas. La gráfica completa de n vértices se denota como Kn.
 
Nos atrevemos ahora a afirmar lo siguiente: “Si a una reunión asisten seis personas, hay tres de ellas que se conocen entre sí o tres que no se conocen entre sí”. Traduciremos esta afirmación al lenguaje de la teoría de gráficas. En primer lugar, etiquetemos a cada una de las personas con un número del 1 al 6, y representémoslas con vértices. Pondremos entre dos vértices una línea negra si ellos representan a dos personas que se conocen y una línea verde si son desconocidas. En la figura 5, por ejemplo, la persona 1 conoce a las personas 2, 3, 4 y 5, y no conoce a la persona 6.
 
 
a)Figura5a b)Figura5b
Figura 5
 
Mediante esta representación, obtenemos la gráfica completa con seis vértices, K6, cuyas aristas están coloreadas con dos colores. La “traducción” de nuestra afirmación inicial es lo que se conoce como el teorema de Ramsey: “Siempre que coloreamos las aristas de K6 con dos colores diferentes encontramos al menos un triángulo monocromático (es decir, un triángulo “de un solo color”).
 
Para nuestro ejemplo un triángulo negro indica tres personas que se conocen mutuamente y uno verde a tres que no se conocen.
 
La prueba o demostración de este teorema es muy sencilla: Elijamos un vértice cualquiera de la gráfica, supongamos que tal vértice es el 1. Éste tiene cinco vecinos: 2, 3, 4, 5 y 6, y de las cinco aristas que salen de él hay al menos tres que tienen el mismo color, digamos que ellas son 12, 13, 14 y que son negras. Si alguna de las aristas 23, 24 o 34 es negra, como la 23, entonces tenemos un triángulo monocromático negro, el formado por los vértices 1, 2 y 3 (figura 5a). Si, por el contrario, las tres son verdes tenemos un triángulo monocromático verde: el de los vértices 2, 3 y 4 (figura 5b).
 
Observemos que la demostración hubiera sido igual si las tres o más aristas del mismo color hubieran sido verdes; también pudimos haber escogido cualquier otro vértice en lugar del 1, pues todos tienen el mismo comportamiento, es decir, que nuestra gráfica es simétrica.
La demostración que dimos aquí del teorema de Ramsey es ejemplo de una estrategia muy común dentro de la teoría de gráficas, que es la coloración. En este caso coloreamos aristas, pero también se colorean vértices.
 
La coloración de gráficas ha sido estudiada desde muy diversos ángulos y con distintos propósitos. Se han obtenido grandes resultados por su relevancia matemática pero, sobre todo, sorprendentes por su belleza, por supuesto, desde una óptica matemática.
 
Hablaremos ahora de un famoso resultado conocido como el problema de los cuatro colores, y cuyo planteamiento como problema de gráficas tiene que ver con coloraciones de vértices. Fue planteado en 1852 y es conocido prácticamente por todos los matemáticos que han surgido desde entonces, la mayoría de los cuales —nos atrevemos a asegurar— han tratado de resolverlo. En los muchos intentos por solucionarlo han participado casi todas las ramas de las matemáticas, lo que ha propiciado la generación de una gran riqueza de conocimientos.
 
 
Recientemente, este problema ha sido abordado con amplitud, haciendo uso de computadoras y usando estrategias y programas que realizan cálculos durante aproximadamente mil horas.
Su planteamiento es realmente sencillo: cuatro colores son suficientes para colorear cualquier mapa plano con la condición de que cualquier par de regiones vecinas, es decir, con “frontera” común, tengan colores distintos, de acuerdo con lo cual, dos países del mismo color podrían compartir un punto o un número finito de puntos pero no una línea (un número infinito de puntos), que representa a la frontera entre ellos.
 
 
Figura6a Figura6b
Figura 6
 
En los mapas que aparecen (figura 6) se muestra que los cuatro colores son necesarios para colorear un mapa en las condiciones dadas. La pregunta que hay que resolver es si para cualquier mapa estos cuatro colores son suficientes. Nuevamente traslademos este problema al contexto de la teoría de gráficas. Ahora representaremos a cada región del mapa con un vértice y habrá una arista entre dos vértices si las regiones a las que corresponden tienen frontera común. Así, las gráficas de la figura 7 corresponden a los mapas de la figura 6 a y b respectivamente.
 
Figura7a Figura7b
Figura 7

 
 
 
Este problema nos permite introducir el concepto de gráficas planas, que son las que podemos dibujar en el plano, de modo que sus aristas no se crucen, salvo en sus vértices. Cuando decimos plano nos referimos a alguna superficie plana, una hoja, un cuaderno, un pizarrón, etcétera. Si una gráfica puede dibujarse de este modo, decimos que es plana (figura 8) o que tiene un dibujo plano (figura 9). Como a cualquier gráfica plana le corresponde un mapa sobre el plano, entonces el teorema de los cuatro colores afirmaría que son suficientes cuatro tonos para colorear los vértices de una gráfica plana con la condición de que dos vértices adyacentes no tengan el mismo color.
 
Figura 8  
Figura8a Figura8b Figura9
  Figura 9
 
 
La banda de Möbius
 
Aunque la definición formal de gráfica resulta un poco “abstracta”, pues se establece en términos de conjuntos, la tendencia “natural”, cuando hablamos de gráficas, es pensarlas ya dibujadas en el plano como lo hemos hecho hasta ahora, con puntos que representen los vértices y líneas o curvas entre aquellos que formen una arista. Sin embargo, también podríamos haberlas pensado en otro tipo de superficies; por ejemplo, ¿cómo se vería alguna de las gráficas que hemos presentado dibujada en una esfera?, ¿o en una taza?, ¿o en la superficie de un poliedro?
 
 
Figura 10.

 

Sólidos Platónicos y
 
sus gráficas
Figura10a Figura10b
tetraedro cubo
Figura10c Figura10d Figura10e
octaedro dodecaedro icosaedro
 
 
 
 
 
 

Hay dos aspectos importantes que debemos resaltar. Primero, que cualquier dibujo de una gráfica es completamente independiente de la gráfica en sí misma, o sea, que éste no altera las propiedades de aquella, únicamente nos ayuda a estudiarla mejor. Cuando hablábamos un poco antes de las gráficas planas, por ejemplo, un dibujo adecuado nos permite decidir si ella es plana o no; si podemos encontrar un dibujo plano de una gráfica, entonces decimos que es plana. En segundo lugar, notemos que cualquier gráfica con un dibujo plano puede también dibujarse sin cruces en la superficie de una esfera. Por ejemplo, en la figura 10 mostramos los famosos sólidos platónicos: tetraedro, hexaedro o cubo, octaedro, dodecaedro e icosaedro. Podemos pensarlos como poliedros, suponiéndolos huecos y tomando únicamente la superficie que forma sus “cáscaras”, o podemos imaginarlos como gráficas y aplanarlos como se muestra en la figura.
 
 
Figura 11  
Figura11a Figura11b Figura12
  Figura 12
 
 
 
 
 
 

Éstas son unas de las gráficas planas más famosas que se han estudiado hasta ahora. Por supuesto existen también gráficas que no son planas, como K5, la gráfica completa de cinco vértices, que es el ejemplo más sencillo de este caso (figura 11). Sin embargo, pueden existir otras superficies donde sí sea posible dibujar una gráfica no plana sin que haya aristas que se crucen. Por ejemplo, para el caso de K5, la superficie de una dona, conocida también como toro, es ideal para dibujarla —podríamos hacerlo en una taza (figura 12), aunque puede dibujarse sin cruces en otra superficie “más sencilla”. Ésta es una de las más interesantes y curiosas en matemáticas: la banda de Möbius, cuya peculiaridad radica en que, a pesar de dar la impresión de ser una superficie con “dos lados”, en realidad solamente tiene uno. Es decir, si nos imaginamos que uno puede “recorrer caminando” esta superficie iniciando desde un punto cualquiera y seguir y seguir caminando (siempre hacia adelante), cuando lleguemos nuevamente al punto de inicio ¡estaremos de cabeza! El famoso dibujo de Escher de las hormigas andando sobre una banda de Möbius ilustra claramente esta situación (figura 13).
 
Figura13
Figura 13. La banda de Möbius

 
La firma del diablo
 
Ya habíamos visto antes un dibujo no plano de K4. Notemos que el punto del centro donde se cruzan las dos diagonales del cuadrado no es un vértice. Esta figura es conocida como “la firma de diablo” y debe su nombre a la imposibilidad de recorrer todas las aristas de la gráfica sin repetir ninguna, sin levantar el lápiz del papel y regresando al mismo punto donde se inició el dibujo. Pensando en esta figura como una gráfica, lo que tratamos de hacer es encontrar un recorrido cerrado que pase por todas sus aristas exactamente una vez. Esto se conoce en la teoría de gráficas como recorridos eulerianos y debe su nombre al matemático suizo Leonard Euler, considerado el padre de la teoría de gráficas. Él logró resolver en 1736 un famoso acertijo de su época conocido como el problema de los puentes de Königsberg.
 
Sucede que por esa ciudad, (la cual, por cierto, ahora ya no tiene ese nombre), cruzaba el
Río Pregel, en el que había dos islas unidas entre sí, conectadas a la rivera por siete puentes
(figura 14).
 
 

Figura14
Figura 14. Los puentes de Königsberg
 
El problema era el siguiente: iniciar en alguna de las cuatro porciones de tierra y hacer un “paseo” por la ciudad, atravesando por cada puente exactamente una vez, y regresando al punto de inicio.
 
En principio se trató de resolver este problema empíricamente, es decir, intentando encontrar tal paseo mediante prueba y error. Muchísimos experimentos fallidos hacían pensar en su imposibilidad, aunque nadie se atrevía a afirmar que así fuese, y en todo caso tampoco sabían explicar cuál era la razón de la inexistencia del mismo.
 
La gran contribución de Euler fue el demostrar rigurosamente que, en efecto, tal paseo era imposible; para ello utilizó por primera vez el concepto de gráfica como lo conocemos ahora. Euler representó el mapa de Königsberg mediante una gráfica: a cada porción de tierra la representó con un vértice y a cada uno de los puentes como una arista, de modo que dos vértices adyacentes en la gráfica indicaban dos porciones de tierra unidas mediante uno de los puentes (figura 15).
 
 
Figura15a Figura15b
Figura 15
 
De hecho, no sólo respondió a la pregunta original, sino que logró dar una condición necesaria y suficiente para decidir si una gráfica cualquiera contiene un recorrido cerrado que pase por todas y cada una de las aristas exactamente una vez. Ese primer teorema de gráficas se enuncia así: “Una gráfica es euleriana si y sólo si a cada uno de sus vértices llega un número par de aristas (distinto de cero)”.
 
Evidentemente, ni la gráfica que representa a la ciudad de Königsberg ni la firma del diablo son gráficas eulerianas, y por tanto el camino que se busca en cada caso es inexistente.
 
La demostración de este teorema también es bastante sencilla: notemos primero que si la gráfica es euleriana, entonces sí es posible hacer el recorrido que se busca, ya que éste pasa por todos los vértices de la gráfica —pues pasa por todas las aristas. Cada vez que “toca” algún vértice utiliza una arista para llegar, y enseguida necesita una nueva arista para salir de él. Notemos que no se usa otra vez la arista con que llegamos, pues el recorrido no las repite. Así, cada “toque” de algún vértice por el recorrido representa dos aristas que inciden en él, lo cual se cumple también para el vértice que se haya escogido como inicio del recorrido (y final, pues es cerrado), y, por tanto, en cada vértice incide un número par de aristas: exactamente el doble de las “visitas” realizadas por el recorrido al vértice en cuestión.
 
Ahora bien, si partimos de que en la gráfica se cumple que a cada vértice llega un número par de aristas, se puede demostrar que la gráfica es euleriana (figura 16).
 
 
Figura16
Figura 16. Gráficas Eulerianas
 
Cualquier polígono puede ser pensado como una gráfica, y a los n-ágonos (polígonos regulares de n lados) se les llama ciclos en la terminología de la teoría de gráficas. Es evidente que los ciclos son gráficas eulerianas.
 
Hemos visto pues que las gráficas son objetos realmente atractivos, intuitivamente fáciles de entender y, como mencionábamos al principio, sumamente vérsatiles. En la actualidad, esta teoría ocupa un lugar relevante dentro de la investigación en matemáticas, contando con el tiempo y la atención de muchos matemáticos en todo el mundo. Es impresionante observar el desarrollo explosivo que esta rama tuvo en la última mitad del siglo pasado, lo que tiene que ver quizá con las brillantes incursiones que hizo en otras áreas del conocimiento humano, aunque definitivamente sus principales aplicaciones se encuentran en las ciencias de la computación, área en la que los avances han sido gigantescos.
 
Puede ser que éste sea un fenómeno de crecimiento paralelo, en el que una y otra área obtienen logros significativos en forma simultánea, y que generan como consecuencia avances tecnológicos importantes —evidentes para la mayoría de las personas. A su vez, este desarrollo tecnológico contribuye decididamente a la creación del nuevo conocimiento teórico al proporcionar herramientas de experimentación y búsqueda cada vez más eficientes, acelerando con ello el desarrollo al que nos referíamos. Entonces se crea una especie de círculo sin fin de avance común entre varias esferas del conocimiento.Chivi67
Referencias bibliográficas
 
Chartrand, Gary. 1992. Introductory Graph Theory. Dover Publication.
Diestrel, Reinhard. 2000. “Graph Theory. Graduate Text in Mathematics”, en Springer, núm. 173.
Hartsfield, Nora y Gerhard Ringel. 1994. Pearls in Graph Theory, a Comprehensive Introduction. Academic Press.
López de Medrano Santiago. 1972. Gráficas. Programa nacional de formación de profesores. anuies.
Magnus Enzensberger, Hans. 1999. El diablo de los números. Siruela, Madrid.
Melnikov O., V. Sarvanov, R. Tyshkevich, V. Yemelichev e I. Zverovich. 1998. Exercises in Graph Theory. Kluwer Academic Publishers.
Saaty L. y P. C., Kainen. 1986. The four-color Problem. Dover Publication.
Gabriela Araujo Pardo
Instituto de Matemáticas,
Universidad Nacional Autónoma de México.
 
Pilar Valencia Saravia
Instituto de Matemáticas,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Araujo Pardo, Gabriela y Valencia Saravia, Pilar. (2002). Un vistazo a la teoría de gráficas. Ciencias 67, julio-septiembre, 56-64. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
La evolución de los objetos
Los di­se­ña­do­res in­dus­tria­les que­re­mos
en­ten­der a los ob­je­tos co­mo un rei­no pa­ra
po­der ba­sar­nos en he­rra­mien­tas de la
cla­si­fi­ca­ción bio­ló­gi­ca y lo­grar en­ten­der
me­jor la ma­ne­ra en que evo­lu­cio­nan és­tos.
Luis F. Equihua Zamora y Andrés Fonseca Murillo

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La naturaleza procede sin proyecto, de lo cual deriva, a todos los niveles, el carácter no finalista (determinista) de la evolución biológica. Los individuos fijan unos objetivos y tratan
de alcanzarlos; este componente finalista (determinista) de los sujetos y de las “entidades auto-maximizantes” influye en la evolución de los organismos artificiales, creando
condiciones de competencia y colaboración entre entes, dentro de un cuadro de leyes sistémicas supra-objetivas.
 
 
Ezio Manzini
 
Planicies inmensas, árboles y matorrales, espacios llenos de vida compitiendo por la sobrevivencia. En el suelo palos, huesos y piedras sirven de alimento o escondite para especies diversas; por una casualidad, una de estas especies toma una piedra del suelo y golpea algo con ella.
 
Así se inicia y abre un nuevo reino: el de los objetos. Antes, el palo, la piedra o el hueso solamente pertenecían al reino vegetal, mineral o animal, pero el simple hecho de servir de extensión y cumplir con una función práctica los cambió, comenzando así la larga evolución de los objetos. ¿Se trata del primer break throug?
 
Son diversas las razones por las que los diseñadores industriales queremos entender a los objetos como un reino, dentro de las más importantes está la de poder basarnos en herramientas de la clasificación biológica de las especies para lograr entender mejor, menos intuitivamente, la manera en que se transforman y evolucionan éstos a manos de quienes los diseñan y fabrican. Esto es posible al establecer un paralelo entre el hipotético reino objeto y los demás reinos existentes. Tenemos que demarcar el medio natural donde se da la competencia entre los objetos para entender cómo influye en su evolución.
 
Iniciaremos con una extrapolación a nuestro reino de la ley de Pasteur, con la cual refutó la existencia de la generación espontánea: “Todos los objetos actuales han surgido de objetos preexistentes y los objetos proceden de los objetos”.
 
Esta ley parece plausible a primera vista y sugiere muchas líneas de pensamiento. Es una premisa que apoya la idea evolutiva de los objetos: ¿puede ser un clavo predecesor de un tornillo?, ¿la piedra antecesora del molino?, ¿el cuchillo antepasado del desarmador?, ¿qué relación existe entre el cuchillo y la licuadora?
 
Tener una visión de los objetos diseñados como un reino en el cual todos se relacionan y por consiguiente tienen características en común, nos recuerda la regla darwiniana, cuya extrapolación sería: “Todos los objetos poseen muchos caracteres en común y son ramas de un árbol genealógico común”.
 
Debemos utilizar la clasificación de Linneo para comenzar un acercamiento al árbol genealógico del reino objeto; clasifiquemos, por ejemplo, la piedra que golpeó la introducción de nuestro texto.
 
Reino  Objeto
Phyllum          Utilitario
Clase   Simple
Orden Herramienta
Familia           Trabajo
Género           Piedra
Especie           Piedra dura
Subespecie    Piedra dura contundente
 
Hagamos lo mismo con algún ejemplar del género televisor.
 
Reino  Objeto
Phyllum          Utilitario
Clase   Compuesto
Orden Electrodoméstico
Familia           Entretenimiento
Género           Televisor
Especie           Televisor b. y n.
Subespecie    Televisor b. y n. portátil
 
La creación de objetos con fines prácticos caracteriza al hombre, como lo dice en El conocimiento del conocimiento Edgar Morin: “el cerebro ‘animal’ del hombre que dispone de la dialéctica: cerebro-espíritu-mano-útil. En primer lugar transformó la rama en bastón, la piedra en arma y que, de problemas en soluciones y de soluciones en problemas, ha realizado los fantásticos desarrollos prácticos y técnicos de las sociedades humanas [...] Conocer-actuar”.
Hoy los diseñadores industriales se han especializado en esta esfera del conocimiento. Sin embargo, desde el punto de vista del diseño industrial de productos es importante definir el espacio de influencia, el medio natural en donde interactúan sus productos. Los objetos salen al mercado, entran en él para competir. El mercado es el ámbito en donde los hombres intercambian los objetos, y en el que éstos se sitúan para competir con otros, mantenerse o desaparecer. Podemos pensar en el principio de Gause y sumarlo a los ya expuestos. Extrapolando: “Los objetos de dos especies diferentes que compiten por un mismo nicho, están expuestos a la extinción o a la migración hacia otro nicho en el caso de que no muestren la mejor eficiencia comparativa en el aprovechamiento del mercado común a ambos objetos”.
Dejemos así el acercamiento a la biología y demos una explicación breve del diseño industrial, disciplina que, entre muchas otras, interviene en el proceso de creación de los objetos que producirán las industrias, pero cuyo papel integrador eleva su responsabilidad, ya que la configuración de un producto supone la suma sinérgica compleja de las aportaciones de otras disciplinas.
 
Los objetos son, en otras palabras, organismos artificiales que han sido creados por la mano del hombre. Cuando el diseñador industrial los proyecta o diseña, considera cuatro atributos. 1) Estético. Imagen o apariencia. Deformación intencional aplicada a la morfología del organismo artificial cuyo efecto se ejerce en la parte emocional y en la voluntad del hombre. 2) Ergonómico. Sistema hombre-objeto-entorno. Interrelaciones del sistema en aras de eficacia, comodidad y seguridad. 3) Práctico. Utilitario. Desempeño eficaz para ejecutar un trabajo o tarea específica. 4) Productivo. Iteratividad. Capacidad de reproducción masiva con base en materiales, herramental y procesos de transformación.
 
El diseñador utiliza estos atributos para caracterizar o configurar la morfología de los organismos artificiales y lograr su adecuación al entorno, es decir al mercado, en función de las presiones de selección de los competidores existentes; determina y aplica variaciones adaptativas cuando rediseña, modifica o deforma uno, dos, tres o todos los atributos con la finalidad de propiciar la sobrevivencia de estos organismos. Esa deformación es relativa a la demanda —fuente de presión selectiva— que se percibe en el nicho de mercado, pero interpretada por la actitud o postura estética de quien diseña, y sumada a la estrategia de la organización industrial que pretende fabricar el objeto. En última instancia, el organismo artificial diseñado es portador de una estética particular que lo diferencia de otros organismos artificiales similares y que tiene efecto sobre las emociones, como ya dijimos, y la voluntad de los organismos naturales —seres humanos— con los que se asocia.
 
Como sujeto de análisis hemos tomado específicamente al televisor —lo consideramos como un fragmento del fenómeno televisión— por ser lo que cohabita con el hombre en su madriguera. El género televisor como “especie” resulta estable, podemos observar su variabilidad y señalar sus diferencias. Nos hemos concentrado sólo en la parte frontal de los televisores para obtener una comprensión de su evolución con un enfoque fundamentalmente estético.
 
El análisis evolutivo desde este punto de vista permite hacer un recorrido analítico y ejemplificar el supuesto filosófico de Mukarovsky, en el cual considera a la estética como una deformación intencional.
 
El televisor es uno más de la miríada de organismos artificiales que han sido creados por el hombre, lo cual no los exime, durante su ciclo de vida, de un proceso evolutivo propio en términos teleológicos.
 
A diferencia de la esfera de cristal de las adivinas, objeto cuya función es metafísica, el televisor es un objeto cuyo funcionamiento permite, sin duda, que podamos observar imágenes y escuchar sonidos; para su gestación se hilaron en el tiempo hallazgos científicos determinantes: las ondas electromagnéticas viajeras, la fragmentación de imágenes y su conversión en electrones, la fotoemisión de algunas substancias químicas, además de otros descubrimientos que conformaron el tejido conocido actualmente como televisión, uno de cuyos organismos asociados es el televisor.
 
La televisión constituye el medio recreativo, informativo y educativo característico de la sociedad contemporánea en la mayoría de las regiones del planeta.
 
El televisor se asocia extensivamente con el organismo natural —ser humano— y es un producto típico industrial. Los componentes electrónicos y mecánicos que lo hacen funcionar son órganos análogos a los de un ser vivo. Éstos, en esencia, no han variado hasta la fecha, aun cuando la tecnología ha suministrado innovaciones, permitiendo reducir el tamaño de casi todos ellos y haciéndolos más eficientes.
 
En términos generales, pero determinantes para su diseño, este organismo artificial está compuesto por cinescopio, bocinas, cables, circuitos electrónicos y controles.
 
El órgano preponderante por su tamaño y función es el cinescopio, una pirámide de vidrio cuya base cuadrangular es precisamente la pantalla en donde la imagen fragmentada que viajó como ondas hertzianas, se reconstruye y es percibida por nuestros órganos visuales; el vértice, parte posterior del cinescopio, es el punto donde se originan los rayos que a su vez generan la imagen.
En segundo lugar podemos destacar al amplificador, en donde el sonido, también convertido en ondas electromagnéticas viajeras, es reconstruido y reproducido por estos órganos artificiales que traducen la señal eléctrica en vibraciones, y a las bocinas que, sin estar a la vista, lo hacen perceptibles para nuestros órganos auditivos.
 
En tercer lugar están los controles que deben tener tamaño y forma adecuada para poder ser manipulados con facilidad y visibles para el usuario, o por lo menos accesibles cuando se cubren con una tapa.
 
Desde el punto de vista práctico el usuario del televisor tiene cinco puntos de contacto para controlar las funciones básicas: 1) enlace a la fuente o toma de energía; 2) enlace a la fuente o toma de ondas hertzianas; 3) válvula de ingreso del fluido eléctrico; 4) selector de canales; y 5) selector de intensidad del volumen.
 
En algunos casos existen controles adicionales que permiten regular la apariencia de la imagen: 1) horizontalidad; 2) verticalidad; 3) contraste; 4) brillantez; y 5) color.
 
Hoy, la mayoría de los televidentes se han adaptado al televisor y entienden, en cierta medida, su organización interna y las funciones básicas que pueden controlar. Al cabo de cincuenta años encontramos que el hombre puede controlar en el televisor ciertas funciones, lo cual es el resultado de una correlación recíproca entre hombre-usuario-televidente, a través de las cuales percibe las emisiones —imágenes y sonidos— del televisor.
 
Para facilitar la codependencia hombre-televisor se ha creado otro organismo artificial, el control remoto, que por medio de ondas infrarrojas acciona a distancia las funciones básicas y otras adicionales más complejas.
 
Los demás componentes internos, que no están sujetos a la acción del usuario, aunque sí a la del usuario-fabricante o de mantenimiento, se han estructurado en torno al cinescopio sin obstruir la pantalla, siempre con una tendencia a la máxima compactación permisible. Existen dos aspectos críticos observables importantes en el diseño de la estructuración de los componentes internos del sistema televisor: a) el punto de generación de los rayos, denominado yugo, que es altamente peligroso por sus características eléctricas y puede emitir descargas letales; y b) todo el conjunto emite calor que es necesario disipar.
 
En consecuencia, es imperativo proteger al usuario de las descargas eléctricas y al televisor del sobrecalentamiento. Lo anterior se suma a los otros requerimientos que debieron ser tomados en cuenta cuando se diseñó el primer televisor. De allí surgió una primera estructura mecánica, que por las razones de seguridad mencionadas, requirió una cubierta con diferentes aberturas para revestir los elementos y así proteger la vida del organismo natural —el hombre— que lo controla, pero ésta debió permitir el enfriamiento de los órganos artificiales internos. Así fue como se caracterizó por primera vez al objeto televisor.
 
Pero al igual que la estructura ósea, los músculos, el cerebro, los pulmones, el corazón, el estómago, el hígado o el intestino, componentes internos de los animales que se han recubierto con piel, a modo de carcasa o carrocería protectora, los objetos, en su mayoría, también llevan una piel; en este caso el televisor recibió una cubierta o envolvente que forró la estructura mecánica y que generó la configuración de un objeto nuevo, inexistente hasta ese momento: el ícono televisor, un signo que incluso podemos imaginar y dibujar elementalmente para representar y recuperar la idea global del mismo.
 
La configuración de éste como ícono portador de una estética, desde el punto de vista del diseño industrial, es la materia que nos llama la atención. Podemos retomar algunas palabras de Jan Mukarovsky: “existen, desde luego, tanto en el arte como fuera de él, cosas que por su configuración están destinadas a la acción estética; ésta es incluso la propiedad esencial del arte. Sin embargo, la aptitud activa para la función estética no es una cualidad real del objeto, aun cuando éste haya sido construido intencionadamente con miras a dicha función, sino que se manifiesta sólo en determinadas circunstancias, a saber, en determinado contexto social […] y todo esto en relación con una época y un conjunto social dados. En otras palabras, para caracterizar el estado y la evolución de la función estética no sólo es importante saber dónde y cómo se manifiesta, sino también en qué medida y en qué circunstancia está ausente o debilitada”.
 
Los primeros televisores construidos por los ingenieros tuvieron apariencia de artefacto tecnológico digno de un laboratorio o taller electrónico; es aquí cuando surge la intervención del diseñador para pasar de lo concreto a lo subjetivo. Al revisar los primeros televisores encontramos que para cambiarlos del estado de artefacto tecnológico al de artefacto con una estética diseñada, tuvieron que ser asimilados a la familia del mobiliario, y los componentes funcionales introducidos en un gabinete con códigos estéticos de la época. De este modo fue posible que se integraran fácilmente a los primeros hogares en donde ocuparon un lugar asociado principalmente con los muebles de la “zona de estar”.
 
El televisor-mueble presentaba al frente la pantalla de cristal —cinescopio— originalmente muy curva debido a las limitaciones tecnológicas de la época, así como el interruptor de encendido, el selector de frecuencia o canal y el modulador de volumen —controles básicos que en algunos modelos fueron desplazados a los lados o a la parte superior.
 
Hubo diseños que dejaron al cinescopio dentro del mueble y la pantalla sólo podía observarse al levantar la tapa superior, en cuyo anverso se encontraba un espejo, que al quedar en posición de 45 grados permitía ver las imágenes proyectadas. La intención del diseño en este caso era tener un mueble que no denotara otra función hasta no ser abierto para maravillar y mostrar así el milagro de la televisión. También los hubo con puertas frontales, corredizas o abatibles.
Los televisores-mueble incorporaron características estéticas y estilísticas del mueble de cada época —como mencionamos— e incluso se recurrió a la ornamentación, de manera que pudieran convivir dignamente con los muebles y las costumbres de las familias de “estilo”.
 
En este periodo se da una dualidad en la imagen del organismo artificial televisor; sus diseñadores y constructores lo escondieron detrás de una estética prestada, como aceptando la imposibilidad inmediata de que tuviera cualidades propias; no existía el esquema (pattern) de “la televisoreidad” que permitiera diseñar diversas formas para que fueran reconocidos precisamente como televisores. Con el paso del tiempo se construyeron apariencias diversas hasta que los diseñadores lograron consolidar el ícono que expresa los rudimentos prácticos y estéticos del televisor: “la televisoreidad”, lo que fue posible con la construcción y consolidación de la relación recíproca televisor-televidente.
 
Este ícono, gracias a un proceso de estabilización colectiva de la sociedad, no es nada más reconocido por unos cuantos individuos, sino que puede serlo por la mayoría. Su configuración es la suma de lo práctico y lo estético, condicionada por las posibilidades tecnológicas de cada momento, y adquiere un estado de signo —el signo televisor— como lo ha dicho Mukarovsky.
Más adelante se vio la necesidad (posibilidad) de que el televisor saliera, se moviera incluso desligado temporalmente de la fuente permanente de energía eléctrica y se hicieron las adaptaciones y deformaciones necesarias para lograr que fuera portátil. Y como algunos organismos naturales que cambian de piel, de concha, o están sujetos a un proceso de metamorfosis, adquiere una doble independencia: sale del mueble y se convierte en objeto transportable.
 
El diseñador lo dota entonces de una cubierta protectora con una estética particular: adquiere un asa, elemento práctico adicional que permite su fácil transportación, además de un par de elementos metálicos alargados y extensibles que hacen las veces de antena receptora. Este paso evolutivo generó un ícono de segunda generación, el del televisor portátil.
 
En el periodo estudiado se encontraron dos tendencias principales: la de envolver al televisor con cubiertas rectilíneas en forma de paralelepípedo, cuyas aristas pueden ser afiladas o redondeadas, y la de modelar un envolvente plástico que se amolda o sigue la estructura del cinescopio, cuya importancia volumétrica es definitiva y determina mayormente la configuración del televisor.
 
Los avances de la tecnología —materiales, herramental, procesos de fabricación— han dejado sus huellas en los televisores; el uso del metal, la madera y los polímeros (plásticos) puede observarse en los ejemplares de cada época. De polímeros negros y grises, los televisores han pasado actualmente al uso extensivo, en los frentes, del metal laminado pulido, alumio, acero inoxidable y, en general, colores metálicos.
 
En la actualidad el televisor, gracias a sus características, es perfectamente diferenciable de otros organismos artificiales análogos, ya que los diseñadores que lo proyectan han logrado aislarlo y concentrar la atención sobre él. Ya no pide prestado, cuenta con una estética propia, su “valor estético” connota su funcionalidad interna, sus elementos son capaces de comunicar entre sí con integración máxima y pérdida mínima de información, haciendo legibles sus signos y sus mensajes. Sigue mostrando su brillante cara de cristal, pero completamente plana gracias a los avances tecnológicos; también presenta los mismos controles pero de apariencia apenas notoria, ya que se han integrado al cuerpo del televisor y son perceptibles sólo por un código gráfico anexo. En términos generales encontramos en el género televisor características estéticas que manifiestan su transcurso por circunstancias y épocas distintas, durante las cuales ha forjado su identidad, lo que lo diferencia de otros organismos artificiales. Esta construcción final es la suma de aspectos estéticos y prácticos relativizados por la tecnología, todo lo cual responde a las necesidades reales y ficticias, a las carencias o deseos de los televidentes.Chivi67
Nota
Este artículo surge de un proyecto papime-unam cuya finalidad es producir material didáctico para los diseñadores industriales en formación. Se planteó el análisis evolutivo de un objeto desde el año 1954 hasta el 2000, utilizando una muestra tomada de la revista Industrial Design, y se escogió como sujeto de estudio al género televisor. La idea es visualizar cómo los objetos se deforman, cambian y cómo ello es realizado por el diseñador industrial al manipular u operar los atributos, factores, funciones o valores del producto.
Referencias bibliográficas
 
Baudrillard, J. Arte y Entorno. Siglo XXI, México.
Morin, Edgar. 1999. El método, el conocimiento del conocimiento. Cátedra, Barcelona.
Mukarovsky , Jan. Escritos de arte y estetica. G. Gilly, Barcelona.
________. Signo función y valor. Plaza y Janés.
Sarukhán, José. Las musas de Darwin. fce, México.
Smith, C.U.M. El problema de la vida. Alianza, Madrid.
http://www.geocities.com/ohcop/conduc_e.html (Glosario de Carlos von der Becke)
http://entomologia.rediris.es/documentos/taxonomia.html (Taxonomía, sistemática, filogenia y…)
Luis F. Equihua Zamora
Facultad de Arquitectura,
Universidad Nacional Autónoma de México.
 
Andrés Fonseca Murillo
Facultad de Arquitectura,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

Equihua Zamora, Luis F. y Fonseca Murillo, Andrés. (2002). La evolución de los objetos. Ciencias 67, julio-septiembre, 68-75. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
  del bestiario
 
     
El arte de la guerra animal
 
 
 
Héctor T. Arita
   
         
HTML ↓ PDF Regresar al índice artículo siguiente
         
Ya que nada puede parecer engañoso para aquel que gana.
 
Shakespeare, Enrique IV
 
Toda actividad de guerra está basada en el engaño, escribió Sun Tzu en el año 481 antes de Cristo. Para poder comandar un ejército, el general debe saber cómo burlar la vigilancia del enemigo. Al estar listos para atacar, razonaba el sabio chino, debemos parecer incapaces de hacerlo. Si estamos cerca, debemos hacer creer al contrario que estamos lejos; si estamos lejos, debemos parecer estar cerca. Actúa como si fueras débil, aconsejaba el filósofo de la guerra, y a tu enemigo lo consumirá la arrogancia.
 
Tales son algunos de los pensamientos que plasmó Sun Tzu en El arte de la guerra, una colección de trece pequeños ensayos pletóricos con sabios consejos que han sobrevivido veinticinco siglos de historia. Más maquiavélico que el propio Maquiavelo, Sun Tzu supo granjearse la confianza de Ho Lu, rey de Wu, y comandó sus ejércitos durante más de veinte años, logrando impresionantes victorias en la China de entonces. Las enseñanzas de Sun Tzu han cobrado recientemente popularidad entre una nueva generación de guerreros: los “tiburones” del mundo financiero, que encuentran en los escritos del filósofo chino una  justificación para sus “guerras comerciales”. Mr. Gekko, el siniestro magnate de la película Wall Street, de Oliver Stone, cita El arte de la guerra como uno de sus libros de cabecera. Sin embargo, para poner en contexto la verdadera sabiduría que contienen los pensamientos de Sun Tzu, hay que recordar que, en sus propias palabras, “la excelencia suprema consiste en romper la resistencia del enemigo sin tener que librar batalla alguna”.
 
Las máximas de Sun Tzu sobre el engaño tienen su paralelo también en otro tipo de guerras: la cotidiana batalla de las plantas y los animales por sobrevivir y reproducirse. Desde que se empezó a analizar el comportamiento de los animales como un fenómeno de transmisión de información, se llegó a la inescapable conclusión de que en la naturaleza debería haber casos de falsa información transmitida “intencionalmente”. El engaño, tal como dedujo Sun Tzu, es componente fundamental de la actividad bélica, incluso cuando se trata de las guerras naturales.
 
En los bosques neotropicales, la tángara de alas blancas suele colgarse de una rama esperando capturar insectos que saltan de la vegetación por la actividad de otras aves. Además, desde su posición ventajosa, la tángara puede detectar la cercanía de depredadores, como los halcones, y entonces emite una llamada de alarma que hace que todas las aves, incluso las de otras especies, se escondan o se mantengan inmóviles. Sin embargo, en ocasiones, especialmente cuando se encuentra disputando una presa con otro pájaro, la tángara emite también el llamado de alarma aunque no haya depredadores a la vista. De esta manera, engaña a su competidor, que se prepara para un posible ataque y se olvida de la presa en disputa. Tal como lo aconseja Sun Tzu, la tángara ha desarrollado un mecanismo para engañar al enemigo, haciéndole creer que es vulnerable cuando no lo es.
 
“Ataca al enemigo cuando no esté preparado, aparece cuando nadie lo espera. Coloca señuelos para seducirlo”, sugería Sun Tzu a los generales que debían librar cruentas batallas. Tal consejo parecería haber sido escuchado por una serie de animales que utilizan el engaño para hacerse de sus presas. Un ejemplo bien conocido, pero no por ello menos estrambótico, es el del pez anzuelo. Este extraño habitante de los mares de Europa y América del Norte posee un curioso apéndice que parece una delgada antena rematada con una figura semejante a un pequeño pez. El pez anzuelo se mantiene inmóvil en el fondo, agitando continuamente su apéndice hasta que otro desdichado pez se acerca atraído por el señuelo. Entonces, el pez anzuelo abre su enorme boca y devora a la engañada presa.
 
Un ejemplo más elaborado del mismo concepto de atraer las presas mediante el engaño involucra otra poderosa arma del juego de la guerra: el sexo. Las hembras de algunas luciérnagas del género Photuris producen secuencias de destellos de luz que semejan a las producidas por las hembras de otras especies. Cuando los machos de estas otras especies se acercan deslumbrados por los seductores despliegues luminosos de las Photuris, éstas aprovechan la confusión para devorar a los machos atarantados por el amor. Tan cercana es la analogía de la estrategia de estos insectos con la de algunos humanos y humanas, que James Loyd, el científico que describió este comportamiento en las páginas de Science, llamó a las hembras de Photuris las femmes fatales de la naturaleza.
 
“Si el enemigo es más poderoso, evádelo”, escribió Sun Tzu con sabiduría, sugiriendo una serie de estratagemas para pasar inadvertido. Según una hipótesis reciente, varias especies de aves utilizan las propiedades de la luz para elaborar complejos camuflajes que les permiten evadir a sus depredadores. Las hembras de algunos pájaros, como los pinzones cebra, tienen plumajes que reflejan la luz ultravioleta en vistosos patrones para atraer a los machos. Sin embargo, dado que los depredadores de este pájaro, que son en su mayoría mamíferos, no pueden percibir la luz ultravioleta, los “vistosos” despliegues de las ardientes hembras resultan invisibles para ellos. De esta manera, las coquetas hembras pueden al mismo tiempo resultar atractivas para los machos y pasar inadvertidas para los depredadores.
 
Una de las premisas centrales de la estrategia de Sun Tzu es engañar al contrario respecto a nuestra propia fuerza. Parecería que este principio lo conocen muy bien las especies animales que utilizan el engaño a través del llamado mimetismo batesiano. En este tipo de interacción —llamado así en honor a su descubridor, el explorador y naturalista inglés Henry Walter Bates— una especie animal inofensiva puede adquirir el aspecto de otra especie que puede representar algún peligro. Un ejemplo clásico es el de la mariposa virrey, que, siendo inofensiva, presenta un patrón de coloración muy parecido al de la mariposa monarca, la cual acumula en su cuerpo ciertos compuestos químicos que la hacen incomestible y hasta venenosa para algunas aves. Los pájaros, acostumbrados a evitar el ataque a las mariposas monarca, evaden también a las virrey, aun cuando éstas no representan peligro alguno.
 
En un estudio publicado el año pasado en Nature, David Pfenning, de la Universidad de Carolina del Norte, y sus colaboradores presentaron datos cuantitativos de otro ejemplo bien conocido de mimetismo batesiano. Algunas serpientes del género Lampropeltis, que no son venenosas, presentan patrones de coloración muy parecidos a los de las serpientes coralillo (género Micrurus). Pfenning y sus colegas, usando un ingenioso diseño experimental, demostraron que, efectivamente, los depredadores evitan atacar a las Lampropeltis, a pesar de ser serpientes inofensivas. Asimismo, el estudio mostró que el efecto es más marcado en los lugares donde las auténticas coralillo son más abundantes. Los depredadores que han aprendido a no atacar a las auténticas coralillo, evitan también acercarse a las “falsas”.
 
En un giro más rebuscado del mimetismo batesiano, algunas plantas han desarrollado mecanismos para engañar a los animales, manipulándolos para usarlos como mecanismos de polinización. La orquídea sudafricana Disa pulchra, por ejemplo, posee flores que son asombrosamente similares a las de otra planta, un iris nativo (Watsonia lepida), y ambas especies son polinizadas por la misma especie de tábanos. Lo interesante es que mientras Watsonia produce néctar que es utilizado como alimento por los tábanos, la orquídea no produce ningún tipo de recompensa para el insecto, pero éste de todas maneras se acerca a la flor de la orquídea en busca de néctar. En otras palabras, la orquídea se disfraza de iris para aprovecharse del comportamiento del tábano, que ha aprendido que puede encontrar alimento en las flores del iris sudafricano.
 
Como se puede ver en todos los ejemplos, y tal como brillantemente lo dedujo Sun Tzu hace veinticinco siglos, el engaño es parte natural de la guerra, sea ésta entre los hombres o entre los animales, e incluso entre las plantas. Los ejemplos de la naturaleza no hacen sino corroborar las palabras del filósofo chino: el arte de la guerra es de vital importancia... es una cuestión de vida o muerte.Chivi67
 
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autonóma de México.
_______________________________________________________________

como citar este artículo

Arita, Héctor T. (2002). El arte de la guerra animal. Ciencias 67, julio-septiembre, 16-18. [En línea]
  P01 P02  
  de la red
 
     
¿De quién es Marte?
 
 
 
Susana Biro    
         
HTML ↓ PDF Regresar al índice artículo siguiente
         
Hace algunos meses escuché la siguiente noticia en la radio: “Investigadores de la unam, la Universidad Veracruzana y la nasa trabajan en un proyecto para poner vida en Marte. Mediante explosiones que produzcan un efecto invernadero subirán la temperatura del planeta rojo y, posteriormente llevarán bacterias muy resistentes para empezar a producir oxígeno”. Lo primero que se me ocurrió fue, ¿de quién es Marte? Es decir, ¿con qué derecho van a poner un laboratorio de ecología allá?
 
Evidentemente era necesario averiguar más sobre el tema, así como analizar los alcances y efectos que había tenido la noticia en el público, para lo cual apliqué una especie de prueba de Rorschach —con un montón de palabras en vez de un manchón de tinta— que consistía en repetir la noticia y pedir primeras impresiones. Mi hermana menor, especialista en el área de alimentos y bebidas, fue el primer sujeto a prueba, quien respondió: ¿pero cuánto tiempo tarda eso? y ¿apoco allá se van a desarrollar igual los organismos? Una compañera de trabajo, divulgadora de la ciencia, preguntó repitiendo ¿nasa, unam y Universidad Veracruzana? Por último, dos astrónomos se hicieron la misma pregunta que yo: ¿tienen derecho a hacerlo?
 
Como tres encuestas no son suficientes para publicar el resultado de mi investigación, opté por meterme a la red para ver qué encontraba. La cantidad y variedad de información sobre la posible creación de un ambiente en Marte, que permita la vida, es apabullante. En realidad, se puede llegar a todas las páginas serias desde el sitio de la nasa (http://www.nasa.gov), ya sea paseando por sus proyectos o utilizando la herramienta de búsqueda.
 
Por medio de la exploración en la red infiero que la versión real de la noticia de la radio va más o menos así. El Dr. Rafael Navarro González, investigador del Instituto de Ciencias Nucleares de la unam, trabaja con Christopher McKay, de la nasa, y Luis Cruz Kuri, de la Universidad Veracruzana, en el estudio de la introducción de bosques en Marte. Éste sería uno de los últimos pasos del largo y complejo proceso de convertir el ahora seco y frío planeta en un sitio con atmósfera, vegetación y tierra fértil donde a la larga pudieran vivir nuestros descendientes. Los investigadores presentaron su trabajo en una conferencia llamada “La física y la biología necesarias para hacer a Marte habitable”, en la cual se habló de las diferentes posibilidades para calentar el planeta. Asimismo se presentaron estudios sobre los ecosistemas extremos en la Tierra (muy fríos o muy secos) que pueden servir como modelos para la eventual población marciana.
 
Al proceso de generar un ambiente como el de la Tierra se le llama terraformación. En principio se podría pensar para cualquier planeta, pero por ahora se están haciendo planes en Marte, tanto por su cercanía como porque comparte con la Tierra propiedades importantes para seres vivos acostumbrados a nuestro planeta —como la duración de su día y la inclinación de su eje de rotación (que da como resultado las estaciones). En este momento la temperatura del planeta rojo es de –60° C y su atmósfera es apenas una tenue capa de bióxido de carbono, nitrógeno y vapor de agua. Antes que nada será necesario subir la temperatura para así liberar un mayor número de moléculas presentes en Marte. El método más viable para lograr esto es utilizando la energía del Sol: poniendo en la atmósfera gases como metano o amoniaco para inducir así un “efecto invernadero” que permita la entrada de la radiación solar pero no su salida. La temperatura tardaría alrededor de cien años en subir a 40° C y otros seiscientos en derretir los casquetes polares que contienen agua. De este modo se crearía una atmósfera densa y templada. El siguiente paso sería mandar de viaje espacial a algunos extremófilos.
 
Viviendo en Marte, estos seres unicelulares, adaptados a condiciones extremas de temperatura o humedad, irían generando oxígeno para la atmósfera y, con sus restos, composta para enriquecer el suelo.
 
Así, con un primer paseo por la red, quedaron respondidas casi todas las preguntas que surgieron en el breve sondeo. Sin embargo, seguía pendiente el asunto de a quién pertenece Marte. Siempre partiendo del sitio de la nasa, volví a zambullirme en aquel laberinto de información hasta que di con el “Tratado que debe regir las actividades de los Estados en la Luna y otros cuerpos celestes”. En este escrito de 1979 se aclara que todo lo dicho acerca de la Luna se aplica a los demás cuerpos celestes, y en su artículo décimo dice: “La Luna y sus recursos naturales son patrimonio común de la humanidad”’; más adelante informa que es competencia de la onu hacer que se cumpla este tratado. En papel (bueno, en pantalla) esto se ve muy bien, pero la historia nos muestra que el Estado con mayores recursos llega primero, y que una vez allá hace lo que quiere.
 
Marte es de todos. Es claro que no todos podemos (ni queremos) participar directamente en la empresa de introducir plantas y luego poblar el planeta rojo, pero sí nos toca estar enterados de quiénes hacen qué y cómo.Chivi67
 
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
_______________________________________________________________

 

como citar este artículo

Biro, Susana. (2002). ¿De quién es Marte? Ciencias 67, julio-septiembre, 32-33. [En línea]
You are here: Inicio Blog (2) revistas revista ciencias 67