Calidad de vida un concepto en discusión
|
||
Calidad de vida, salud y ambiente
Magalí Daltabuit, Juana Mejía y Rosa Lilia Álvarez (coordinadoras)
crim, unam/ini.
|
||
|
|
|
HTML ↓
|
← Regresar al índice |
|
La conceptualización actual de la calidad de vida y su aplicación empírica —la evaluación de los niveles de pobreza— obliga a revisar la discusión sobre las necesidades básicas humanas y sus satisfactores (que surge a partir de los años setentas) ante el fracaso del desarrollo económico para resolver los problemas de pobreza y mejorar la condición de las mayorías sociales en el mundo. Frente a la imposibilidad de generalizar en los países subdesarrollados los modos de vida de los desarrollados, se propone el enfoque de las necesidades básicas que se centra en conseguir, al menos, la satisfacción de éstas en toda la población.
Existen dos posiciones principales en este debate. Una es la de autores como Amartya Sen y Julio Boltvinik, que sustentan que las necesidades humanas fundamentales son finitas, pocas y clasificables; que son las mismas en todas las culturas y en todos los períodos históricos, por lo que definen en núcleo irreductible de necesidades básicas que al no cubrirse generan pobreza absoluta. Esta posición argumenta que el proceso de globalización de las relaciones económicas, políticas y culturales ha permitido una relativa homogeneización de las necesidades y los satisfactores humanos, conformando sistemas de necesidades de las sociedades actuales, caracterizados por la racionalidad del modelo de desarrollo económico hegemónico. Partiendo de esta perspectiva se ha generalizado, en la evaluación de la calidad de vida, la medición empírica de un núcleo irreductible de necesidades que deben ser reconocidas y resueltas, independientemente del contexto social en que se producen (alimentación, salud, vivienda, educación, socialización, información, recreación, vestido, calzado, transporte, comunicaciones básicas) y la seguridad de cubrirlas a lo largo de la vida.
Otros autores, como Peter Townsend, sostienen que las necesidades humanas tienden a ser infinitas, que están constantemente cambiando, que varían de una cultura a otra y que son diferentes en cada periodo histórico. Es decir, que las necesidades humanas son relativas, así como la pobreza. El argumento que sustenta esta posición es que debemos tener presente que la homogeneización de necesidades está matizada de forma determinante por el componente subjetivo, que expresa contextos culturales específicos.
En una tercera posición, sostenida por Max-Neef y Elizarde entre otros, se plantea que hay que distinguir necesidades y satisfactores, ya que lo que está culturalmente determinado son sólo los satisfactores de esas necesidades y que la norma de pobreza se compone de dos elementos: el núcleo de pobreza absoluta más la pobreza relativa. Estos autores proponen esquemas de clasificación de las necesidades, tomando en cuenta diferentes categorías existenciales: ser, tener, hacer y estar; y categorías axiológicas como las de subsistencia, protección, afecto, entendimiento, participación, ocio, creación, identidad y libertad.
En este libro se revisa el concepto de calidad de vida, los paradigmas donde se ha sustentado su análisis, así como su dimensión histórica. Se aborda y se cuestiona la metodología para su evaluación. Se recalca la necesidad de incluir los aspectos subjetivos y la importancia de considerar la dimensión cultural y ambiental que abarca el concepto teórico.
|
||
Fragmentos de la introducción. _______________________________________________________________
como citar este artículo →
Daltabuit, Magalí y Mejía Juana, Álvarez Rosa Lilia. (2002). Calidad de vida, concepto en discusión. Ciencias 67, julio-septiembre, 79. [En línea] |
||
|
← Regresar al índice |
de la red |
||||
¿De quién es Marte? |
|
|||
Susana Biro | ||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | |||
Hace algunos meses escuché la siguiente noticia en la radio: “Investigadores de la unam, la Universidad Veracruzana y la nasa trabajan en un proyecto para poner vida en Marte. Mediante explosiones que produzcan un efecto invernadero subirán la temperatura del planeta rojo y, posteriormente llevarán bacterias muy resistentes para empezar a producir oxígeno”. Lo primero que se me ocurrió fue, ¿de quién es Marte? Es decir, ¿con qué derecho van a poner un laboratorio de ecología allá?
Evidentemente era necesario averiguar más sobre el tema, así como analizar los alcances y efectos que había tenido la noticia en el público, para lo cual apliqué una especie de prueba de Rorschach —con un montón de palabras en vez de un manchón de tinta— que consistía en repetir la noticia y pedir primeras impresiones. Mi hermana menor, especialista en el área de alimentos y bebidas, fue el primer sujeto a prueba, quien respondió: ¿pero cuánto tiempo tarda eso? y ¿apoco allá se van a desarrollar igual los organismos? Una compañera de trabajo, divulgadora de la ciencia, preguntó repitiendo ¿nasa, unam y Universidad Veracruzana? Por último, dos astrónomos se hicieron la misma pregunta que yo: ¿tienen derecho a hacerlo?
Como tres encuestas no son suficientes para publicar el resultado de mi investigación, opté por meterme a la red para ver qué encontraba. La cantidad y variedad de información sobre la posible creación de un ambiente en Marte, que permita la vida, es apabullante. En realidad, se puede llegar a todas las páginas serias desde el sitio de la nasa (http://www.nasa.gov), ya sea paseando por sus proyectos o utilizando la herramienta de búsqueda.
Por medio de la exploración en la red infiero que la versión real de la noticia de la radio va más o menos así. El Dr. Rafael Navarro González, investigador del Instituto de Ciencias Nucleares de la unam, trabaja con Christopher McKay, de la nasa, y Luis Cruz Kuri, de la Universidad Veracruzana, en el estudio de la introducción de bosques en Marte. Éste sería uno de los últimos pasos del largo y complejo proceso de convertir el ahora seco y frío planeta en un sitio con atmósfera, vegetación y tierra fértil donde a la larga pudieran vivir nuestros descendientes. Los investigadores presentaron su trabajo en una conferencia llamada “La física y la biología necesarias para hacer a Marte habitable”, en la cual se habló de las diferentes posibilidades para calentar el planeta. Asimismo se presentaron estudios sobre los ecosistemas extremos en la Tierra (muy fríos o muy secos) que pueden servir como modelos para la eventual población marciana.
Al proceso de generar un ambiente como el de la Tierra se le llama terraformación. En principio se podría pensar para cualquier planeta, pero por ahora se están haciendo planes en Marte, tanto por su cercanía como porque comparte con la Tierra propiedades importantes para seres vivos acostumbrados a nuestro planeta —como la duración de su día y la inclinación de su eje de rotación (que da como resultado las estaciones). En este momento la temperatura del planeta rojo es de –60° C y su atmósfera es apenas una tenue capa de bióxido de carbono, nitrógeno y vapor de agua. Antes que nada será necesario subir la temperatura para así liberar un mayor número de moléculas presentes en Marte. El método más viable para lograr esto es utilizando la energía del Sol: poniendo en la atmósfera gases como metano o amoniaco para inducir así un “efecto invernadero” que permita la entrada de la radiación solar pero no su salida. La temperatura tardaría alrededor de cien años en subir a 40° C y otros seiscientos en derretir los casquetes polares que contienen agua. De este modo se crearía una atmósfera densa y templada. El siguiente paso sería mandar de viaje espacial a algunos extremófilos.
Viviendo en Marte, estos seres unicelulares, adaptados a condiciones extremas de temperatura o humedad, irían generando oxígeno para la atmósfera y, con sus restos, composta para enriquecer el suelo.
Así, con un primer paseo por la red, quedaron respondidas casi todas las preguntas que surgieron en el breve sondeo. Sin embargo, seguía pendiente el asunto de a quién pertenece Marte. Siempre partiendo del sitio de la nasa, volví a zambullirme en aquel laberinto de información hasta que di con el “Tratado que debe regir las actividades de los Estados en la Luna y otros cuerpos celestes”. En este escrito de 1979 se aclara que todo lo dicho acerca de la Luna se aplica a los demás cuerpos celestes, y en su artículo décimo dice: “La Luna y sus recursos naturales son patrimonio común de la humanidad”’; más adelante informa que es competencia de la onu hacer que se cumpla este tratado. En papel (bueno, en pantalla) esto se ve muy bien, pero la historia nos muestra que el Estado con mayores recursos llega primero, y que una vez allá hace lo que quiere.
Marte es de todos. Es claro que no todos podemos (ni queremos) participar directamente en la empresa de introducir plantas y luego poblar el planeta rojo, pero sí nos toca estar enterados de quiénes hacen qué y cómo.
|
||||
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Biro, Susana. (2002). ¿De quién es Marte? Ciencias 67, julio-septiembre, 32-33. [En línea]
|
||||
del bestiario |
||||
El arte de la guerra animal |
|
|||
Héctor T. Arita
|
||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | |||
Ya que nada puede parecer engañoso para aquel que gana.
Shakespeare, Enrique IV
|
||||
Toda actividad de guerra está basada en el engaño, escribió Sun Tzu en el año 481 antes de Cristo. Para poder comandar un ejército, el general debe saber cómo burlar la vigilancia del enemigo. Al estar listos para atacar, razonaba el sabio chino, debemos parecer incapaces de hacerlo. Si estamos cerca, debemos hacer creer al contrario que estamos lejos; si estamos lejos, debemos parecer estar cerca. Actúa como si fueras débil, aconsejaba el filósofo de la guerra, y a tu enemigo lo consumirá la arrogancia.
Tales son algunos de los pensamientos que plasmó Sun Tzu en El arte de la guerra, una colección de trece pequeños ensayos pletóricos con sabios consejos que han sobrevivido veinticinco siglos de historia. Más maquiavélico que el propio Maquiavelo, Sun Tzu supo granjearse la confianza de Ho Lu, rey de Wu, y comandó sus ejércitos durante más de veinte años, logrando impresionantes victorias en la China de entonces. Las enseñanzas de Sun Tzu han cobrado recientemente popularidad entre una nueva generación de guerreros: los “tiburones” del mundo financiero, que encuentran en los escritos del filósofo chino una justificación para sus “guerras comerciales”. Mr. Gekko, el siniestro magnate de la película Wall Street, de Oliver Stone, cita El arte de la guerra como uno de sus libros de cabecera. Sin embargo, para poner en contexto la verdadera sabiduría que contienen los pensamientos de Sun Tzu, hay que recordar que, en sus propias palabras, “la excelencia suprema consiste en romper la resistencia del enemigo sin tener que librar batalla alguna”.
Las máximas de Sun Tzu sobre el engaño tienen su paralelo también en otro tipo de guerras: la cotidiana batalla de las plantas y los animales por sobrevivir y reproducirse. Desde que se empezó a analizar el comportamiento de los animales como un fenómeno de transmisión de información, se llegó a la inescapable conclusión de que en la naturaleza debería haber casos de falsa información transmitida “intencionalmente”. El engaño, tal como dedujo Sun Tzu, es componente fundamental de la actividad bélica, incluso cuando se trata de las guerras naturales.
En los bosques neotropicales, la tángara de alas blancas suele colgarse de una rama esperando capturar insectos que saltan de la vegetación por la actividad de otras aves. Además, desde su posición ventajosa, la tángara puede detectar la cercanía de depredadores, como los halcones, y entonces emite una llamada de alarma que hace que todas las aves, incluso las de otras especies, se escondan o se mantengan inmóviles. Sin embargo, en ocasiones, especialmente cuando se encuentra disputando una presa con otro pájaro, la tángara emite también el llamado de alarma aunque no haya depredadores a la vista. De esta manera, engaña a su competidor, que se prepara para un posible ataque y se olvida de la presa en disputa. Tal como lo aconseja Sun Tzu, la tángara ha desarrollado un mecanismo para engañar al enemigo, haciéndole creer que es vulnerable cuando no lo es.
“Ataca al enemigo cuando no esté preparado, aparece cuando nadie lo espera. Coloca señuelos para seducirlo”, sugería Sun Tzu a los generales que debían librar cruentas batallas. Tal consejo parecería haber sido escuchado por una serie de animales que utilizan el engaño para hacerse de sus presas. Un ejemplo bien conocido, pero no por ello menos estrambótico, es el del pez anzuelo. Este extraño habitante de los mares de Europa y América del Norte posee un curioso apéndice que parece una delgada antena rematada con una figura semejante a un pequeño pez. El pez anzuelo se mantiene inmóvil en el fondo, agitando continuamente su apéndice hasta que otro desdichado pez se acerca atraído por el señuelo. Entonces, el pez anzuelo abre su enorme boca y devora a la engañada presa.
Un ejemplo más elaborado del mismo concepto de atraer las presas mediante el engaño involucra otra poderosa arma del juego de la guerra: el sexo. Las hembras de algunas luciérnagas del género Photuris producen secuencias de destellos de luz que semejan a las producidas por las hembras de otras especies. Cuando los machos de estas otras especies se acercan deslumbrados por los seductores despliegues luminosos de las Photuris, éstas aprovechan la confusión para devorar a los machos atarantados por el amor. Tan cercana es la analogía de la estrategia de estos insectos con la de algunos humanos y humanas, que James Loyd, el científico que describió este comportamiento en las páginas de Science, llamó a las hembras de Photuris las femmes fatales de la naturaleza.
“Si el enemigo es más poderoso, evádelo”, escribió Sun Tzu con sabiduría, sugiriendo una serie de estratagemas para pasar inadvertido. Según una hipótesis reciente, varias especies de aves utilizan las propiedades de la luz para elaborar complejos camuflajes que les permiten evadir a sus depredadores. Las hembras de algunos pájaros, como los pinzones cebra, tienen plumajes que reflejan la luz ultravioleta en vistosos patrones para atraer a los machos. Sin embargo, dado que los depredadores de este pájaro, que son en su mayoría mamíferos, no pueden percibir la luz ultravioleta, los “vistosos” despliegues de las ardientes hembras resultan invisibles para ellos. De esta manera, las coquetas hembras pueden al mismo tiempo resultar atractivas para los machos y pasar inadvertidas para los depredadores.
Una de las premisas centrales de la estrategia de Sun Tzu es engañar al contrario respecto a nuestra propia fuerza. Parecería que este principio lo conocen muy bien las especies animales que utilizan el engaño a través del llamado mimetismo batesiano. En este tipo de interacción —llamado así en honor a su descubridor, el explorador y naturalista inglés Henry Walter Bates— una especie animal inofensiva puede adquirir el aspecto de otra especie que puede representar algún peligro. Un ejemplo clásico es el de la mariposa virrey, que, siendo inofensiva, presenta un patrón de coloración muy parecido al de la mariposa monarca, la cual acumula en su cuerpo ciertos compuestos químicos que la hacen incomestible y hasta venenosa para algunas aves. Los pájaros, acostumbrados a evitar el ataque a las mariposas monarca, evaden también a las virrey, aun cuando éstas no representan peligro alguno.
En un estudio publicado el año pasado en Nature, David Pfenning, de la Universidad de Carolina del Norte, y sus colaboradores presentaron datos cuantitativos de otro ejemplo bien conocido de mimetismo batesiano. Algunas serpientes del género Lampropeltis, que no son venenosas, presentan patrones de coloración muy parecidos a los de las serpientes coralillo (género Micrurus). Pfenning y sus colegas, usando un ingenioso diseño experimental, demostraron que, efectivamente, los depredadores evitan atacar a las Lampropeltis, a pesar de ser serpientes inofensivas. Asimismo, el estudio mostró que el efecto es más marcado en los lugares donde las auténticas coralillo son más abundantes. Los depredadores que han aprendido a no atacar a las auténticas coralillo, evitan también acercarse a las “falsas”.
En un giro más rebuscado del mimetismo batesiano, algunas plantas han desarrollado mecanismos para engañar a los animales, manipulándolos para usarlos como mecanismos de polinización. La orquídea sudafricana Disa pulchra, por ejemplo, posee flores que son asombrosamente similares a las de otra planta, un iris nativo (Watsonia lepida), y ambas especies son polinizadas por la misma especie de tábanos. Lo interesante es que mientras Watsonia produce néctar que es utilizado como alimento por los tábanos, la orquídea no produce ningún tipo de recompensa para el insecto, pero éste de todas maneras se acerca a la flor de la orquídea en busca de néctar. En otras palabras, la orquídea se disfraza de iris para aprovecharse del comportamiento del tábano, que ha aprendido que puede encontrar alimento en las flores del iris sudafricano.
Como se puede ver en todos los ejemplos, y tal como brillantemente lo dedujo Sun Tzu hace veinticinco siglos, el engaño es parte natural de la guerra, sea ésta entre los hombres o entre los animales, e incluso entre las plantas. Los ejemplos de la naturaleza no hacen sino corroborar las palabras del filósofo chino: el arte de la guerra es de vital importancia... es una cuestión de vida o muerte.
|
||||
Instituto de Ecología,
Universidad Nacional Autonóma de México.
_______________________________________________________________
como citar este artículo → Arita, Héctor T. (2002). El arte de la guerra animal. Ciencias 67, julio-septiembre, 16-18. [En línea]
|
||||
|
|||
El concepto de escala y la teoría de las jerarquías en ecología
|
La aplicación del concepto de heterogeneidad presupone que el funcionamiento de la naturaleza está explicado por procesos que se llevan a cabo en diferentes escalas espacio-temporales, esto es que los procesos ecológicos son dependientes de la escala.
|
||
Leopoldo Galicia Sarmiento y Alba Esmeralda
Zarco Arista
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Hasta ahora, la aproximación al conocimiento de la naturaleza ha sido posible al utilizar el método científico tradicional (hipotético-deductivo), en el cual los fenómenos de la naturaleza han sido conceptualizados como sistemas simples y aislados, y cuya finalidad ha sido el ofrecer una explicación causal (determinista) y mecanicista de los fenómenos que ocurren en ella. El método hipotético-deductivo incorpora pocas variables, considerando que ellas están en equilibrio y que son estáticas y homogéneas tanto en el espacio como en el tiempo, es decir, unicausales, unidireccionales y lineales. Además, la escala de espacio y de tiempo que incorpora es muy pequeña, por tanto, en la búsqueda de explicaciones y predicciones de los patrones de la naturaleza, dicho método tiene un bajo poder de generalización. El fin último de este enfoque es establecer que el entendimiento de cada una de las partes que conforman a la naturaleza ofrece la comprensión de la misma como un todo. En esta concepción reduccionista no sólo existe una disminución en el número de factores que explican los patrones, sino también en la posibilidad de ofrecer explicaciones alternas, con lo cual se busca explicar el componente como resultado de su comportamiento intrínseco, es decir, sin tomar en cuenta su entorno.
La ciencia ecológica no ha sido la excepción al adoptar el método científico tradicional, por lo que en la búsqueda de generalizaciones y predicciones ha concebido una naturaleza en equilibrio, estática y homogénea. Los procesos ecológicos que la explican se conciben por tanto como fenómenos simples, unidireccionales, unicausales y con respuestas lineales. Los estudios mecanicistas han ayudado a entender las relaciones causa-efecto de algunos procesos ecológicos; sin embargo, no ha sido posible explicar los patrones ecológicos en la naturaleza por medio de la extrapolación de los resultados de laboratorio y de campo en pequeña escala. Esta limitante se debe a que en la naturaleza existe una gran heterogeneidad espacial y temporal que hace difícil extrapolar datos que se generan en condiciones homogéneas, es decir, que no se han logrado explicar los mecanismos que producen los patrones de distribución de especies en áreas geográficas grandes. La aplicación del concepto de heterogeneidad presupone que el funcionamiento de la naturaleza está explicado por procesos que se llevan a cabo en diferentes escalas espacio-temporales, que los procesos ecológicos son dependientes de la escala. Sin embargo, la importancia del concepto de escala no se ha generalizado en los diferentes niveles de organización ecológica, aun cuando se ha mencionado que el estudio de la heterogeneidad espacial es fundamental para la investigación en la naturaleza.
El concepto de escala puede definirse como la dimensión espacial y temporal que se requiere para un cambio en la tasa a la cual ocurren los procesos y en la importancia relativa de los factores que explican dichos procesos. La definición de escala implica heterogeneidad; conforme la ventana de observación de espacio o de tiempo aumenta, cambia la importancia de los organismos, sus características y los parámetros ambientales. Por tanto, la incorporación del análisis espacial puede ayudar a identificar la heterogeneidad en diferentes escalas espaciales y temporales sobre las cuales operan los procesos que explican los patrones en amplias áreas geográficas. Los estudios de procesos ecológicos en el laboratorio o el campo, en pequeña escala espacio-temporal, no son considerados dependientes de la misma, es decir, muchas veces los procesos que generan cambios importantes en el patrón ocurren lentamente y requieren amplias escalas geográficas y largos períodos de observación. Como menciona Levin, el estudio de la escala requiere el análisis del cambio y la variabilidad de los patrones de acuerdo con la escala de descripción.
Otro elemento conceptual importante en este trabajo es el de la teoría de las jerarquías, la cual considera a los sistemas ecológicos como sistemas complejos, es decir, que postula la existencia de una relación entre la entidad (el objeto de estudio en cuestión) y su contexto (las interrelaciones con su matriz), por lo que cada nivel jerárquico posee un grupo de relaciones diferentes. La importancia de este concepto es que nos ayuda a entender las diferentes tasas a las que ocurren los procesos ecológicos. Los fenómenos que se estudian en pequeñas escalas espacio-temporales no son muy predecibles porque los sistemas biológicos son poco persistentes y muy variables, lo cual se debe al límite y a la baja extensión espacio-temporal de los datos. La escala de observación también cambia el número de variables involucradas. A escalas pequeñas existe un gran número de variables que explican un proceso, por tanto, los fenómenos que ocurren en éstas tienen gran variabilidad y poca generalidad. Por el contrario, en grandes escalas, pocas variables explican los procesos, por lo cual se incrementa la predictibilidad.
En diferentes trabajos se ha establecido que los sistemas ecológicos poseen heterogeneidad y están estructurados jerárquicamente. Por lo mismo, el desarrollo de la teoría ecológica debe incorporar la descripción y la cuantificación de la variabilidad espacial y los diferentes niveles jerárquicos que explican los patrones ecológicos. Levin señala: “Todos los sistemas ecológicos presentan heterogeneidad y formación de parches en grandes escalas espaciales y temporales”. Estas características son fundamentales para entender la dinámica de las poblaciones, la estabilidad y organización de las comunidades y el reciclaje de elementos en los ecosistemas. Sin embargo, no se ha producido la información relevante en diferentes escalas para explicar los patrones del comportamiento de las poblaciones, la estructura de las comunidades y la de los ecosistemas, así como su funcionamiento.
La ecología de las poblaciones
Tradicionalmente, los modelos de crecimiento poblacional suponen que el espacio y el tiempo son homogéneos. El problema principal de este enfoque es que no considera que los parámetros demográficos como la natalidad, la mortalidad y la sobrevivencia dependen de la heterogeneidad espacial; por tanto, no pueden explicar los patrones de la distribución y dinámica de las especies en amplias escalas geográficas. Por otro lado, en la ecología de poblaciones, la incorporación del concepto de heterogeneidad espacial no ha sido la excepción.
Un tema reciente relacionado con este nivel de organización ha sido el papel de la heterogeneidad espacial en la reducción de las tasas de extinción de las poblaciones. Los modelos que toman en cuenta el espacio son: a) los de reacción-difusión, b) los de parches, y c) los de estados discretos basados en sistemas individuales. Estos modelos se basan únicamente en cómo los organismos responden a esa heterogeneidad, pero se vuelve a considerar que el crecimiento, la reproducción y la sobrevivencia ocurren en la misma escala temporal, a pesar de que es claro que éstas operan en distintas escalas temporales. Asimismo, se considera que los parámetros demográficos son producto únicamente del comportamiento de los organismos que componen la población; es decir, que los factores denso-dependientes son más importantes que los factores denso-independientes. Sin embargo, se ha reportado que los parámetros independientes de la densidad operan en escalas espacio-temporales que están por encima de la población y que son los más importantes para regular la dinámica poblacional. Un primer esfuerzo por incorporar la escala que determina la dinámica de las poblaciones ha sido llevado a cabo con el enfoque de metapoblaciones, en el cual se supone que los parches individuales tienen tasas de extinción altas, pero que la alternativa de colonizar más parches reduce la posibilidad de la extinción de las poblaciones. En este ejemplo ha sido importante la inclusión del enfoque de la teoría de la jerarquía para decidir a qué escala operan los procesos que mantienen dicha dinámica, por lo que es posible: a) entender la importancia relativa de todos los procesos (dependientes e independientes de la densidad), así como su variación en el tiempo; b) generar modelos poblacionales que posean una aproximación más real y mejorar la precisión de los modelos de proyección poblacional; y c) la incorporación de la teoría de jerarquías con el fin de observar a las poblaciones como un sistema jerárquico (recurso-población-comunidad). En dicho sistema podemos entender si la dinámica de la población está regulada por un nivel inferior, como la disponibilidad y heterogeneidad de recursos, o por un nivel superior, como la comunidad (interacciones al interior de la especie).
La ecología de las comunidades
Los comportamientos de las interacciones de dos especies han incorporado el papel de la heterogeneidad espacial. Los modelos que han sido utilizados para incluir el espacio han sido de reacción-difusión y de autómatas celulares. Estos trabajos concluyen que la heterogeneidad espacial es indispensable para la coexistencia de especies. En los trabajos en el ámbito de la comunidad, la integración de la heterogeneidad espacio-temporal y la escala han documentado el cambio de los factores que explican los procesos que mantienen la estructura de las comunidades. Por ejemplo, con el cambio de la ventana de observación espacio-temporal las interacciones de las especies pueden cambiar de intensidad e inclusive de dirección. Los recursos (agua, nutrimentos, luz) son heterogéneos, y dependiendo de la escala podemos observarlos formando parches o continuos. Asimismo, la variabilidad de éstos desempeña un papel clave en la variación espacial de la estructura de las comunidades.
El problema científico de la ecología de comunidades tiene que ver con las fuerzas que las estructuran y con la predicción de los cambios en el número de las especies de las mismas. Por tanto, tiene una amplia relación con la variabilidad. Muchos de los mecanismos por los cuales las especies coexisten son dependientes de la heterogeneidad ambiental en espacio o tiempo, o en el caso de perturbaciones de ambas heterogeneidades. Sin embargo, ésta no sólo existe en la distribución de los recursos, sino que hay una amplia heterogeneidad biótica (densidad y composición de las especies), en particular en los parámetros demográficos (sobrevivencia, crecimiento y fecundidad), los cuales varían en el espacio dando lugar a cambios en la estructura de la comunidad.
Las perturbaciones tienen un efecto estabilizador sobre la limitación de recursos, ya que éstas pueden: a) eliminar a los individuos competitivamente dominantes y reducir la exclusión competitiva; y b) generar una alta disponibilidad de recursos que permita que las especies de rápido crecimiento puedan coexistir.
Al incluir la teoría de las jerarquías y el concepto de escala se pueden conocer los cambios en la disponibilidad de recursos —integrando diferentes escalas espacio-temporales— y la manera en la que influyen sobre la coexistencia de especies en amplias áreas geográficas; también permiten comprender la interacción de la variabilidad de las características ambientales y los cambios en la estructura de la comunidad.
La ecología de los ecosistemas
La ecología de los ecosistemas ha sido uno de los enfoques que mayor atención ha puesto en la heterogeneidad espacial y temporal. En los estudios a nivel de ecosistema se ha observado que los procesos que explican la productividad, los balances de agua, los patrones de descomposición y la biogeoquímica, son procesos dependientes de la escala. Así, a escala local, la productividad es explicada por la precipitación y por la capacidad de retención de agua en el suelo, pero que, a escalas mayores, lo es por el patrón regional de la precipitación.
Holling menciona que la dinámica y estructura de los ecosistemas son explicadas por fenómenos que ocurren en diferentes escalas espacio-temporales, y establece que los procesos de la vegetación se explican en pequeña escala por el crecimiento de las plantas, por su estructura y por la del suelo, a mediana escala por los procesos de perturbación (fuego, plagas de insectos y los huracanes), y a macro escala son los procesos geomorfológicos los que mantienen la estructura de los ecosistemas. Asimismo, él propone que se debe buscar información que se pueda cruzar entre escalas para determinar la estructura y el funcionamiento de los ecosistemas. Aunque la heterogeneidad espacial de muchos procesos en los ecosistemas es desconocida, los resultados de los sitios específicos no pueden extrapolarse a escalas regionales.
Una propuesta interesante sería entender cómo los procesos que ocurren en escalas pequeñas influyen sobre la estructura y funcionamiento de los ecosistemas, es decir, cómo pequeños procesos tienen grandes implicaciones en la dinámica de éstos. Otro aspecto de interés es concebir la entrada de energía y materia a los ecosistemas como fenómenos aleatorios y estocásticos (i.e. la entrada de precipitación a los ecosistemas). Esto tiene profundas consecuencias en el comportamiento de los ecosistemas; por ejemplo, la dinámica de los flujos se presenta en pulsos (actividad microbiana y liberación de nutrimentos al suelo). Lo anterior pone de manifiesto que si los ecosistemas se abordan con los parámetros anteriores, se puede ofrecer una visión novedosa acerca de la complejidad de la naturaleza.
Heterogeneidad espacial estadística
Como se mencionó previamente, uno de los aspectos que ha adquirido relevancia en la teoría ecológica es el reconocimiento de la variabilidad, la cual refleja la heterogeneidad espacial y temporal de los sistemas ecológicos. El problema de concebir a la naturaleza de manera simplificada y homogénea se manifiesta en la forma de abordarla analíticamente. Con anterioridad, en los trabajos ecológicos la variabilidad era considerada como ruido en la interpretación estadística de los datos, ya que éstos se analizan bajo los supuestos de que existe homogeneidad de varianza, independencia, etcétera. En realidad, lo que se ha considerado como ruido se debe a que en los sistemas ecológicos la heterogeneidad es inherente al sistema, por lo cual éstos no pueden cumplir con los requisitos de replicación, homogeneidad de varianzas, independencia, etcétera.
El concepto de heterogeneidad ha sido usado indistintamente en las áreas de ecología y estadística, y es interpretado de diferente manera en ambas disciplinas. Los ecólogos la definen como la variación espacial en la composición de especies, la disponibilidad de recursos, etcétera, es decir, que identifica cambios en los valores de un parámetro cuantitativo o cualitativo. Por el contrario, en estadística la heterogeneidad se refiere a que los datos no presentan una distribución normal e independiente, por tanto, no se refiere a la heterogeneidad espacial de los patrones en la naturaleza.
Es importante comprender la variabilidad asociada a la heterogeneidad espacial en diferentes formas y combinaciones. Asimismo, no se debe perder de vista que los componentes de los diseños experimentales son deterministas (en pequeñas escalas espacio-temporales), pero se ignora si puedan existir componentes estocásticos y caóticos. Los componentes deterministas pierden importancia en estudios de grandes escalas espaciales porque en éstas las interacciones son más importantes que las relaciones causa-efecto.
Alternativas al método científico
Considerando lo anterior, permanece el reto de comprender a la naturaleza como un sistema complejo, multidireccional, multicausal, sin equilibrio, dinámico y con respuestas no lineales. Es decir, hace falta incorporar la heterogeneidad biológica y ambiental en diferentes niveles tróficos de manera simultánea para entender las fuerzas que regulan la organización de los sistemas ecológicos. La forma de llevarlo a cabo es integrando el concepto de escala espacial y temporal y la teoría de jerarquías en la descripción de los patrones ecológicos en la naturaleza. Entender los fenómenos ecológicos de cada uno de los niveles de organización como un sistema complejo (componentes y contexto), es un reto para el cuerpo conceptual en la ecología. Bajo estas condiciones, la aproximación experimental tiene que llevar a cabo experimentos que consideren: a) sistemas de muchas especies, b) recursos múltiples limitantes, c) la incorporación de diferentes niveles tróficos, d) experimentos en grandes áreas geográficas, y e) estudios de largo plazo. Esto puede ser interesante para entender la dinámica de poblaciones y la estructura de las comunidades.
Una alternativa más es concebir a los patrones ecológicos de las poblaciones, los ecosistemas y las comunidades como sistemas autoorganizables con dinámica de parches y con equilibrios múltiples y estables. Esto puede ser posible aplicando la teoría general de sistemas y la teoría del caos para entender la variabilidad espacio-temporal y las escalas de resolución.
La ecología necesita la implementación de técnicas estadísticas que incluyan en sus hipótesis e interpretaciones la heterogeneidad espacial, técnicas como los índices para patrones de punto, variogramas, análisis de varianza dependiente de la escala y correlogramas para patrones de superficie. Asimismo, hace falta la incorporación de los índices fractales para determinar las tasas de cambio de los procesos en el espacio. Por otro lado, la inclusión de la teoría del caos es importante porque ésta puede ayudarnos a determinar analíticamente si los patrones en la naturaleza son periódicos, caóticos o aleatorios, así como la escala temporal a la cual ocurren los procesos.
El reto de la complejidad
En la información revisada en la literatura ecológica la descripción de la heterogeneidad espacial es vista sólo como una entidad estática. La variabilidad espacial y temporal ha sido descrita como una entidad más, es decir, sólo afecta a los organismos y a su forma de responder a esa heterogeneidad espacial; sin embargo, poco se ha dicho sobre cómo el cambio de escala y la heterogeneidad pueden influir en las conclusiones que se obtienen en un nivel jerárquico aislado. Por tanto, es necesario crear modelos con diferentes niveles de complejidad, es decir, entender los patrones ecológicos, integrando diferentes niveles de organización y, sobre todo, generando información a la escala adecuada para discernir la importancia de los procesos que explican los patrones en la naturaleza.
Como se mencionó anteriormente, uno de los retos es la integración de los diferentes enfoques en la ecología. Este tipo de visión comienza a utilizarse al enlazar procesos funcionales entre el nivel de poblaciones y el de ecosistemas, como las relaciones entre la actividad fisiológica de los individuos (fotosíntesis, uso eficiente de agua y nutrimentos) y la estructura de los ecosistemas. Asimismo, sería conveniente combinar parámetros de la estructura de la población (tamaño de los individuos, tasa de crecimiento) con la productividad del ecosistema. Otro ejemplo son los estudios que incluyen las relaciones entre comunidades y ecosistemas, como el papel de la diversidad de especies sobre el funcionamiento del ecosistema.
Los cambios y las perturbaciones dentro de los sistemas ecológicos son atribuidos a propiedades de las entidades, pero no a cambios en el contexto. La organización de los sistemas ecológicos posee características como la estructura, el funcionamiento y la complejidad, y éstas cambian por influencia de fuerzas internas y externas.
Tal vez en la teoría ecológica lo más interesante sea estudiar la amplitud y periodicidad
de las fluctuaciones ecológicas y los patrones de variación acorde con la dinámica
espacio-temporal.
|
|||
Agradecimientos
Queremos agradecer al Dr. Jorge Meave del Castillo por su valiosa revisión del trabajo.
|
|||
Referencias bibliográficas
Allen, T. F. H. y T. W Hoekstra. 1992. Toward a Unified Ecology. Columbia. University Press, Nueva York.
Dutilleul, P. y P. Legendre. 1993. “Spatial Heterogeneity against Heteroscedasticity: an Ecological Paradigm versus a Statistical Concept”, en Oikos, núm. 66, pp.152-171.
Holling, C. S. 1992. “Cross-scale Morphology, Geometry, and Dynamics of Ecosystems”, en Ecological Monographs, núm. 62, pp. 447-502.
Kareiva, P. 1994. “Special Feature: Space: The Final Frontier for Ecological Theory”., en Ecology, núm. 75, pp. 1-2.
Levin, S. A. 1992. “The Problem of Pattern and Scale in Ecology”, en Ecology, núm. 73, pp. 1943-1967.
O’Neill, R. V., A. R. Johnson y A. W. King. 1989. “A Hierarchical Framework for the Analysis of Scale”, en Landscape Ecology, núm. 3, pp. 193-206.
Pahl-Wostl, C. 1995. The Dynamic Nature of Ecosystems: Chaos and Order Entwined. John Wiley & Sons, Londres.
Tilman, D. 1994. “Competition and Biodiversity in Spatially Structured Habitats”, en Ecology, núm. 75, pp. 2-16.
Turner, M. G. 1989. “Landscape ecology: The Effect of Pattern on Process”, en Ann. Rev. Ecol. Syst., núm. 20, pp. 171-197.
|
|||
Instituto de Geografía
Universidad Nacional Autónoma de México.
Alba Esmeralda Zarco Arista
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Galicia Sarmiento, Leopoldo y Zarco Arista, Alba E. (2002). El concepto de escala y la teoría de las jerarquías en ecología. Ciencias 67, julio-septiembre, 34-40. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
del herbario |
||||
El Herbarium del Pedregal de San Ángel |
|
|||
Luz María Mera, Margarita Araceli Zárate Aquino
y Yolotzin Sandoval Aguilar
|
||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | |||
El Pedregal de San Ángel, situado al suroeste de la cuenca hidrográfica del valle de México, se formó hace dos mil años cuando hizo erupción el volcán Xitle. La Ciudad Universitaria se construyó sobre parte de estos suelos de roca basáltica.
El derrame de lava dio lugar a cerca de ochenta kilómetros cuadrados de superficie rocosa en donde se formaron grietas, hoyos y demás recovecos. Esta condición ecológica favoreció al establecimiento de un ambiente natural seco, en donde la vegetación natural es similar a la de las zonas áridas, a pesar de ubicarse en una zona templada y a una altura de 2 240 metros sobre el nivel del mar.
Las plantas que crecían de manera espontánea en este pedregal han ido desapareciendo con el tiempo y debido al efecto de las diferentes presiones de urbanización a las que se encuentra sometida está zona geográfica (incendios, comercialización y extracción indiscriminada de piedra, zonas de relleno, etcétera). Por este motivo es necesario guardar y cuidar lo que aún existe, ya que, aun cuando la vegetación original está muy dañada, todavía se pueden encontrar, entre los corredores de vegetación semiprotegida, plantas como el cempásuchil silvestre (Tagetes lunulata), cuya presencia en los meses de septiembre y octubre embellece al Pedregal con su tonos amarillos y anaranjados, muy acordes con la época de Todos los Santos. Esta planta de flor pequeña es similar a la que los antiguos aztecas utilizaban en sus ofrendas, considerado el antepasado (como la abuela) del cempasúchil de cabezuelas vistosas, que encontramos actualmente en los mercados. Además de ser una planta utilizada en las ofrendas y altares de la celebración del Día de Muertos, también se emplea en la industria alimenticia para dar color a algunos platillos como la sopa de pasta y el huevo de gallina.
En este Pedregal también encontramos árboles de copal (Bursera cuneata y Bursera fagaroides), cuya corteza aromatiza los altares de las festividades del Día de Muertos.
En época de lluvias el Pedregal se viste de colores con la gran cantidad de especies en floración como las hermosas begonias (Begonia gracilis) e incluso con orquídeas como las conocidas por los botánicos con el nombre de Habenaria carssicornis, encontrada por primera vez en esta zona del Pedregal. Sin embargo, existen otras orquídeas que, por el contrario, se extinguieron, como la Bletia urbana, debido a que las condiciones ambientales ya no son naturales.
En el Pedregal crecen algunas plantas sin estructuras reproductivas visibles llamadas pteridofitas. Algunos ejemplos conocidos son la doradilla (Sellaginellla pallescens) especie muy socorrida en medicina tradicional, al igual que el helecho llamado calahuala (Cheilantes bonarensis.
Todas estas plantas ya secas y otras más, así como la información de cada una de ellas, las puedes consultar en el Herbarium del Pedregal de San Ángel, inaugurado en septiembre de 1997, en la “Casita de las Ciencias” de Universum.
De acuerdo a los lineamientos del Museo de las Ciencias, este herbario tiene como objetivos principales: 1) la divulgación del conocimiento científico, en particular, para los alumnos de primaria, bachillerato y el público en general; 2) proporcionar información biológica y ecológica acerca de la reserva del Pedregal de San Ángel; y 3) mostrar el manejo y funcionamiento de un herbario, así como la importancia de la nomenclatura científica.
Un herbario es un sitio comparable con una biblioteca. Sólo que la información se obtiene de los propios ejemplares del herbario, las plantas secas, pegadas sobre una cartulina blanca, son etiquetadas y categorizadas con el término “vulgar” y el científico.
Además se imparte el taller “Conoce un herbario”, cuyos objetivos son: a) fomentar en niños y jóvenes de edad escolar la necesidad de conocer los recursos vegetales naturales así como su conservación y aprovechamiento; b) estimular en ellos la observación de la naturaleza y el desarrollo de sistemas de clasificación natural; y c) dar a conocer el funcionamiento e información que se obtiene al consultar un herbario.
Las visitas que realiza el público en general y los estudiantes permiten que este pequeño herbario cumpla los objetivos para los que fue creado.
A la fecha, la colección de ejemplares del herbario resguarda 558 ejemplares, clasificados en 68 familias botánicas, con un total de 221 especies.
Algunos de estos registros han permitido tanto la colecta de especies no reportadas hacía tiempo —como Phaseolus pluriflorus, pariente del frijol, y Acalypha monostachya—, así como el arreglo de la información de las fichas de colecta, que son concentradas en un banco de datos, el cual podrá ser consultado por el público.
|
||||
Jardín Botánico,
Universidad Nacional Autónoma de México.
Margarita Araceli Zárate Aquino
Jardín Botánico,
Universidad Nacional Autónoma de México.
Yolotzin Sandoval Aguilar
Jardín Botánico,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Mera, Luz María y Zárate Aquino Margarita Araceli, Sandoval Aguilar Yolotzin. (2002). El Herbarium del Pedregal de San Ángel. Ciencias 67, julio-septiembre, 42-43. [En línea] |
||||
|
|||||||||
El paisaje en ecología
|
El uso de la palabra paisaje, como término técnico, se ha incrementado en la última
década en las ciencias sociales y biológicas. Sin embargo, aun cuando en ellas se refiere a una extensión de terreno, el paisaje no ha
sido definido claramente ni delimitado en el
espacio.
|
||||||||
Elvira Durán, Leopoldo Galicia Sarmiento,
Eduardo Pérez García y Luis Zambrano
|
|||||||||
|
← Regresar al índice ⁄ artículo siguiente → | ||||||||
¿Quién no ha visto los programas de Bob Ross que enseña en menos de una hora a pintar un paisaje con ayuda del verde vejiga o del rojo carmesí? Sus cuadros representan bosques, montañas nevadas, lagos y trigales que están “bajo alegres nubecillas que danzan en el cielo”. Este señor de cabellos a la afro pinta paisajes que surgen de su visión de la naturaleza, aunque para observar otros “reales”, podemos ir al munal en el centro de la ciudad de México, en donde es posible admirar preciosos óleos de fines del siglo xix pintados magistralmente por José María Velasco, que representan a la campiña mexicana. La obra de los pintores paisajistas indica que el paisaje normalmente se refiere a la variedad de cosas que puede ver el ojo humano, ya sea en pequeñas o grandes extensiones de terreno (un río, una ciudad, los cultivos, los bosques, etcétera), pero... ¿será que esta percepción del entorno inspiró el desarrollo de toda una disciplina en las ciencias naturales? Pues así es, el interés por comprender de manera integral los patrones y procesos ecológicos del espacio que percibimos dio origen a la ecología del paisaje.
Ésta es una disciplina que integra aspectos del área biológica y de las ciencias de la tierra, y que tiene al paisaje como su principal objeto de estudio. La premisa fundamental de esta doctrina es que la heterogeneidad ambiental de una extensión de terreno influye en los patrones y procesos ecológicos. En 1939, el alemán Carl Troll realizó una integración del enfoque geográfico y del botánico para acuñar el término de ecología del paisaje. Sin embargo, en su desarrollo esta disciplina ha ido estructurando un cuerpo teórico y metodológico para el análisis de la relación entre el componente biológico y el medio físico, y en algunos casos, el factor humano.
Además de las preguntas académicas, la crisis ambiental y la necesidad de un uso racional de los recursos naturales han propiciado que numerosos cuestionamientos y acciones prácticas en la ecología, en las ciencias ambientales y en el manejo de los recursos hayan adoptado la perspectiva integradora de la ecología del paisaje. Esta situación se refleja, entre otras cosas, en el incremento de trabajos publicados sobre el tema en las revistas especializadas de mayor difusión en ecología básica y aplicada. Sin embargo, esta tarea —especialmente en lo referente a la investigación básica— se enfrenta a los problemas semánticos y conceptuales derivados de una amplitud de interpretaciones de lo que es el paisaje. Por ello, consideramos que el concepto de paisaje debe acotarse para que contribuya a la edificación de bases conceptuales, teóricas y aplicadas en ecología.
El uso de la palabra paisaje, como término técnico, se ha incrementado en la última década entre las ciencias sociales y biológicas. Sin embargo, aun cuando en todas ellas se refiere a una extensión de terreno, el paisaje no ha sido definido claramente ni delimitado en el espacio —situación que propicia la interpretación individual de quien lo usa. La tarea de discutir qué se entiende por paisaje es importante porque a lo largo de la historia se ha comprobado que, en el ámbito científico, la libre interpretación de un concepto genera problemáticas al momento de alcanzar conclusiones. El hecho de que cada persona tenga una visión particular sobre un concepto determinado, equivale a hablar idiomas distintos y a pretender que se habla uno común. Esto crea el riesgo de que cada interlocutor genere conclusiones afines al concepto que adoptó, y no a las derivadas de la interpretación de los hechos bajo una referencia común. En años recientes, la necesidad de desarrollar un sistema conceptual en distintas disciplinas ha propiciado que varios investigadores, sociedades académicas y filósofos de la ciencia se hayan involucrado en la discusión de conceptos clave, entre los que figura el paisaje como un tema no agotado.
Especialmente en ecología, tiene distintas concepciones, ya que en algunos casos se le ha referido de manera intuitiva como un escenario (cuadro 1). También se plantea como un espacio de naturaleza heterogénea en donde tienen lugar distintos fenómenos naturales o se desarrollan diferentes actividades y problemáticas antrópicas; o bien, como un espacio donde ocurren distintos procesos biológicos y se manifiestan y perciben patrones naturales. En dichos planteamientos no es claro el contexto espacial y los elementos que lo delimitan, por lo cual parecen ambiguos en cuanto a la naturaleza del paisaje que abordan y sus límites (que pueden ir desde cientos de metros hasta regiones de miles de hectáreas).
Considerando esta situación, proponemos la siguiente definición pragmática: El paisaje es un ecosistema acotado espacialmente a nivel de mesoescala, de naturaleza heterogénea y que presenta una estructura inherente, la cual está conformada por parches homogéneos en sus características edáficas (suelos), litológicas (rocas) y topográficas, así como biológicas (vegetación u otros organismos estructural o funcionalmente importantes). Esta definición no incluye de manera explícita al factor humano (aunque da apertura para considerarlo), porque en ecología básica se tiene particular interés por entender los patrones y procesos ecológicos naturales y por ello comúnmente se realizan estudios en reservas ecológicas o sitios con menor influencia antrópica. Asimismo, la definición propuesta pretende disminuir la ambigüedad respecto a la escala del paisaje, sus límites y los criterios para determinar su estructura, y mostrar que este espacio es una unidad natural de estudio. Por lo tanto, consideramos que cualquier estudio en ecología del paisaje, previo a abordar una pregunta, debería documentar o tratar de comprender cuál es la estructura espacial de la heterogeneidad ambiental (medio físico y biológico) que se analizará.
Por el carácter técnico de la definición anterior, es conveniente discutir el problema de las escalas en ecología y especialmente el término “mesoescala”, así como lo referente a las características de medio físico, en particular en lo relacionado al suelo, la litología y la topografía, debido a que son la base para entender la heterogeneidad ambiental.
Las escalas en ecología
La escala se refiere a dimensiones cuya delimitación permite comparar sistemas de acuerdo a la magnitud de sus diferencias. Las escalas espaciales y temporales son las más analizadas en ecología de paisaje. Convencionalmente, los estudios ecológicos se ubican en tres dimensiones: la microescala o escala local, la mesoescala, y la macro o megaescala. La mesoescala es la dimensión a la cual se aboca el estudio del paisaje y que en el sentido espacial, corresponde a extensiones mayores a hectáreas, pero menores a miles de kilómetros cuadrados (regiones). Asimismo, esta escala se limita en el tiempo más allá de años y hasta decenas de siglos. Se ha comentado que el paisaje posee una estructura, la cual mantiene una relación jerárquica con otras escalas, es decir, con fenómenos que ocurren a otras escalas espacio-temporales.
A partir de numerosos estudios se tiene claro que la comprensión de un fenómeno ecológico es diferente cuando se aborda su análisis a distintas escalas. Por ello, actualmente la dimensión espacial se considera como una de las nuevas fronteras de la ecología. Sin embargo, la pregunta de a qué escala es correcto abordar el estudio de un determinado fenómeno ecológico no tiene una respuesta acertada si no es a la luz de metas y preguntas específicas, ya que, a diferencia de otras ramas de la biología como la fisiología celular o la biología molecular, en ecología los estudios se realizan a diferentes niveles si son individuos, poblaciones, comunidades o ecosistemas de lo que se trata.
Debido a que todos los fenómenos biológicos (los ecológicos incluidos) tienen una naturaleza jerárquica, no es posible conocer todo acerca de un fenómeno ni desde todas las dimensiones espaciales y temporales posibles en que éste opera. Esto tiene la virtud de abrir horizontes inimaginables para tratar de visualizar y estudiar aspectos biológicos a diferentes escalas; sin embargo, al mismo tiempo limita los alcances de los resultados generados al analizar solamente una escala. Por lo tanto, en función del propósito de estudio es necesario definir la escala más apropiada para efectuar un análisis, sólo así el paisaje puede ser promisorio para estudiar diferentes fenómenos en ecología, los cuales no podrían ser comprendidos a otras escalas.
La estructura del paisaje
El análisis de los patrones y procesos ecológicos en un paisaje requiere el conocimiento de su estructura, la cual corresponde a la disposición espacial de extensiones de terreno que son ambientalmente diferentes y se denominan parches.
Una metodología que nos aproxima a delimitar los parches en un paisaje es la provista por el enfoque morfoedafológico, el cual permite delimitar áreas homogéneas en cuanto a su medio físico, denominadas unidades morfoedafológicas. Éstas se caracterizan por su constancia edáfica (tipo de suelo) y geomorfológica, entendiendo a esta última como la integración de la forma del relieve, la litología superficial (roca madre) y los procesos morfodinámicos (como la erosión y los flujos de agua). En general, las características morfoedafológicas no son independientes del componente biológico, por ello, el integrar ambos aspectos hace posible distinguir a los parches, que son áreas ambientalmente homogéneas en cuanto al medio físico y el biológico (i.e. el tipo de vegetación cuyo carácter de homogeneidad podría incluir además variables estructurales como la cobertura, el área basal y la composición de especies).
Un elemento básico en la estructura de un paisaje es la matriz, la cual se considera como el elemento predominante, ya que comprende la forma de los parches y su extensión, su número, su dinámica interna y la conexión que mantienen entre sí, que son las características más importantes para definir la estructura del paisaje. Con base en esta última es posible reconocer en el paisaje un arreglo espacial a manera de mosaico, donde la interacción de los parches genera dinámicas ecológicas propias. La dinámica y la estructura constituyen las propiedades emergentes del paisaje y determinan la naturaleza e intensidad de los procesos ecológicos en el espacio. El hecho de analizar a estos procesos desde una perspectiva espacial permite obtener información que generalmente no es proporcionada por la ecología tradicional. Con la finalidad de presentar más elementos que permitan ubicar el aporte del enfoque paisajístico en ecología básica, presentamos un ejemplo de las bondades de éste en el estudio de la vegetación de islas de hábitat en un ecosistema tropical mexicano.
Enclaves de vegetación xerófila
En la región de Nizanda, Oaxaca, el paisaje está conformado principalmente por lomeríos de esquistos de baja altitud, entre los que irrumpen de forma abrupta y de manera muy vistosa, afloramientos de roca caliza carentes de suelo desarrollado. Los afloramientos rocosos son discontinuos y pueden reconocerse como islas de hábitat (parches), ya que las plantas que se establecen en ellos contrastan con las de la vegetación circundante, debido a que su morfología recuerda más a las formas de vida de una zona árida. Por lo anterior, fueron denominados como enclaves de vegetación xerófila.
En Nizanda predomina la vegetación arbórea tropical estacional, la cual es propia de la vertiente mexicana del Océano Pacífico y se caracteriza por presentar árboles de baja estatura (menores de quince metros) que carecen de hojas durante la temporada seca. A este tipo de vegetación se le puede llamar selva baja caducifolia, y en ella puede haber comunidades carentes de una cobertura arbórea continua, dominadas por plantas con mayores adaptaciones a la baja disponibilidad de agua (plantas xerófilas), como los magueyes (Agave) y las cactáceas, tanto columnares (Cephalocereus) como globosas (Mammillaria). Por estas características se clasifican como un matorral xerófilo.
De esta manera, la cuantificación de las diferencias en composición y estructura de la vegetación xerófila respecto de la matriz de la selva se planteó como objeto de estudio bajo un diseño de muestreo acorde con los métodos tradicionales. No obstante, las islas de hábitat calcáreas de Nizanda nos tenían reservados algunos secretos. Inicialmente se pretendía comparar dos tipos de vegetación muy contrastantes, el matorral xerófilo y la selva baja caducifolia; sin embargo, al recorrer el sitio de estudio se hizo evidente la existencia de una tercera comunidad cuyas características eran intermedias entre las otras dos, ya que presentaba un dosel continuo pero su flora era muy xerófila, particularmente en el estrato bajo (sotobosque). Por lo que se hizo un análisis de la vegetación de este sistema de estudio concibiéndolo como un gradiente ambiental, para lo cual el diseño contempló la toma de muestras en las cimas, las laderas y el pie de monte de los enclaves.
Una vez que se puso en marcha el muestreo de la vegetación, fue evidente que esta nueva delimitación de las tres comunidades era una sobresimplificación incapaz de reflejar completamente la realidad. Si bien existía una buena correspondencia entre la ubicación topográfica y el tipo de vegetación, no todas las cimas tenían matorrales xerófilos y la inclinación de la ladera no determinaba siempre la existencia de comunidades intermedias. Por esta razón fue necesario replantear la selección de sitios de muestreo, considerando que si lo que se quería era comparar las diferencias florísticas entre comunidades, había que definir criterios independientes de la composición de especies pero asociados claramente a algún factor ambiental. Un primer criterio fue la continuidad del suelo, es decir, si éste era continuo y relativamente profundo o si había afloramientos de la matriz de roca, creando un suelo discontinuo y somero; otro criterio fue la continuidad del dosel, y con base en él se separó el matorral xerófilo de las comunidades arbóreas. Con la combinación de estos dos criterios se realizó el muestreo de la vegetación, reconociendo tres comunidades de estudio: el matorral xerófilo, la selva en roca y la selva en suelo desarrollado (figura 1).
Una vez realizados estos ajustes, los resultados del muestreo permitieron examinar la hipótesis de que la riqueza de especies por unidad de área disminuye al aumentar las restricciones del hábitat. Los resultados obtenidos mostraron un abatimiento escalonado de la riqueza de especies, donde el recambio de especies llegó a ser de 100% en distancias de decenas de metros, por lo que las diferencias en la composición florística fueron mayores a lo largo del gradiente ambiental respecto a las obtenidas al interior de cada comunidad. Por el contrario, cuando los criterios de muestreo no se aplicaron estrictamente se obtuvieron resultados opuestos a la predicción original. Esto se ejemplifica en uno de los cuadros de muestreo ubicados en la mitad del gradiente ambiental, ya que una parte fue situada en la matriz de roca y la otra en una depresión con una mayor acumulación de suelo. Como consecuencia de ello, este cuadro presentó el mayor número de especies obtenido para una muestra individual. Además, había problemas para agruparlo con los de su categoría en los análisis de clasificación multivariados que se realizaron, dado que la composición de especies era mixta, tanto de las comunidades xerófilas como de la selva que crece donde hay suelo.
Una de las lecciones que se derivan de este trabajo es que los atributos topográficos por sí mismos pueden ser insuficientes para delimitar a las comunidades vegetales de un sistema complejo. Pero cuando a estos criterios se anexan características edáficas y caracteres fisonómicos de la vegetación, los parches se delimitan mejor y es posible reconocer su arreglo espacial. Una gran ventaja de los resultados así obtenidos no sólo radica en que se pueden explicar los patrones de la vegetación, sino que además permiten reconocer con más confianza a las especies que tienen distribución restringida. En el caso de los afloramientos de roca caliza de Nizanda, cada tipo de vegetación presentó especies exclusivas, es decir, que no se comparten con las otras. Sin embargo, fueron las dos comunidades xerófilas que se desarrollan en la matriz rocosa las que concentraron a las especies microendémicas (de distribución muy restringida), como Agave nizandensis y Barkeria whartoniana. Resumiendo, al tener una descripción más detallada de la estructura del paisaje se pueden tener patrones más claros de distribución de las especies.
Otra bondad del enfoque paisajista es que la secuencia topográfica puede analizarse desde distintas perspectivas y no sólo como un análogo de una secuencia temporal formada por el gradiente ambiental. En el caso de los enclaves de vegetación xerófila, la relativa estabilidad de los afloramientos calcáreos en el tiempo hace que no tenga sentido ubicar a las distintas comunidades como etapas sucesionales, sino más bien hay que reconocerlas como parches de vegetación coexistentes, con interés biológico propio. Así, existe la posibilidad de que las comunidades xerófilas representen relictos de una vegetación que anteriormente estaba más extendida, como lo sugiere la presencia de organismos endémicos con características ancestrales.
Implicaciones para la ecología
El concepto de paisaje que presentamos puede ayudar a uniformar el lenguaje técnico y facilitar la delimitación de las unidades ambientales en el espacio al proveer los criterios para ello. Además, puede ser útil para mejorar los diseños de muestreo encaminados a obtener información del medio físico, del componente biológico o de ambos (cuadro 2).
Asimismo, proporciona las bases para dirigir preguntas y explorar variables “propias” del paisaje, que son clave a nivel de mesoescala. De esta manera se pueden comparar paisajes más fácilmente cuando se reconoce una estructura definida bajo los mismos criterios.
Finalmente, consideramos que el promover el análisis de los patrones y procesos ecológicos en el paisaje ayuda a proveer de fundamentos empíricos que pueden ser la base para proponer alternativas de uso de recursos, de conservación y de restauración ecológica.
|
|||||||||
Referencias bibliográficas
Farina, A. 1994. Principles and Methods in Landscape Ecology. Chapman & Hall, Londres.
Forman, R. T. T. y M. Godron. 1981. “Patches and structural components for a landscape ecology”, en Bioscience, núm. 31(10), pp. 733-740.
Geissert, D. y J. P. Rossignol. La Morfoedafología en la Ordenación de los Paisajes Rurales. inireb/orstom, México.
Turner, M. G. 1989. “Landscape Ecology: The effect to pattern on process”, en Annual Review Ecology and Systematic, núm. 20, pp. 171-197.
Wiens, J. A. 1995. “Landscape mosaics and ecological theory”, en L. Hansson, L. Fahrig y G. Merriam. Mosaic Landscapes and Ecological Processes. Chapman & Hall, Londres, pp. 1-26.
Zonneveld, I. 1995. Land Ecology. An Introduction to Landscape Ecology as a Base for Land Evaluation, Land Management and Conservation. spb Academic Publishing, Amsterdam
|
|||||||||
Instituto de Ecología,
Universidad Nacional Autónoma de México.
Leopoldo Galicia Sarmiento
Instituto de Geografía,
Universidad Nacional Autónoma de México.
Eduardo A. Pérez García
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Luis Zambrano
Instituto de Biología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Durán, Elvira y Galicia Leopoldo, Pérez García Eduardo, Zambrano Luis. (2002). El paisaje en ecología. Ciencias 67, julio-septiembre, 44-50. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
|
|||
El principio de la inercia
|
Para llegar a este principio se requirió un gran proceso de abstracción, por la sencilla razón de que no es posible observarlo directamente en la naturaleza ni puede inferirse inmediatamente de la experiencia, sino a través de una especulación que sea coherente con lo observado. | ||
José Luis Álvarez García
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
El análisis de la evolución de las ideas científicas pone de manifiesto el enorme esfuerzo realizado para llegar a algunas de las nociones fundamentales laboriosamente desarrolladas por los grandes genios —esfuerzo que ha significado la superación de grandes obstáculos para que tales nociones sean accesibles e incluso parezcan naturales. Éste es el caso del principio de la inercia. Pero al mismo tiempo, para comprender este principio se requiere un gran proceso de abstracción, por la sencilla razón de que no es posible observarlo directamente en la naturaleza. El principio de la inercia no puede inferirse inmediatamente de la experiencia, sino a través de una especulación que sea coherente con lo observado. Tal y como señala A. Koyré, “el principio de la inercia no surgió ya elaborado del pensamiento de Descartes o de Galileo como Atenea de la cabeza de Zeus”, fue producto de un largo esfuerzo del pensamiento.
Este principio se encuentra al interior del marco del fenómeno del movimiento, el cual fue objeto de estudio desde la Antigüedad, y que tenía que ser explicado por cualquier filosofía que aspirara a ser aceptada. El primer estudio sistemático del movimiento corresponde a Aristóteles, cuyas ideas al respecto dominaron en su propia época y hasta los primeros siglos de nuestra era, para después ser recuperadas y remodeladas por Occidente, vía la tradición árabe, en los finales del siglo xi. Y fue la crítica a las teorías aristotélicas del movimiento, hecha primero por los escolásticos de la Edad Media y después por los pensadores del Renacimiento, lo que constituye el telón de fondo de donde parte Galileo para echar las bases de la nueva ciencia del movimiento, junto con los trabajos de Kepler, Gassendi, Descartes y Huyghens para llegar así a la gran síntesis newtoniana.
Aristóteles es el fundador de la física como ciencia de las cosas naturales; señala que el movimiento y el cambio son los fenómenos básicos de la naturaleza, y que quien no los entienda niega a esta última. Para el filósofo griego, el estudio del movimiento descansa en las nociones de espacio y tiempo, que para él no son categorías universales, ya que no pueden existir fuera de las cosas. Es así como los objetos particulares determinarán el espacio y los sucesos individuales, el “antes” y el “después”, el tiempo.
Para Aristóteles el espacio o lugar “no es aquello donde algo esté, sino que el lugar existe junto con la cosa, pues junto con lo limitado están los límites”. Teofrasto, su discípulo, describe la concepción aristotélica de espacio: “Quizá no sea, pues, el espacio una realidad en sí, sino que es determinado por la posición y la serie de las cosas conforme a su naturaleza y a sus funciones naturales”. No existe “lugar” fuera de las cosas, sino sólo como la determinación geométrica de una cosa que puede padecer movimiento, es decir, el lugar es la consecuencia en la relación que dos cuerpos tienen entre sí. Por tanto, el espacio vacío carece de estructura y por ello de cualidades. Aristóteles concluye: “Puesto que hemos demostrado que no existe el espacio en sí, se sigue de ello que tampoco existe un espacio vacío”.
El espacio aristotélico posee una estructura determinada por el centro del mundo, y a partir de ahí define los movimientos naturales en el mundo sublunar como aquellos que se dirigen a dicho centro. Los cuerpos son pesados o leves, dependiendo de si se acercan al centro o se alejan de él cuando se les deja libres para moverse, ya que se dirigirán a su lugar natural. Como conclusión, la permanencia del movimiento es imposible, ya que en algún momento el cuerpo en movimiento llegará al lugar que por su naturaleza le corresponde y, por lo mismo, se detendrá. Esto es, que para los movimientos naturales que tienen lugar debajo de la esfera de la Luna es imposible la permanencia del mismo, pero también lo es para los movimientos violentos que, dentro de la física aristotélica, requieren un motor para moverse.
Dentro de la física aristotélica el vacío no puede existir, ya que el espacio está totalmente lleno de materia, divisible hasta lo infinito, hasta entre los cuerpos y las pequeñísimas partículas que los componen. Aristóteles niega rotundamente su existencia, pues su aceptación lo conduciría irremediablemente al atomismo. Para que el movimiento pueda darse –continúa— no es necesario en absoluto la existencia del vacío. Más aún, supone que el concepto mismo lleva a conclusiones absurdas: cuanto menor es la resistencia del medio, tanto mayor es la velocidad del cuerpo en movimiento; por consiguiente, en el vacío, donde la resistencia es nula, la velocidad debe ser infinita, lo cual, según él, es imposible.
Respecto al cuestionamiento de porqué los proyectiles continúan moviéndose después de haber abandonado su motor, Aristóteles encontró la solución postulando como motor al aire: éste se abre ante, por ejemplo, la flecha y se cierra detrás de ella, pues la naturaleza no permite la formación del vacío, y de esta manera la impulsa hacia adelante.
Otra vez aplica su rechazo al vacío cuando afirma que si éste existiera no habría resistencia al movimiento y el cuerpo continuaría desplazándose indefinidamente, pero como esto es imposible, el vacío no puede existir. Es interesante ver cómo llega tan cerca del principio de la inercia; sin embargo, su aversión al vacío le impide comprender la permanencia del movimiento.
La física aristotélica es incompatible con el principio de la inercia y en ella el movimiento y el reposo pertenecen a estatus ontológicos diferentes: el reposo es un estado en el cual sí pueden permanecer los cuerpos, mientras que el movimiento es un proceso mediante el cual el cuerpo se dirige al lugar natural que le corresponde y, por tanto, no puede permanecer en movimiento indefinidamente.
Los pensadores medievales
Las teorías aristotélicas que explicaban el movimiento —en lo que respecta al lanzamiento de proyectiles— jamás convencieron a sus adversarios, quienes siempre opusieron a ellas el que el movimiento del proyectil, aun separado del motor, persistiera: la piedra lanzada por la honda, la flecha disparada por el arco, etcétera.
En el siglo vi, Juan Filopón realiza una crítica a las teorías de Aristóteles respecto al movimiento de proyectiles, utilizando el concepto de impetus, tomado del astrónomo helenístico Hiparco de Rodas, quien vivió en siglo ii a.C.
La teoría del impetus consiste en que en cualquier proyectil que ha sido lanzado se halla impreso algo que constituye la fuerza motriz de éste. Tal impetus permite al proyectil continuar su movimiento, una vez que ha dejado de actuar el motor. Es una especie de cualidad, potencia o virtud que se imprime al móvil, o mejor dicho que se impregna a consecuencia de su asociación con el motor. Mientras más tiempo esté sometido a la acción de este último, mayor será la cualidad que adquiera el móvil, por lo mismo, esta cualidad dejará paulatinamente de “impresionarlo”, y una vez que éste haya abandonado al motor, su movimiento cesará: el impetus es de naturaleza esencialmente perecedera. Entre los ejemplos que los partidarios del impetus nombran, está el del sonido que adquiere la campana y cuya cualidad sonora va perdiendo poco a poco. Así también está el ejemplo del hierro, que al ser calentado en el fuego, adquiere la cualidad del calor —hablando en términos aristotélicos— y que al ser retirado de la fuente que le proporciona dicha cualidad, poco a poco la va perdiendo.
Esta teoría —utilizada en el siglo xvi por Jean Buridan, miembro importante de la escuela nominalista de París— es ampliada y profundizada por su discípulo, Nicolás de Oresme, quien critica la refutación que Aristóteles hace de la teoría de Heráclides, la cual explicaba el movimiento diario de las estrellas mediante la rotación de una Tierra central. Oresme no cree en la rotación de la Tierra, solamente señala que ningún argumento lógico, físico, o incluso bíblico, puede refutar la posibilidad de una Tierra en rotación. Aquí tenemos el principio de la relatividad óptica que jugó un papel importante en las obras de Copérnico y Galileo.
Al final del siglo xiv una versión de la teoría del impetus, similar a la expuesta por Buridan, había reemplazado a la defectuosa explicación aristotélica del lanzamiento de proyectiles en prácticamente todas las obras científicas medievales. Así se enseñaba en Padua cuando Copérnico frecuentó esta universidad, y Galileo la aprendió en Pisa de su maestro Bonamico. También en Inglaterra, en el Merton College de Oxford, con base en la teoría del impetus, se desarrollaron alternativas para la explicación del movimiento.
Un predecesor muy importante de Galileo es Benedetti quien, en el siglo xiv, criticaba fuertemente la teoría aristotélica del lanzamiento de proyectiles. Benedetti continuó los estudios de los nominalistas parisinos e introdujo elementos de la matemática e hidrostática arquimediana, así como los conceptos de peso relativo y peso absoluto. Además planteó que el movimiento en el vacío sí era posible, contradiciendo con ello las enseñanzas de Aristóteles.
Todas las teorías y explicaciones alternativas sobre el movimiento surgieron de los restos del pensamiento aristotélico, desgarrado por la crítica escolástica, y representaron el marco que posibilitó el desarrollo conceptual en los siglos xvi y xvii.
Johannes Kepler
En Kepler se reúnen la innovación de Copérnico y una nueva actitud epistemológica ante los datos observacionales. Ésta la aprendió de Tycho Brahe y lo obligó a ajustar con todo detalle la teoría con los hechos, teniendo como resultado la formulación de sus tres famosas leyes, que serían las primeras leyes de la naturaleza en el sentido moderno. Kepler da el salto para atravesar la frontera entre la especulación metafísica del Medioevo y la ciencia empírica moderna, y fue su introducción de la causalidad física en la geometría formal de los cielos la que lo convirtió en el primer constructor de leyes de la naturaleza, lo cual hizo que le resultara imposible ignorar las pequeñas discrepancias entre los datos de la observación y la teoría. Mientras que la cosmología estuvo regida por meras reglas geométricas, independientemente de las causas físicas, las diferencias entre teoría y datos podían ser superadas al insertar otra rueda dentro del sistema, sin embargo, en un Universo movido por fuerzas reales, eso ya no era posible.
Kepler, al estudiar el movimiento de Marte, primero enfrentó el problema por los caminos tradicionales, pero tras su fracaso empezó a abandonar antiguas creencias sobre la naturaleza del Universo, para así, poco a poco, construir una nueva ciencia. Hizo varias innovaciones revolucionarias que lo llevarían a enfrentar el problema; una de éstas fue el cambio del centro del sistema con relación al Sol.
Los periodos de los planetas se conocían con bastante precisión desde la Antigüedad. En números redondos, Mercurio tiene un periodo de tres meses, Venus de siete meses y medio, la Tierra de un año, Marte de dos años, Júpiter de doce y Saturno de treinta. A mayor distancia del Sol, mayor tiempo se requiere para completar una revolución en torno a él; esto en términos generales, pero se necesitaba una relación matemática exacta. Así, Saturno se halla dos veces más lejos del Sol que Júpiter, por tanto requeriría dos veces más tiempo para recorrer una órbita del doble de longitud que la de Júpiter, esto es, veinticuatro años; no obstante, requiere treinta años. Lo primero sería cierto si la velocidad del planeta a lo largo de su órbita fuera siempre la misma e igual a la de todos, pero a medida que el planeta se aleja del Sol, su movimiento se torna más lento. Antes que Kepler nadie se había hecho la pregunta del porqué esto era así. La respuesta del astrónomo alemán fue que debía existir una fuerza que emana del Sol y que es la causa de que los planetas se muevan en sus órbitas. Por primera vez desde la Antigüedad, se hacía un intento no sólo por describir los movimientos celestes en términos geométricos, sino de asignarles una causa física.
Recordemos que el centro del sistema de Copérnico no era el Sol, sino el centro de la órbita de la Tierra, y que Kepler, desde un principio, había objetado tal suposición, considerándola físicamente absurda; puesto que la fuerza que movía los planetas emanaba del Sol, el conjunto del sistema tenía que hallarse en el centro del propio cuerpo de éste. Pero no es así, el Sol no ocupa el centro exacto de la órbita de la Tierra, sino uno de los focos de la elipse. Kepler aún no sabía esto último, creía que la órbita era un círculo. En consecuencia formuló la pregunta de que si la fuerza que mueve los planetas procede del Sol, ¿por qué insisten en girar en torno al centro de la órbita? A lo que respondió suponiendo que cada planeta estaba sujeto a dos influencias conflictivas: la fuerza del Sol y una segunda fuerza localizada en el propio planeta, y esta competencia ocasionaba que unas veces se acercara al Sol y otras se alejara de él.
Estas dos fuerzas son, como sabemos, la gravedad y la inercia, pero nunca llegó a formular tales conceptos; sin embargo, preparó el camino para Newton. Kepler mismo acuñó el término de “inercia”, pero la noción kepleriana aún está lejos del principio de la inercia. Para él ésta era la tendencia al reposo de todos los cuerpos en movimiento: sigue manteniendo a este último como un proceso, y al reposo como un estado.
Galileo conocía muy bien la obra aristotélica, y en general la de los clásicos, desde Platón hasta Benedetti, pasando por Ptolomeo y muy probablemente por los nominalistas parisinos y mertonianos, dada la difusión de las ideas de estos últimos. En sus primeras obras destaca su interés por los matemáticos griegos, Euclides y, muy especialmente, Arquímedes, y es a partir de aquí donde comienza su crítica a la teoría del movimiento de Aristóteles. En su obra De motu desarrolla esta crítica desde un marco clásico y medieval, desde el punto de vista de la fuerza impresa o impetus. Sin embargo, este concepto, ¿implica la formulación del principio de la inercia? Para Galileo el impetus es de carácter esencialmente perecedero, pues el movimiento eterno es imposible y absurdo, ya que es consecuencia de la fuerza impresa que se agota al producirlo. Él desarrolla la teoría del impetus y sabe —pues ha leído a Benedetti— de la necesidad de la detención del movimiento: la física del impetus es incompatible con el principio de la inercia.
El fenómeno de la caída de los cuerpos ocupó siempre la atención de los estudiosos del movimiento. Para Galileo, la caída de un cuerpo se efectúa debido a una fuerza constante: su peso; por tanto, ésta no puede tener otra velocidad que la constante. La velocidad no está determinada por algo exterior al cuerpo, sino que es algo inherente y propio del objeto. Así, a un cuerpo con mayor peso le corresponde una mayor velocidad, y a un cuerpo de menor peso le corresponde una menor velocidad. De esta manera, señala en De motu, la velocidad de caída de un cuerpo es proporcional a su peso y de un valor constante para cada uno.
Sin embargo, Galileo estaba obligado a reconocer que una piedra que cae lo hace cada vez más rápido, y esta aceleración sólo ocurre hasta que el cuerpo adquiere su velocidad característica; a partir de este momento su movimiento se efectúa con una velocidad constante. Y esta velocidad está en función del peso, pero no del peso absoluto sino del peso específico de los cuerpos. Un pedazo de plomo caerá más rápido que uno de madera, y dos pedazos de plomo caerán con igual velocidad. Más aún, Galileo —siguiendo a Benedetti— introdujo en su física que no se trata del peso específico absoluto de los cuerpos, sino de su peso específico relativo.
La velocidad de caída de los cuerpos, entonces, no está definida por su peso absoluto, sino por el específico y relativo. Estas precisiones permitieron a Galileo trascender el aristotelismo y la dinámica del impetus, al hacer la sustitución de la contraposición de cualidades (levedad y gravedad) por una escala cuantitativa, y este método cuantitativo le fue proporcionado por la hidrostática arquimediana: un trozo de madera, que cae en el aire, se elevará si es colocado en el fondo del agua. De esta manera, la fuerza (y la velocidad) con la cual desciende o sube un objeto, está en proporción a la diferencia entre el peso específico del objeto y el peso de un volumen del medio que es desalojado por el mismo. De lo anterior, concluye que no hay cuerpos leves, todos son pesados. En la física galileana, el fenómeno de la caída representa un papel de primer orden.
A partir de aquí, Galileo comenzó a construir la nueva física, donde el único movimiento natural que reconoce es el de los cuerpos pesados que son atraídos hacia abajo. La distinción entre el peso absoluto y relativo, y la repetida afirmación de que la velocidad de caída de un cuerpo está en función de su peso relativo en un medio determinado (y no de su peso absoluto), conduce a la inevitable conclusión de que es en el vacío, y sólo en él, donde los cuerpos tienen un peso absoluto y caen a una velocidad propia. A partir de este momento el movimiento ya no será un proceso, como en la física de Aristóteles, sino que comienza a ser algo propio del móvil, y ya no requerirá algo externo para prolongarse. Poco a poco se va geometrizando el espacio, y la consideración de que la velocidad de un móvil en el vacío no se hace infinita al desaparecer la resistencia del aire (y en general toda resistencia), parece “sugerirle” que debe trabajar en un plano absolutamente liso, una esfera totalmente esférica, etcétera. Y es a estos objetos a los que se les puede aplicar el principio de la inercia, al cual se llegará solamente hasta que el cosmos sea completamente sustituido por el espacio euclidiano y los cuerpos físicos por los objetos geométricos. Sólo así el espacio dejará de tener efecto sobre el movimiento de los cuerpos, de ser un proceso para convertirse en un estado con el mismo estatus ontológico que el reposo. Y de esta manera no será necesario buscar una causa que mantenga indefinidamente al movimiento. Mientras que para Aristóteles el vacío es imposible, para Galileo sí lo es y, además, sólo en el vacío los cuerpos caen con la misma velocidad.
Galileo realiza otra serie de experimentos en los cuales demuestra que la trayectoria seguida por un móvil después de abandonar un plano inclinado es una línea semiparabólica. Aquí considera equivalentes los movimientos de un móvil sobre el plano y el de uno en caída libre, y encuentra que el componente horizontal de la trayectoria parabólica que sigue el cuerpo, después de abandonar el plano, se conserva. Además, como buen copernicano, convencido del movimiento terrestre, intenta dar argumentos en favor de este último con su famoso experimento de la bala cayendo a lo largo del mástil de un barco en movimiento, con lo cual establece el principio de las transformaciones galileanas y que más adelante conformarán el concepto de sistemas inerciales.
En otros de los experimentos con planos inclinados, hacía rodar esferas sobre un canal, el cual tenía una primera porción descendente, luego continuaba con una parte horizontal y la tercera parte volvía a estar hacia arriba. Soltaba las esferas desde la primera y observaba hasta dónde subían en la tercera porción del canal. A continuación iba disminuyendo gradualmente la inclinación de esta última parte, y veía que las esferas lanzadas recorrían cada vez una mayor distancia. Haciendo una genial extrapolación, concluyó que si la tercera porción estuviera totalmente horizontal, la esfera conservaría su velocidad de manera indefinida.
Sin embargo, en esta revolución no le corresponde a Galileo enunciar (al menos de manera explícita) el principio de la inercia, pues no pudo deshacerse de la noción de pesantez ni de la de centro del mundo. Para él, los cuerpos físicos eran, por definición, cuerpos graves, y no pudo realizar la sustitución completa entre los cuerpos físicos y los objetos geométricos. Si privaba a los primeros de la cualidad esencial de pesantez, dejaban de existir por ese solo hecho. Por ello la física galileana es la física de los graves, ya que para Galileo el peso de un cuerpo era algo similar a lo que la masa es para nosotros en la actualidad.
En su última obra, los Discorsi, que supone al Galileo maduro, vemos cómo siguen prevaleciendo las ideas de pesantez y de centro del mundo: “Imaginemos un móvil proyectado sobre un plano horizontal del que se ha quitado el más mínimo roce; sabemos ya que en tal caso, y según lo hemos expuesto detenidamente en otro lugar, dicho movimiento se desenvolverá sobre tal plano con un movimiento uniforme y perpetuo, en el supuesto de que este plano se prolongue hasta el infinito. Si, por el contrario, nos imaginamos un plano limitado y en declive, el móvil, el cual se supone está dotado de gravedad, una vez que ha llegado al extremo del plano y continúe su marcha, añadirá al movimiento precedente, uniforme e inagotable, esa tendencia hacia abajo, debida a su propia gravedad”.
No obstante, su física está tan impregnada del principio de la inercia que sus discípulos podrán extraerlo sin ninguna dificultad y siempre atribuyéndoselo a su maestro. Pero incluso ellos (Cavalieri y Torricelli), a pesar de que lo utilizan de manera natural, jamás lo presentan como un principio fundamental de la física.
Pierre Gassendi
La obra de Gassendi está fuertemente inspirada por la de Galileo, y aquél comprendió con profundidad a este último. Siguiendo a Demócrito, a Gilbert y a Kepler, Gassendi logró deshacerse de los últimos obstáculos de la tradición y del sentido común que habían trabado el avance del pensamiento galileano, y fue el primero en publicar —si no el primero en enunciar— una formulación correcta del principio de la inercia.
Aclara ya el efecto de la pesantez como el efecto de una fuerza exterior, como una interacción con otro cuerpo, como lo es la atracción del imán sobre el hierro, que ya no es una propiedad intrínseca de los cuerpos, como lo era para Galileo.
Así pues, la gravedad no sólo es un fenómeno exterior y un componente esencial de los cuerpos físicos, es también un efecto que se puede eliminar con bastante facilidad (en la imaginación, no en la realidad). En efecto, para sustraer un cuerpo de la acción de la gravedad no hay más que situarlo suficientemente lejos. Gassendi, así como Gilbert y Kepler, imaginan que la acción de la atracción es finita. Fue preciso el genio de Newton para extender su acción hasta el infinito.
En su obra, De motu impresso a motore translato, Gassendi escribe: “Me preguntas lo que ocurriría a esa piedra que, según he admitido, puede ser concebida en los espacios vacíos si, sacada del reposo, fuera empujada por una fuerza cualquiera. Respondo que probablemente se moverá con un movimiento uniforme y sin fin […] En cuanto a la prueba, la saco de la uniformidad, ya expuesta, del movimiento horizontal; y puesto que éste no parece terminarse si no es por la admisión del movimiento vertical, se desprende que, puesto que en los espacios vacíos no habrá ninguna mezcla del [movimiento] vertical, el movimiento, en cualquier dirección que se haga, será similar al horizontal, y ni se acelerará ni se retardará y, por tanto, nunca cesará”.
En lo que se refiere al concepto de inercia, Gassendi se encuentra ya muy lejos de las vacilaciones de un Galileo y de los errores de un Kepler. La eliminación consciente de la noción de impetus, la posesión de una teoría de la pesantez y la geometrización definitiva del espacio, permiten a Gassendi traspasar las fronteras que habían detenido a estos dos grandes pensadores.
René Descartes
Pasar de Galileo a Descartes, esto es del Dialogo y los Discorsi al Mundo, es trasladarse a dos distintos escenarios en la historia de las ideas. En las obras de Galileo está presente la lucha por el establecimiento de las bases de las nuevas concepciones del mundo en contra de las tradicionales; son libros de “combate”. En cambio, en la última, ya no se discute en contra del sistema geocéntrico, el copernicanismo es la única concepción posible del mundo; ya no se rebaten las ideas tradicionales sobre el movimiento, la física aristotélica está muerta. En el Mundo, de lo que se trata es de fundar y desarrollar una nueva física, y se procede a construir a priori un mundo que tiene que obedecer a las leyes de la naturaleza. En el universo cartesiano el reemplazo del espacio físico por el espacio euclidiano y la sustitución de los cuerpos reales por los objetos geométricos están plenamente realizados; el universo cartesiano es espacio y movimiento.
La ley suprema en este universo es la ley de la persistencia. Las dos realidades del universo cartesiano, espacio y movimiento, una vez creadas, permanecen eternamente; el espacio no cambia, ni tampoco el movimiento. Más precisamente, la cantidad de movimiento no varía, permanece constante. Señala Descartes: “No me detengo a buscar la causa de sus movimientos: pues me basta pensar que han comenzado a moverse tan pronto como el mundo ha comenzado a ser. Y siendo así encuentro por mis razones que es imposible que cesen nunca sus movimientos, e incluso que cambien como no sea de objeto. Es decir, que la virtud o la potencia de moverse a sí mismo, que se encuentra en un cuerpo, puede perfectamente pasar toda o parte a otro, y así no estar ya en el primero, pero no puede ya no estar en absoluto en el mundo […] Y, sin embargo, podéis imaginar, si os parece, como hacen la mayoría de los doctos, que hay algún primer móvil que, al rodar alrededor del mundo a una velocidad incomprensible, es el origen y la fuente de todos los demás movimientos que allí se encuentran”.
Este “primer móvil” en el mundo de Descartes es muy diferente al del mundo aristotélico. Puede muy bien ser la fuente y el origen de todos los movimientos de este mundo; pero a eso limita su función, pues una vez producido el movimiento, éste ya no tiene ninguna necesidad de él. Ahora el movimiento se conserva y se mantiene solo, sin “motor”. Así pues, el movimiento cartesiano es anterior a todas las otras esencias materiales, incluso a la forma espacial; y no es en forma alguna un proceso sino una cualidad o estado.
Descartes nos señala que una de las principales reglas con las que actúa la naturaleza es “que cada parte de la materia, en particular, continúa siempre estando en un mismo estado, mientras que el encuentro con las otras no le obligue a cambiarlo. Es decir, que si esa parte tiene cierto grosor jamás se hará más pequeña si las otras no la dividen; si es redonda o cuadrada jamás cambiará de figura si las otras no la obligan a hacerlo; si está quieta en algún lugar jamás partirá de allí a menos que las otras la expulsen; y una vez que ha comenzado a moverse continuará siempre, con igual fuerza, hasta que las otras la detengan o la retarden”. Como se ve, todo cambio tiene necesidad de una causa, por eso ningún cuerpo puede cambiar y modificarse por sí mismo.
El movimiento es un estado, pero además, es una cantidad. En el mundo existe una cantidad determinada de movimiento, y cada cuerpo en movimiento posee una cantidad del mismo, perfectamente determinada. Y cuando algún cuerpo pierde cierta cantidad de su movimiento mediante algún choque o interacción con otro, este último adquirirá con exactitud la misma cantidad de movimiento que perdió el primero.
Christian Huyghens
Huyghens constituye un eslabón importante entre Galileo, Descartes y Newton. Él adopta y extiende la física galileana de la caída de los cuerpos, la independencia de los componentes del movimiento compuesto y la relatividad del movimiento. Huyghens se restringió al fenómeno de las colisiones elásticas y adoptó la concepción cartesiana de la conservación de la cantidad de movimiento. Sus investigaciones fueron reunidas en el volumen póstumo De motu corporum ex percussione, publicado en 1700, y están basadas en tres hipótesis: 1) el principio de la inercia; 2) la conservación de la cantidad de movimiento en las colisiones elásticas; y 3) la relatividad del movimiento.
En lo que respecta al principio de la inercia, su enunciado ya está muy cerca del que Newton hace en los Principia en la primera ley: “Un cuerpo en movimiento tiende a moverse en línea recta con la misma velocidad en tanto no encuentre un obstáculo”.
Este enunciado carece de la profundidad metafísica del de Descartes, pero es ya muy conciso. Sin embargo, está todavía a un paso del de Newton, pues faltan las precisiones que éste hace por medio de las nociones de fuerza impresa y fuerza ínsita (íntimamente inserta en la naturaleza).
En sus estudios sobre colisiones elásticas, se muestra francamente cartesiano y adopta el principio de conservación de la cantidad de movimiento: “Dos cuerpos iguales que están en impacto directo uno con el otro y tienen iguales y opuestas velocidades antes del impacto, rebotarán a velocidades que son, aparte del signo, las mismas”.
La tercera hipótesis asevera la relatividad del movimiento y afirma: “Las expresiones ‘movimiento de cuerpos’ y ‘velocidades iguales y desiguales’ deben ser entendidas relativamente a otros cuerpos que son considerados en reposo, no obstante, puede ser que el segundo y el primero participen en un movimiento común. Y cuando dos cuerpos chocan, aun si ambos están sujetos a un movimiento uniforme, para un observador que tenga este movimiento común, ellos se repelerán uno al otro tal y como si este movimiento parásito no existiera”. Aquí asume la relatividad galileana que más adelante permite la definición de los sistemas inerciales.
Isaac Newton
El genio de Newton realiza la gran síntesis con toda la herencia que recibe de sus predecesores. Galileo y Kepler estudiaron un conjunto particular de movimientos (caída libre, lanzamiento de proyectiles, movimiento rectilíneo uniforme y movimientos planetarios); Newton extendió su estudio a todos los movimientos en la naturaleza. Los estudios que realizó Galileo son estudios cinéticos, esto es, que se refieren solamente a la descripción del movimiento. En los estudios de Newton ya aparece la idea de fuerza como causa de los movimientos, es el inicio de la ciencia de la dinámica.
Newton construye un cuerpo organizado de teorías que nos dan una visión y comprensión general del Universo. En su obra Principios matemáticos de filosofía natural (los Principia) aparece una actitud metodológica que podríamos resumir en los siguientes puntos: 1) no suponer ninguna causa más que las necesarias para explicar los fenómenos; 2) relacionar, tan completamente como sea posible, efectos análogos a una misma causa; 3) extender a todos los cuerpos las propiedades que se encuentran asociadas con aquellos sobre los cuales se hacen experimentos (esto es lo que le permite enunciar su ley de la gravitación universal); y 4) considerar toda proposición obtenida por inducción a partir de los fenómenos observados como válida, hasta que nuevos fenómenos ocurran y contradigan la proposición o limiten su validez.
Newton toma el principio de la inercia, ya plenamente establecido en esta época, y se enfrenta al problema de hallar el sistema referencial en el cual este principio y todas las otras leyes de la mecánica sean válidas. El principio de la inercia se refiere al estado de reposo o de movimiento rectilíneo uniforme de un cuerpo en ausencia de fuerzas que actúan sobre él. La pregunta que surge de inmediato es: ¿reposo o movimiento rectilíneo uniforme respecto a qué? La Tierra gira sobre su propio eje y alrededor del Sol, así que no puede ser respecto a ella como tampoco respecto al Sol. Además, al generalizar sus leyes a todos los cuerpos del Universo, él estaba consciente de que todos los objetos celestes se mueven bajo sus interacciones.
Probablemente éstas sean las razones que llevaron a Newton a la convicción de que un sistema de referencia empírico fijado por cuerpos materiales nunca podría ser el fundamento de una ley que involucrara la idea de inercia. De este modo, llega a la conclusión de que hay un espacio y un tiempo absolutos. La definición que realiza de espacio absoluto está muy relacionada con la geometrización del espacio real que ya había comenzado con Galileo y había sido continuada por Descartes. Las definiciones de espacio y tiempo absolutos aparecen en los Principia. La de espacio es la siguiente: “El espacio absoluto, por su naturaleza y sin relación a cualquier cosa externa, siempre permanecerá igual e inmóvil; el relativo es cualquier cantidad o dimensión variable de este espacio, que se define por nuestros sentidos según su situación respecto a los cuerpos, espacio que el vulgo toma por el espacio inmóvil […] Y así, usamos de los lugares y movimientos relativos en lugar de los absolutos y con toda tranquilidad en las cosas humanas: para la Filosofía, en cambio, es preciso abstraer de los sentidos, y considerar las cosas por ellas mismas, lo cual es distinto de lo que son las medidas sensibles de ellos. Por esto es que puede ser que no haya cuerpo realmente en reposo al cual los lugares y movimientos de otros puede ser referido”.
Newton plantea sus leyes del movimiento al interior de tales conceptos. Y estas leyes se referirán a los conceptos absolutos de tiempo y espacio, puesto que “las causas por las cuales los movimientos verdaderos y los relativos deben distinguirse unos de otros, son las fuerzas que se deben imprimir a los cuerpos para generar movimiento. El movimiento verdadero ni se genera ni se altera excepto cuando al cuerpo en movimiento se le imprime una fuerza; pero el movimiento relativo puede ser generado sin que se imprima ninguna fuerza sobre el cuerpo”. La definición de marco de referencia inercial viene dada con estas palabras en el concepto de espacio absoluto.
La razón por la cual Newton asume el espacio y el tiempo absolutos, es porque sin ellos la ley de la inercia carecía de sentido. Pero surge la cuestión de qué tanto esos conceptos merecen el término de “reales”, en el sentido que usamos en física. Un lugar fijo en el espacio absoluto de Newton no tiene realidad física. Para llegar a una formulación definida se introduce el concepto de sistema inercial, el cual es considerado como un sistema de referencia donde vale la ley de la inercia. Para esto se recurre al principio de relatividad utilizado por Galileo, el cual señala en esencia que las leyes de la mecánica tienen exactamente la misma expresión, ya sea desde un sistema de referencia con movimiento rectilíneo y uniforme o desde uno en reposo en el espacio.
La importancia de este principio radica en el hecho de que está relacionado directamente con la noción de espacio absoluto planteada por Newton. Si se consideran dos sistemas que se mueven uno con respecto al otro a velocidad constante, ¿qué sentido tiene preguntar cuál es el que está en reposo y cuál es el que se mueve? Pero, en cambio, la cuestión es que si en alguno de ellos “el movimiento verdadero ni se genera ni se altera excepto cuando al cuerpo en movimiento se le imprime una fuerza”, en el otro ocurrirá lo mismo. Esto es, los dos sistemas son inerciales y podemos ver que no es necesaria la existencia de un sistema en reposo absoluto al cual referir todos los movimientos, sino que existe una infinidad de sistemas inerciales, todos ellos efectuando un movimiento de traslación, uno con respecto al otro, y en los cuales valen las leyes de la mecánica. De esta manera, al caracterizar a los sistemas inerciales, ya no es necesario el concepto de espacio absoluto.
Es en este contexto de conceptualización donde Newton enuncia sus leyes del movimiento: las tres leyes de la dinámica y su ley de la gravitación universal. Y es en ellas donde sintetiza una concepción general del Universo, con lo que culmina una revolución en el pensamiento que se había iniciado casi ciento cincuenta años atrás.
Primera ley. “Todos los cuerpos continúan en su estado de reposo o de movimiento uniforme en línea recta excepto en la medida de que sean obligados a cambiar dichos estados por fuerzas impresas sobre ellos”.
Segunda ley. “El cambio de movimiento es proporcional a la fuerza impresa y se produce en la dirección de la línea recta en la cual se ha impreso la fuerza”.
Tercera ley. “Con toda acción ocurre siempre una reacción igual y contraria, o sea, las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones opuestas”.
Las dos primeras leyes establecen las interrelaciones cuantitativas de espacio, tiempo, materia y movimiento. La tercera ley viene a dar una coherencia definitiva a las dos primeras, estableciendo la idea de interacciones mutuas de los cuerpos materiales. Establece una unidad del mundo material al atribuir una acción recíproca entre los cuerpos materiales que provoca sus diferentes estados de movimiento, desechando la concepción del mundo como una simple suma de objetos y fenómenos dispersos y desligados entre sí.
|
|||
Agradecimientos
Al Dr. Juan Manuel Lozano Mejía por la observación sobre la importancia de Christian Huyghens en el desarrollo del principio de la inercia.
|
|||
Referencias bibliográficas
Dugas, R. 1988. A History of Mechanics. Dover Publications, New York.
Galilei, G. 1638. Consideraciones y demostraciones sobre dos nuevas ciencias. Editora Nacional, Madrid, 1981.
Gómez, R., V. Marquina y J. E. Marquina. 1984. “Sobre las leyes de Newton”, en Revista Mexicana de Física, núm. 30 (4), p. 693.
Koestler, A. 1987. Kepler. Salvat, Barcelona.
Koyré, A. 1981. Estudios galileanos. Siglo XXI, México.
Newton, I. 1687. Principios matemáticos de filosofía natural. Alianza Editorial, Madrid, 1987. |
|||
← Regresar al índice ⁄ artículo siguiente → |
|
|||
La evolución de los objetos
|
Los diseñadores industriales queremos
entender a los objetos como un reino para
poder basarnos en herramientas de la
clasificación biológica y lograr entender
mejor la manera en que evolucionan éstos.
|
||
Luis F. Equihua Zamora y Andrés Fonseca Murillo
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
La naturaleza procede sin proyecto, de lo cual deriva, a todos los niveles, el carácter no finalista (determinista) de la evolución biológica. Los individuos fijan unos objetivos y tratan
de alcanzarlos; este componente finalista (determinista) de los sujetos y de las “entidades auto-maximizantes” influye en la evolución de los organismos artificiales, creando
condiciones de competencia y colaboración entre entes, dentro de un cuadro de leyes sistémicas supra-objetivas.
Ezio Manzini
|
|||
Planicies inmensas, árboles y matorrales, espacios llenos de vida compitiendo por la sobrevivencia. En el suelo palos, huesos y piedras sirven de alimento o escondite para especies diversas; por una casualidad, una de estas especies toma una piedra del suelo y golpea algo con ella.
Así se inicia y abre un nuevo reino: el de los objetos. Antes, el palo, la piedra o el hueso solamente pertenecían al reino vegetal, mineral o animal, pero el simple hecho de servir de extensión y cumplir con una función práctica los cambió, comenzando así la larga evolución de los objetos. ¿Se trata del primer break throug?
Son diversas las razones por las que los diseñadores industriales queremos entender a los objetos como un reino, dentro de las más importantes está la de poder basarnos en herramientas de la clasificación biológica de las especies para lograr entender mejor, menos intuitivamente, la manera en que se transforman y evolucionan éstos a manos de quienes los diseñan y fabrican. Esto es posible al establecer un paralelo entre el hipotético reino objeto y los demás reinos existentes. Tenemos que demarcar el medio natural donde se da la competencia entre los objetos para entender cómo influye en su evolución.
Iniciaremos con una extrapolación a nuestro reino de la ley de Pasteur, con la cual refutó la existencia de la generación espontánea: “Todos los objetos actuales han surgido de objetos preexistentes y los objetos proceden de los objetos”.
Esta ley parece plausible a primera vista y sugiere muchas líneas de pensamiento. Es una premisa que apoya la idea evolutiva de los objetos: ¿puede ser un clavo predecesor de un tornillo?, ¿la piedra antecesora del molino?, ¿el cuchillo antepasado del desarmador?, ¿qué relación existe entre el cuchillo y la licuadora?
Tener una visión de los objetos diseñados como un reino en el cual todos se relacionan y por consiguiente tienen características en común, nos recuerda la regla darwiniana, cuya extrapolación sería: “Todos los objetos poseen muchos caracteres en común y son ramas de un árbol genealógico común”.
Debemos utilizar la clasificación de Linneo para comenzar un acercamiento al árbol genealógico del reino objeto; clasifiquemos, por ejemplo, la piedra que golpeó la introducción de nuestro texto.
Reino Objeto
Phyllum Utilitario
Clase Simple
Orden Herramienta
Familia Trabajo
Género Piedra
Especie Piedra dura
Subespecie Piedra dura contundente
Hagamos lo mismo con algún ejemplar del género televisor.
Reino Objeto
Phyllum Utilitario
Clase Compuesto
Orden Electrodoméstico
Familia Entretenimiento
Género Televisor
Especie Televisor b. y n.
Subespecie Televisor b. y n. portátil
La creación de objetos con fines prácticos caracteriza al hombre, como lo dice en El conocimiento del conocimiento Edgar Morin: “el cerebro ‘animal’ del hombre que dispone de la dialéctica: cerebro-espíritu-mano-útil. En primer lugar transformó la rama en bastón, la piedra en arma y que, de problemas en soluciones y de soluciones en problemas, ha realizado los fantásticos desarrollos prácticos y técnicos de las sociedades humanas [...] Conocer-actuar”.
Hoy los diseñadores industriales se han especializado en esta esfera del conocimiento. Sin embargo, desde el punto de vista del diseño industrial de productos es importante definir el espacio de influencia, el medio natural en donde interactúan sus productos. Los objetos salen al mercado, entran en él para competir. El mercado es el ámbito en donde los hombres intercambian los objetos, y en el que éstos se sitúan para competir con otros, mantenerse o desaparecer. Podemos pensar en el principio de Gause y sumarlo a los ya expuestos. Extrapolando: “Los objetos de dos especies diferentes que compiten por un mismo nicho, están expuestos a la extinción o a la migración hacia otro nicho en el caso de que no muestren la mejor eficiencia comparativa en el aprovechamiento del mercado común a ambos objetos”.
Dejemos así el acercamiento a la biología y demos una explicación breve del diseño industrial, disciplina que, entre muchas otras, interviene en el proceso de creación de los objetos que producirán las industrias, pero cuyo papel integrador eleva su responsabilidad, ya que la configuración de un producto supone la suma sinérgica compleja de las aportaciones de otras disciplinas.
Los objetos son, en otras palabras, organismos artificiales que han sido creados por la mano del hombre. Cuando el diseñador industrial los proyecta o diseña, considera cuatro atributos. 1) Estético. Imagen o apariencia. Deformación intencional aplicada a la morfología del organismo artificial cuyo efecto se ejerce en la parte emocional y en la voluntad del hombre. 2) Ergonómico. Sistema hombre-objeto-entorno. Interrelaciones del sistema en aras de eficacia, comodidad y seguridad. 3) Práctico. Utilitario. Desempeño eficaz para ejecutar un trabajo o tarea específica. 4) Productivo. Iteratividad. Capacidad de reproducción masiva con base en materiales, herramental y procesos de transformación.
El diseñador utiliza estos atributos para caracterizar o configurar la morfología de los organismos artificiales y lograr su adecuación al entorno, es decir al mercado, en función de las presiones de selección de los competidores existentes; determina y aplica variaciones adaptativas cuando rediseña, modifica o deforma uno, dos, tres o todos los atributos con la finalidad de propiciar la sobrevivencia de estos organismos. Esa deformación es relativa a la demanda —fuente de presión selectiva— que se percibe en el nicho de mercado, pero interpretada por la actitud o postura estética de quien diseña, y sumada a la estrategia de la organización industrial que pretende fabricar el objeto. En última instancia, el organismo artificial diseñado es portador de una estética particular que lo diferencia de otros organismos artificiales similares y que tiene efecto sobre las emociones, como ya dijimos, y la voluntad de los organismos naturales —seres humanos— con los que se asocia.
Como sujeto de análisis hemos tomado específicamente al televisor —lo consideramos como un fragmento del fenómeno televisión— por ser lo que cohabita con el hombre en su madriguera. El género televisor como “especie” resulta estable, podemos observar su variabilidad y señalar sus diferencias. Nos hemos concentrado sólo en la parte frontal de los televisores para obtener una comprensión de su evolución con un enfoque fundamentalmente estético.
El análisis evolutivo desde este punto de vista permite hacer un recorrido analítico y ejemplificar el supuesto filosófico de Mukarovsky, en el cual considera a la estética como una deformación intencional.
El televisor es uno más de la miríada de organismos artificiales que han sido creados por el hombre, lo cual no los exime, durante su ciclo de vida, de un proceso evolutivo propio en términos teleológicos.
A diferencia de la esfera de cristal de las adivinas, objeto cuya función es metafísica, el televisor es un objeto cuyo funcionamiento permite, sin duda, que podamos observar imágenes y escuchar sonidos; para su gestación se hilaron en el tiempo hallazgos científicos determinantes: las ondas electromagnéticas viajeras, la fragmentación de imágenes y su conversión en electrones, la fotoemisión de algunas substancias químicas, además de otros descubrimientos que conformaron el tejido conocido actualmente como televisión, uno de cuyos organismos asociados es el televisor.
La televisión constituye el medio recreativo, informativo y educativo característico de la sociedad contemporánea en la mayoría de las regiones del planeta.
El televisor se asocia extensivamente con el organismo natural —ser humano— y es un producto típico industrial. Los componentes electrónicos y mecánicos que lo hacen funcionar son órganos análogos a los de un ser vivo. Éstos, en esencia, no han variado hasta la fecha, aun cuando la tecnología ha suministrado innovaciones, permitiendo reducir el tamaño de casi todos ellos y haciéndolos más eficientes.
En términos generales, pero determinantes para su diseño, este organismo artificial está compuesto por cinescopio, bocinas, cables, circuitos electrónicos y controles.
El órgano preponderante por su tamaño y función es el cinescopio, una pirámide de vidrio cuya base cuadrangular es precisamente la pantalla en donde la imagen fragmentada que viajó como ondas hertzianas, se reconstruye y es percibida por nuestros órganos visuales; el vértice, parte posterior del cinescopio, es el punto donde se originan los rayos que a su vez generan la imagen.
En segundo lugar podemos destacar al amplificador, en donde el sonido, también convertido en ondas electromagnéticas viajeras, es reconstruido y reproducido por estos órganos artificiales que traducen la señal eléctrica en vibraciones, y a las bocinas que, sin estar a la vista, lo hacen perceptibles para nuestros órganos auditivos.
En tercer lugar están los controles que deben tener tamaño y forma adecuada para poder ser manipulados con facilidad y visibles para el usuario, o por lo menos accesibles cuando se cubren con una tapa.
Desde el punto de vista práctico el usuario del televisor tiene cinco puntos de contacto para controlar las funciones básicas: 1) enlace a la fuente o toma de energía; 2) enlace a la fuente o toma de ondas hertzianas; 3) válvula de ingreso del fluido eléctrico; 4) selector de canales; y 5) selector de intensidad del volumen.
En algunos casos existen controles adicionales que permiten regular la apariencia de la imagen: 1) horizontalidad; 2) verticalidad; 3) contraste; 4) brillantez; y 5) color.
Hoy, la mayoría de los televidentes se han adaptado al televisor y entienden, en cierta medida, su organización interna y las funciones básicas que pueden controlar. Al cabo de cincuenta años encontramos que el hombre puede controlar en el televisor ciertas funciones, lo cual es el resultado de una correlación recíproca entre hombre-usuario-televidente, a través de las cuales percibe las emisiones —imágenes y sonidos— del televisor.
Para facilitar la codependencia hombre-televisor se ha creado otro organismo artificial, el control remoto, que por medio de ondas infrarrojas acciona a distancia las funciones básicas y otras adicionales más complejas.
Los demás componentes internos, que no están sujetos a la acción del usuario, aunque sí a la del usuario-fabricante o de mantenimiento, se han estructurado en torno al cinescopio sin obstruir la pantalla, siempre con una tendencia a la máxima compactación permisible. Existen dos aspectos críticos observables importantes en el diseño de la estructuración de los componentes internos del sistema televisor: a) el punto de generación de los rayos, denominado yugo, que es altamente peligroso por sus características eléctricas y puede emitir descargas letales; y b) todo el conjunto emite calor que es necesario disipar.
En consecuencia, es imperativo proteger al usuario de las descargas eléctricas y al televisor del sobrecalentamiento. Lo anterior se suma a los otros requerimientos que debieron ser tomados en cuenta cuando se diseñó el primer televisor. De allí surgió una primera estructura mecánica, que por las razones de seguridad mencionadas, requirió una cubierta con diferentes aberturas para revestir los elementos y así proteger la vida del organismo natural —el hombre— que lo controla, pero ésta debió permitir el enfriamiento de los órganos artificiales internos. Así fue como se caracterizó por primera vez al objeto televisor.
Pero al igual que la estructura ósea, los músculos, el cerebro, los pulmones, el corazón, el estómago, el hígado o el intestino, componentes internos de los animales que se han recubierto con piel, a modo de carcasa o carrocería protectora, los objetos, en su mayoría, también llevan una piel; en este caso el televisor recibió una cubierta o envolvente que forró la estructura mecánica y que generó la configuración de un objeto nuevo, inexistente hasta ese momento: el ícono televisor, un signo que incluso podemos imaginar y dibujar elementalmente para representar y recuperar la idea global del mismo.
La configuración de éste como ícono portador de una estética, desde el punto de vista del diseño industrial, es la materia que nos llama la atención. Podemos retomar algunas palabras de Jan Mukarovsky: “existen, desde luego, tanto en el arte como fuera de él, cosas que por su configuración están destinadas a la acción estética; ésta es incluso la propiedad esencial del arte. Sin embargo, la aptitud activa para la función estética no es una cualidad real del objeto, aun cuando éste haya sido construido intencionadamente con miras a dicha función, sino que se manifiesta sólo en determinadas circunstancias, a saber, en determinado contexto social […] y todo esto en relación con una época y un conjunto social dados. En otras palabras, para caracterizar el estado y la evolución de la función estética no sólo es importante saber dónde y cómo se manifiesta, sino también en qué medida y en qué circunstancia está ausente o debilitada”.
Los primeros televisores construidos por los ingenieros tuvieron apariencia de artefacto tecnológico digno de un laboratorio o taller electrónico; es aquí cuando surge la intervención del diseñador para pasar de lo concreto a lo subjetivo. Al revisar los primeros televisores encontramos que para cambiarlos del estado de artefacto tecnológico al de artefacto con una estética diseñada, tuvieron que ser asimilados a la familia del mobiliario, y los componentes funcionales introducidos en un gabinete con códigos estéticos de la época. De este modo fue posible que se integraran fácilmente a los primeros hogares en donde ocuparon un lugar asociado principalmente con los muebles de la “zona de estar”.
El televisor-mueble presentaba al frente la pantalla de cristal —cinescopio— originalmente muy curva debido a las limitaciones tecnológicas de la época, así como el interruptor de encendido, el selector de frecuencia o canal y el modulador de volumen —controles básicos que en algunos modelos fueron desplazados a los lados o a la parte superior.
Hubo diseños que dejaron al cinescopio dentro del mueble y la pantalla sólo podía observarse al levantar la tapa superior, en cuyo anverso se encontraba un espejo, que al quedar en posición de 45 grados permitía ver las imágenes proyectadas. La intención del diseño en este caso era tener un mueble que no denotara otra función hasta no ser abierto para maravillar y mostrar así el milagro de la televisión. También los hubo con puertas frontales, corredizas o abatibles.
Los televisores-mueble incorporaron características estéticas y estilísticas del mueble de cada época —como mencionamos— e incluso se recurrió a la ornamentación, de manera que pudieran convivir dignamente con los muebles y las costumbres de las familias de “estilo”.
En este periodo se da una dualidad en la imagen del organismo artificial televisor; sus diseñadores y constructores lo escondieron detrás de una estética prestada, como aceptando la imposibilidad inmediata de que tuviera cualidades propias; no existía el esquema (pattern) de “la televisoreidad” que permitiera diseñar diversas formas para que fueran reconocidos precisamente como televisores. Con el paso del tiempo se construyeron apariencias diversas hasta que los diseñadores lograron consolidar el ícono que expresa los rudimentos prácticos y estéticos del televisor: “la televisoreidad”, lo que fue posible con la construcción y consolidación de la relación recíproca televisor-televidente.
Este ícono, gracias a un proceso de estabilización colectiva de la sociedad, no es nada más reconocido por unos cuantos individuos, sino que puede serlo por la mayoría. Su configuración es la suma de lo práctico y lo estético, condicionada por las posibilidades tecnológicas de cada momento, y adquiere un estado de signo —el signo televisor— como lo ha dicho Mukarovsky.
Más adelante se vio la necesidad (posibilidad) de que el televisor saliera, se moviera incluso desligado temporalmente de la fuente permanente de energía eléctrica y se hicieron las adaptaciones y deformaciones necesarias para lograr que fuera portátil. Y como algunos organismos naturales que cambian de piel, de concha, o están sujetos a un proceso de metamorfosis, adquiere una doble independencia: sale del mueble y se convierte en objeto transportable.
El diseñador lo dota entonces de una cubierta protectora con una estética particular: adquiere un asa, elemento práctico adicional que permite su fácil transportación, además de un par de elementos metálicos alargados y extensibles que hacen las veces de antena receptora. Este paso evolutivo generó un ícono de segunda generación, el del televisor portátil.
En el periodo estudiado se encontraron dos tendencias principales: la de envolver al televisor con cubiertas rectilíneas en forma de paralelepípedo, cuyas aristas pueden ser afiladas o redondeadas, y la de modelar un envolvente plástico que se amolda o sigue la estructura del cinescopio, cuya importancia volumétrica es definitiva y determina mayormente la configuración del televisor.
Los avances de la tecnología —materiales, herramental, procesos de fabricación— han dejado sus huellas en los televisores; el uso del metal, la madera y los polímeros (plásticos) puede observarse en los ejemplares de cada época. De polímeros negros y grises, los televisores han pasado actualmente al uso extensivo, en los frentes, del metal laminado pulido, alumio, acero inoxidable y, en general, colores metálicos.
En la actualidad el televisor, gracias a sus características, es perfectamente diferenciable de otros organismos artificiales análogos, ya que los diseñadores que lo proyectan han logrado aislarlo y concentrar la atención sobre él. Ya no pide prestado, cuenta con una estética propia, su “valor estético” connota su funcionalidad interna, sus elementos son capaces de comunicar entre sí con integración máxima y pérdida mínima de información, haciendo legibles sus signos y sus mensajes. Sigue mostrando su brillante cara de cristal, pero completamente plana gracias a los avances tecnológicos; también presenta los mismos controles pero de apariencia apenas notoria, ya que se han integrado al cuerpo del televisor y son perceptibles sólo por un código gráfico anexo. En términos generales encontramos en el género televisor características estéticas que manifiestan su transcurso por circunstancias y épocas distintas, durante las cuales ha forjado su identidad, lo que lo diferencia de otros organismos artificiales. Esta construcción final es la suma de aspectos estéticos y prácticos relativizados por la tecnología, todo lo cual responde a las necesidades reales y ficticias, a las carencias o deseos de los televidentes.
|
|||
Nota
Este artículo surge de un proyecto papime-unam cuya finalidad es producir material didáctico para los diseñadores industriales en formación. Se planteó el análisis evolutivo de un objeto desde el año 1954 hasta el 2000, utilizando una muestra tomada de la revista Industrial Design, y se escogió como sujeto de estudio al género televisor. La idea es visualizar cómo los objetos se deforman, cambian y cómo ello es realizado por el diseñador industrial al manipular u operar los atributos, factores, funciones o valores del producto.
|
|||
Referencias bibliográficas
Baudrillard, J. Arte y Entorno. Siglo XXI, México.
Morin, Edgar. 1999. El método, el conocimiento del conocimiento. Cátedra, Barcelona.
Mukarovsky , Jan. Escritos de arte y estetica. G. Gilly, Barcelona.
________. Signo función y valor. Plaza y Janés.
Sarukhán, José. Las musas de Darwin. fce, México.
Smith, C.U.M. El problema de la vida. Alianza, Madrid.
http://www.geocities.com/ohcop/conduc_e.html (Glosario de Carlos von der Becke)
http://entomologia.rediris.es/documentos/taxonomia.html (Taxonomía, sistemática, filogenia y…)
|
|||
Facultad de Arquitectura,
Universidad Nacional Autónoma de México.
Andrés Fonseca Murillo
Facultad de Arquitectura,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Equihua Zamora, Luis F. y Fonseca Murillo, Andrés. (2002). La evolución de los objetos. Ciencias 67, julio-septiembre, 68-75. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
de flujos y reflujos |
||||
Los átomos, ¿una ingeniosa hipótesis? |
|
|||
Ramón Peralta y Fabi
|
||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | |||
En su momento, los anagramas fueron parte de la diversión de los científicos. Tomar las letras de una oración, trasponerlas y formar otra era una forma de “publicar” resultados. Así, ocasionalmente, quien deseaba entender lo que un colega había descubierto tenía que resolver el anagrama —aunque actualmente, dicen, los trabajos se explican claramente. Más de un anagrama se quedó sin resolver. Uno de los más famosos es el que dejó en el siglo xviii Iacopo Francesco, Conde Riccati de Venecia, que trata sobre la solución de una ecuación diferencial, probablemente incorrecta, aunque nunca lo sabremos. Un siglo antes, Robert Hooke, quien sin la sombra de Isaac Newton hubiera brillado más que el resto de sus contemporáneos, publicó el anagrama ceiiinosssttuu como solución al problema de la deformación de un material bajo la influencia de una fuerza. Al cabo de dos años, sin que se hubiera presentado alguna solución, publicó su resultado, hoy conocido como la Ley de Hooke (la “ley” de los resortes, las placas y las barras): Ut tensio sic vis, que traducido alegremente del latín, significa que la deformación y la fuerza son proporcionales.
Es claro que conocer las partes no es suficiente para entender el todo. Conocer cuáles son los símbolos que representan los sonidos, el alfabeto, no implica saber combinarlos para formar palabras, y menos aún el acomodarlas para escribir el Quijote.
Lo mismo sucede con los átomos, que son pocos en variedad, muchos en número, y forman toda la literatura visual que nos rodea.
Develar los secretos últimos de la constitución de la materia, las partículas elementales y los átomos en que se organizan, es semejante a contar con las letras y saber las reglas que permiten combinarlas en palabras; nada aprendemos del sentido que tienen, ni de cómo hilvanarlas para llenarlas de luz en un soneto de Shakespeare.
En la opinión de Richard Feynman, si sólo pudiéramos heredar una frase de todo el conocimiento científico que tenemos, ésta sería la hipótesis atómica: “Todas las cosas están hechas de átomos —pequeñas partículas en movimiento perpetuo, que se atraen cuando están cerca unas de otras y se repelen cuando se acercan demasiado”. Basta con la hipótesis de que estos elementos básicos existen para iniciar la construcción de nuestro modelo actual de la naturaleza.
No hemos visto a los átomos ni los vamos a ver o a fotografiar. Las llamadas fotos (sic) son el equivalente a lo siguiente: irse a más de seis mil millones de kilómetros del Sol (para asegurar la inclusión de Plutón), a 1011 km, digamos, abrir el obturador de una cámara el tiempo en que transcurren cien mil millones de revoluciones (cinco veces la edad estimada del Universo) y exhibir la “lenteja” resultante como réplica del sistema solar.
¿Qué sería de las ciencias naturales, como la física, la química y la biología, sin la suposición de que allí están los átomos? Sería inconcebible interpretar todo lo que hacemos, medimos y predecimos sin este maravilloso ingrediente. No requerimos los átomos para estudiar la estabilidad de la órbita de Saturno ni para preparar un galón de amoniaco o para comprender los vínculos entre los reptiles y las aves. En cambio, sí nos son indispensables para establecer la composición de Júpiter, calcular la energía que se libera al formarse agua a partir de oxígeno e hidrógeno, para impulsar un cohete al espacio interplanetario o para siquiera proponer el proyecto del genoma humano.
Si con el alfabeto podemos acompañar a Jorge Luis Borges a través de la biblioteca que imaginó y que contiene todos los libros posibles, con los átomos podemos reinventar todos los mundos de Isaac Asimov y más. También el mundo que tenemos, desde el cosmos, remoto en tiempo y en espacio, al ámbito microscópico de las bacterias y las formas simétricas de los copos de nieve. Salvo por la aparente finitud del número de átomos, las posibilidades son infinitas.
¿Qué es un átomo? Un alumno de secundaria pronto respondería que es la parte más pequeña con la que están hechas las cosas, todas, y tendría razón. La imagen que tenemos es desde luego pictórica, con un dejo pintoresco. Pero la descripción matemática es más precisa y sencilla que la conceptual, compleja y difusa, especialmente porque la hacemos en términos de un lenguaje inventado para describir piedras, bichos y antojos, con los que parecen compartir poco más que nada. Un átomo típico es un objeto formado por los electrones y los nucleones, las partículas aglomeradas en el núcleo, que son los protones, de carga positiva, y los neutrones, ingeniosamente llamados así por ser neutros. El tamaño típico del átomo es cercano a la diez mil millonésima parte de un metro (10-10 m), un ángstrom; el núcleo es unas diez mil veces más pequeño y contiene la mayor parte de la masa, en una proporción como de 16 000 a 1 para el oxígeno, o 300 000 a 1 para el plomo.
Todos los átomos de una misma especie, como el oro o el nitrógeno, tienen el mismo número de electrones que de protones, lo cual los hace eléctricamente neutros; así, el oro tiene 79, la plata 47 y el nitrógeno sólo 7. Los isótopos son átomos de un mismo elemento, pero difieren en el número de neutrones en el núcleo. Por ejemplo, el helio (He) viene en dos presentaciones, el He3 y el He4, y se les conoce como isótopos. Difieren en masa pero poseen las mismas propiedades químicas, y sus características nucleares y físicas son muy diferentes.
Podemos imaginar al átomo como un pequeño sistema solar en el que bolitas verdes, los electrones, giran en torno al núcleo, café rojizo; los colores dependerán de cada quien, por supuesto. Otros, más sofisticados, suponen a los electrones como ondas congeladas alrededor del núcleo, formando los orbitales, que me gusta suponer amarillos. A esas escalas, la intuición salta por la ventana. Nada en el átomo está particularmente quieto. Estas concepciones —desde luego— impiden entender porqué, a temperatura y presión ambiente, los gases nobles, como el argón y el neón, son incoloros, el cobalto es duro y azuloso, y el mercurio es un líquido plateado.
El alfabeto natural consta de 92 átomos distintos, de acuerdo con su número atómico, Z, que corresponde al número de protones en el núcleo. Así, van del hidrógeno (Z = 1), el más ligero, al uranio (Z = 92), el más pesado que parece existir en la naturaleza. Los que siguen han sido inventados, como el neptunio y el plutonio, con Z = 93 y 94, que fueron creados por primera vez en 1940. Para fines del año 2001 se habían creado hasta el Z = 114, por lo cual hubo una controversia sobre la reciente aparición del Z = 118. A partir del 110, en espera para ser bautizados la vida media —que es el tiempo promedio en que la mitad de los átomos de una muestra decae espontáneamente, es decir, que se descomponen en otros más ligeros—, es de fracciones de segundo. De hecho, el último átomo que posee algún isótopo estable es el bismuto, con Z = 83; a partir de éste, todos decaen con vidas medias que van de los millones de años a los nanosegundos. El primero de los átomos radiactivos, el polonio, fue descubierto por los esposos Pierre y Marie Curie en 1898. La forma cuantitativa que hoy se tiene para datar está basada en la presencia de los diversos isótopos resultantes de procesos radiactivos. Se conoce, por ejemplo, la naturaleza y el papel de las fuerzas en el núcleo, llamadas electrodébiles y fuertes, al igual que los mecanismos que llevan al decaimiento; la precisión de las predicciones cuantitativas no tiene precedentes en toda la física.
Curiosamente, entendemos mejor al átomo y su interior que al chorro de agua en nuestro lavabo favorito.
La historia del desarrollo de la hipótesis atómica, de una posición filosófica a una teoría abstracta con una exquisita capacidad predictiva, abarca un lapso de más de dos mil quinientos años y corre paralelamente al desarrollo de la civilización occidental. De los rígidos, indivisibles e inmutables objetos de Leucipo de Mileto y su discípulo Demócrito de Abdera, a los difusos compuestos que se trasmutan y vibran constituyéndolo todo, concebidos el siglo pasado, nos separa la diferencia de las costumbres y percepciones. La clave, claro está, radica en la base experimental que la soporta y justifica. Con quinientos años de ciencia, actividad relativamente novedosa, la sociedad se transformó más que en los veinte siglos previos.
Nuestros átomos, reales o supuestos, nos permiten conocer la composición del Sol, explorar y explotar fuentes (casi) inagotables de energía y anticipar la conductividad eléctrica de un sólido. También iluminan la mecánica detallada de la genética y de la evolución de las especies, el origen de múltiples enfermedades y las bases de la reactividad, esencia de la química. Indirectamente, han influido para modificar nuestra imagen y concepción del universo, y de nosotros mismos.
|
||||
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Peralta y Fabi, Ramón. (2002). Los átomos ¿una ingeniosa hipótesis? Ciencias 67, julio-septiembre, 52-55. [En línea] |
||||
imago | |||||||
Mariana Yampolski.
La emoción de la mirada
|
|
||||||
Francisco Reyes Palma
|
|||||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | ||||||
Para Mariana, hacer fotografías se redujo a “documentar y emocionar”, dos funciones indisociables que acabarán por desembocar en dos grandes sistemas de orden y memoria: el archivo y la suma antropológica. Ambos constituyen un complejo unitario, bifurcado según se le asigne un papel descriptor, icónico, testimonial, o una función sintáctica y pragmática, develadora de símbolos y significancias.
El primero consiste en sedimentaciones de imágenes en donde incluye todo lo revelado en términos de laboratorio, evidencias de un campo de conocimiento, con decenas de miles de fotografías resguardadas por su valor documental de trazas existencias. El segundo se expresa en la realización de conjuntos temáticos con fines editoriales, donde el criterio de selección es depurador según la cadencia y la intensidad de la foto en conjunción con valores expresivos y de concepto. Si lo que emociona define la toma, aquí los temas se delinean a partir de grandes campos de conocimiento definidos por su aporte creativo. No debe sorprender, pues, la riqueza del repertorio visual de esta autora: el rostro y el ser; la casa y el paisaje; la labor y el festejo; la hermandad, los afectos y la muerte; grandes temáticas, mas no sólo de ella sino de la fotografía misma […]
Si bien Mariana comparte temáticas con muchos otros fotógrafos mexicanos, difiere en intención y método; sus estrategias ópticas y difusoras resultan distantes de muchas de las tendencias y modas del momento, por más que ciertos esquemas de la crítica encuentren vasos comunicantes entre personalidades de varias generaciones de fotógrafos, cuyo único lazo de unión es recorrer el mismo entorno rural y étnico. La de Mariana es, sin duda, fotografía directa de voluntad realista, tanto que no deja los procesos de síntesis y abstracción. Su verdad proviene de la emoción retenida al momento de presionar el obturador y, por ende, de su capacidad para producir efectos de intensidad vívida: sintaxis afectiva que impresiona la mirada por encima de la visión.
|
|||||||
Nota
Fragmentos tomados de Mariana Yampolski Imagen-Memoria.
Conaculta/Fonca/Centro de la Imagen. México 1999.
|
|||||||
Centro Nacional de Investigación,
Documentación e Información de Artes Plásticas, cnca.
_______________________________________________________________
como citar este artículo → Reyes Palma, Francisco. (2002). Mariana Yampolsky. La emoción y la mirada. Ciencias 67, julio-septiembre, 76-77. [En línea] |
|||||||