|
|
||||||||||
![]() |
||||||||||
|
Matemáticas para los
estudiantes de humanidades
Morris Kline
FCE, México, 2009.
|
||||||||||
|
Durante milenios, las matemáticas han sido el ejemplo por
excelencia de las verdades descubiertas por el hombre. De ahí que todas las investigaciones relativas al problema de adquirir verdades hayan tenido que ver, necesariamente, con las matemáticas. Aunque algunos de los pasmosos avances realizados en el siglo xix alteraron por completo nuestra idea de la naturaleza de las matemáticas, la eficacia de éstas, especialmente para representar y analizar fenómenos naturales, las ha mantenido en el foco de todas las investigaciones de la naturaleza del conocimiento. Uno de los aspectos, y no el menos importante de este valor de las matemáticas, es que nos ha permitido ver en acción las facultades de la mente humana. Las matemáticas constituyen el ejemplo supremo y más notable del poder de la mente para encarar problemas, y como tal, vale la pena estudiarlas.
Entre los valores que las matemáticas ofrecen están los servicios prestados a las artes. La mayoría de la gente se inclina a pensar que las artes son independientes de las matemáticas, pero pronto veremos que éstas han contribuido a dar forma a muchos de los estilos sobresalientes de pintura y arquitectura, y el servicio que las matemáticas prestan a la música no sólo nos ha hecho posible entenderla, sino que ha propagado su disfrute por los cuatro puntos cardinales.
Problemas prácticos, científicos, filosóficos y artísticos han impulsado a los hombres a investigar en el terreno de las matemáticas. Pero hay otro motivo más fuerte que los anteriores: la búsqueda de la belleza. Las matemáticas son un arte. Esto significa que ofrecen los mismos placeres que cualquiera de las ramas artísticas. Esta afirmación acaso moleste a quienes están acostumbrados al concepto tradicional de las artes verdaderas; mentalmente contrastarán con otras en detrimento de las matemáticas. Pero el individuo común y corriente no se ha detenido a pensar en lo que realmente son las artes y qué ofrecen. Lo que la mayoría de la gente ve en la pintura, por ejemplo, son escenas familiares y acaso colores atractivos. Pero estas cualidades no son las que hacen de la pintura un arte. Sus valores reales deben aprenderse, y la genuina apreciación del arte demanda mucho estudio.
No insistiremos, con todo, en los valores estéticos de las matemáticas. Será más fácil sostenernos en la posición de que así como hay personas sin oído para la música y ciegas al color, así también hay las del temperamento que no tolera la argumentación fría ni las distinciones, al parecer sutiles en demasía, que se hacen en la empresa matemática.
Nos gustaría entender qué son las matemáticas, qué hacen, qué le dan al mundo y qué es lo que ofrecen en sí mismas. Esperamos ver qué contienen las matemáticas que auxilian al físico y al sociólogo, al filósofo, al lógico, al artista: qué es lo que influye en las doctrinas del estadista y del teólogo; qué es lo que satisface la curiosidad del hombre que explora los cielos y la del que reflexiona en la dulzura de los sonidos musicales, y qué lo que ha influido innegablemente, aunque a veces imperceptiblemente en el curso de la historia moderna. Trataremos de ver, en fin, que las matemáticas son parte inseparable del mundo moderno, una de las fuerzas que modelan los pensamientos y los actos humanos y un todo del pensamiento vivo conectado indisolublemente con todas las demás ramas de la cultura, de las cuales depende y a las que otorga valiosos dones.
|
||||||||||
|
_____________________________________________________________
|
||||||||||
|
Fragmento de la Introducción.
como citar este artículo → Kline, Morris. (2011). Matemáticas para los estudiantes de humanidades. Ciencias 102, abril-junio, 78. [En línea]
|
||||||||||
|
|
PDF →
|
|||||||||
![]() |
||||||||||
|
“O inventamos o erramos”
La ciencia como idea-fuerza en América Latina
Hebe Vessuri
Universidad Nacional de Quilmes, Editorial Bernal, 2007.
|
||||||||||
|
El surgimiento de los estudios sociales de la ciencia en
América Latina coincidió y de alguna forma constituyó una respuesta a la emergencia de una cultura mundial, globalizada, con características sui generis, y que incide de manera muy directa sobre la comunicación y la producción científicosocial de nuestros países. Por un lado, la homogeneización cultural creciente que acompaña al proceso de globalización viene produciendo una simplificación de nuestras realidades con la consiguiente pérdida cultural. Asimismo, se favorece un recurso a pequeñas unidades sociales, desprovistas de consideraciones contextuales, en una tendencia a analizar las especificidades individuales y de mínima escala de agregación de las relaciones sociales, que también hace perder de vista las unidades de significación intermedia, como países, estados, etnias, clases y estamentos. Frente a este proceso, los estudios sociales de la ciencia en la región introdujeron un componente de exploración y visibilización de la incorporación activa de las sociedades latinoamericanas a los procesos de internacionalización del campo científico.
Ya no se trata simplemente de ver el proceso de difusión de la ciencia europea al resto del mundo, sino de la apropiación del saber científico y su institucionalidad por parte de los grupos científicos y sociedades latinoamericanos, la valorización de la actividad local y la importancia de los procesos por los cuales fue construyendo (y a veces destruyendo) el sentido de la identidad nacional, étnica o colectiva en nuestras sociedades.
Los estudios sociales de la ciencia en América Latina podrían ser vistos como parte de los esfuerzos por asegurar la comunicación intercultural, con una mayor conciencia de los determinantes y especificidades culturales de los diferentes ámbitos nacionales y lingüísticos por parte de la investigación social. A lo largo de los últimos treinta años han aparecido nuevos temas, nuevas narrativas, nuevos interlocutores. Las posibilidades de investigaciones novedosas y útiles se han multiplicado, así como también la de otras tantas agendas para la investigación social.
Algunos temas siempre me han motivado. Así, hablaré brevemente de tres de ellos, con la idea de establecer un nexo con los trabajos que siguen. En primer lugar me referiré a la narrativa, la memoria y la crítica. Un segundo tema que nos ocupa en este libro es el de la relación de los científicos con la sociedad, y fundamentalmente con su cultura y valores. Finalmente, un eje problemático que como investigadora en una región del mundo en desarrollo ha marcado mi aproximación al conocimiento como desafío, ideafuerza y aspiración para nuestras sociedades es el tema del desarrollo.
En el mundo contemporáneo las cuestiones ligadas al conocimiento se mueven en un frente amplio, que va desde los discursos especializados de la política científica y la educación superior, hasta el escenario de la moderna política de la globalización y la competitividad. Siendo, como se predica, el conocimiento un aspecto definitorio clave del mundo actual y futuro, no puede sorprender a nadie que se vuelva una noción cada vez más políticamente cargada, en la cual una gama de intereses diversos pretenden prevalecer.
Tanto en países desarrollados como en aquellos en desarrollo, los gobiernos parecen haberse dado cuenta de que el compromiso de la ciudadanía es vital para asegurar que la ciencia y la tecnología satisfagan las necesidades de la gente. Somos testigos de intereses e inversiones internacionales sin precedentes que vinculan la ciencia y la tecnología con el desarrollo.
Especialmente desde la década pasada viene dándose un debate cada vez más tenso y divisivo, si bien rico y creativo, acerca de las condiciones de producción, diseminación y absorción del conocimiento en sociedades particulares. Entre los resultados que se fueron decantando de ese diálogo, a veces de sordos, está el reconocimiento de que ya no basta con dejar estas cuestiones simplemente a la comunidad académica. El fuero académico se percibe cada vez más como una entre otras fuentes de interés relacionadas con el conocimiento, en circunstancias en que estas cuestiones adquieren creciente significación para grupos más grandes y heterogéneos.
“O inventamos o erramos”, insistía hace ya casi dos siglos Simón Rodríguez, ese ejemplar educador venezolano, quien tuvo una vida dura y comprometida con la realidad de un tiempo o región. La historia se ha encargado de confirmar múltiples veces que los enfoques educativos impuestos desde arriba no funcionan. Las soluciones educativas renovadoras se basan en el ensayo y el error, con un ciclo de retroalimentación basado en la experiencia misma. En la aventura del conocimiento en general y de la ciencia en particular también rinde el experimentar, el atreverse a recorrer caminos que van más allá de las modas aceptadas como verdades reveladas. La inquietud que ha movido los intereses reunidos en este libro, inspirados en el desafío de Rodríguez, es desentrañar las raíces de nuestra subordinación melancólica como periferia de la historia y el presente, con énfasis en las oportunidades y virtudes de hacer camino al andar, abriendo trochas, reuniendo los pedazos de nuestra identidad fragmentada. La ciencia ha sido una ideafuerza en la región latinoamericana que en algunos momentos logró aglutinar voluntades, pero siempre fue insuficiente y casi nunca logró cuajar en un aparato científico con dinámica propia. El poder político y económico en la región ha usado la ciencia en el discurso retórico pero raramente como instrumento de desarrollo social, cultural y económico. El potencial, sin embargo, está allí, la “cátedra sumergida” puede aflorar un día en todo sus esplendor. ¿El siglo xxi podría ser el siglo de la ciencia para América Latina?
como citar este artículo → Vessuri, Hebe. (2011). "O inventamos o erramos". La ciencia como idea-fuerza en América Latina. Ciencias 102, abril-junio, 58-59. [En línea]
|
||||||||||
|
|
PDF →
|
||||||||||
![]() |
|||||||||||
|
Modelo de convergencia
de opiniones
Yérali Gandica, Marcelo del Castillo
Mussot, Sergio Rojas y Gerardo J. Vázquez
|
|||||||||||
|
En el estudio de la dinámica social, la capacidad de una sociedad para reaccionar ante cambios internos y externos y hacer frente a sus mecanismos de regulación es un tema fascinante. Obviamente, es un gran campo para los sociólogos, etnólogos, economistas, psicólogos sociales, criminólogos, antropólogos, etcétera. Más recientemente, los físicos y matemáticos están empleando sus modelos y su experiencia para conseguir una mejor comprensión de la conducta colectiva de los sistemas sociales.
Por ejemplo, la convergencia (o divergencia) de ideas u opiniones entre los participantes de un debate es un proceso social muy importante. En algunos modelos de la dinámica de opinión que han sido revisados por Weidlich, Lorenz, y Castellano y colaboradores, los agentes pueden negociar sus diferencias para tratar de llegar a un consenso.
En la práctica, es plausible asumir que los debates tienen lugar cuando las opiniones de las personas implicadas (agentes) están lo suficientemente cerca uno del otro para poder negociar sus diferencias y tratar de llegar a un consenso. En este sentido, un modelo importante y simple de dinámica de opiniones es el desarrollado por el modelo de Deffuant y colaboradores.
Supongamos que tenemos una red definida como un conjunto de nodos y enlaces fijos (en el modelo original se propuso una simple dinámica de opinión para la gráfica o red completa, donde todos los nodos están conectados entre ellos, pero aquí lo presentamos para cualquier gráfica o red). En cualquier asunto, la opinión correspondiente es representada por un número continuo Θ entre 0 y 1. Se selecciona cualquier agente i y luego con la misma probabilidad para todos sus vecinos, se selecciona uno de ellos, llamado j. En la práctica es plausible asumir que los debates tienen lugar cuando las opiniones de las personas implicadas (o agentes) son lo suficientemente parecidas o cercanas unas de otras. Si entre vecinos la diferencia de las opiniones Θ i (t) y Θ j (t) supera un determinado umbral, entonces no pasa nada (en este caso t es un tiempo discreto que etiqueta y ordena los pasos de tiempo del proceso iterativo); pero si:
| Θ i (t) – Θ j (t) | < ε,
entonces: Θi (t + 1) = Θi (t) + µ [Θj (t) − Θi (t)] (1),
Θj (t + 1) = Θj (t) + µ [Θi (t) − Θj (t)],
lo cual significa que sus opiniones se acercan, moduladas por el parámetro µ.
Este procedimiento se repite hasta que se alcanza la convergencia. Es habitual utilizar el mismo parámetro de aproximación µ para todos los agentes. Es evidente que la topología subyacente al sistema define a los vecinos de cada agente. La convergencia se alcanza después de emplear el procedimiento de la ecuación (1) iterativamente, y se define un grupo o cúmulo como el conjunto de nodos en la red o agentes que comparten la misma opinión final.
Un ejemplo
Vamos a considerar tres nodos alineados como se muestra en la siguiente figura:
y mostrar como su opinión converge para e = 1 y µ = ½.
Supongamos que en un principio la cantidad de información u opinión en cada nodo es a0, b0, y c0. Puesto que e = 1, entonces sus valores siempre se aproximan en pares siguiendo la ecuación (1) para cualquier valor de la cantidad de información. Si µ= ½, entonces ambas opiniones llegan a ser iguales en el punto medio en un solo paso y el consenso de los dos agentes implicados es total. Es decir, la convergencia entre los dos agentes se produce inmediatamente;
Θ i (t + 1) = Θ j (t) = [Θ i (t) + Θ j (t + 1)] / 2.
Sin perder la perspectiva general, se puede comenzar la simulación, eligiendo un primer nodo a y su nodo más cercano b vecino, por lo que la nueva cantidad de información en cada nodo es:
a1 = a 0 / 2 + b 0 / 2,
b 1 = a 0 / 2 + b 0 / 2,
c 1 = c 0.
En el siguiente paso de simulación, el nodo c y su vecino b son elegidos, así tenemos:
a 2 = a 1 = a 0 / 2 + b 0 / 2,
b 2 = b 1 / 2 + c1 /2 = a0 / 4 + b 0 / 4 + c 0 / 2,
c 2 = b 1 / 2 + c 1 / 2 = a 0 / 4 + b 0 / 4 + c 0 / 2.
Después de n pasos, tenemos:
a n = {a 0 + b 0 + c 0 } /3 + A {a 0 + b 0 − 2c 0 } / (3[ 2 2n ]),
b n = {a 0 + b 0 + c 0 } /3 + B {a 0 + b 0 − 2c 0 } / (3[2 2n ]),
c n = {a 0 + b 0 + c 0 } /3 + C {a 0 + b 0 − 2c 0 } / (3[2 2n ]),
donde a, b y c son constantes.
A partir de estas expresiones uno puede ver que todos los nodos convergen en el mismo punto.
Discusión
Este proceso continuo parece ser un modelo más realista para los dispositivos numéricos (en los que la precisión es fundamental) que para los seres humanos. Un valor preciso de la opinión de un agente humano en un rango infinito (números reales entre 0 y 1) es conveniente para los propósitos numéricos, pero no es realista. Por lo tanto, podemos referirnos al valor numérico de la opinión de un agente determinado como la “cantidad de información” que este agente tiene. De esta manera, podemos pensar en un agente como una persona o cualquier otro dispositivo artificial.
Hemos demostrado cómo una serie numérica surge cuando se trata de sólo tres agentes en la modelo de Deffuant. Un caso más general consiste en escoger dos diferentes valores de µ en una interacción de pares o valores aleatorios. En la práctica vemos que incluso para un pequeño número de nodos, N = 3, y hasta para el caso de las aproximaciones más rápidas (µ = ½), llegar a un consenso perfecto generalmente toma un número infinito de pasos. Para efectos prácticos, en el modelo de Deffuant aplicado a cualquier sistema con cualquier valor de agentes, la serie convergente resultante se puede truncar en cualquier grado deseado de precisión. Para los sistemas sociales es más adecuado un conjunto de valores posibles discreto, no continuo, y además es más fácil de manejar. Aunque este modelo es matemáticamente elegante, no parece ser un modelo realista de las opiniones humanas, porque se necesita un número infinito de pasos para converger o llegar a un consenso. En primer lugar, ¡las vidas humanas son finitas! En segundo, un valor de la opinión de un agente humano ubicado en un rango infinito (números reales entre 0 y 1) no es realista.
En resumen, son más adecuados los modelos de opinión con un número finito de estados para describir o simular el comportamiento social. En los cálculos numéricos, el proceso de convergencia toma mucho tiempo cuando el rango es infinito, salvo en el caso de emplear un pequeño número de dígitos significativos (el redondeo de errores).
Existe otro modelo de opiniones propuesto por Hegselmann y U. Krause, que es similar al de Deffuant, pero en él un agente cambia de opinión por la opinión general de sus vecinos. Es decir, en este modelo un agente, en lugar de interactuar con uno solo de sus vecinos a la vez, como en ocurre en el anterior, va a interactuar a la vez con el promedio de todos los agentes dentro de una región de opiniones similares definida o limitada también por e. Este modelo es más adecuado para describir la formación de opinión cuando la gente se reúne al mismo tiempo en grupos pequeños, donde existe una interacción eficaz con participación de muchas personas al mismo tiempo. Por otra parte, ya que este modelo incluye más agentes al mismo tiempo (como en un verdadero proceso de reuniones), una mayor precisión numérica (como en un proceso de votación) parece naturalmente ser más apropiada que en el modelo anterior.
Los debates en torno a la evolución y convergencia de la computación social se pueden encontrar en la red. Baste concluir aquí mencionando que un modelo como el de Hegselmann y Krause es más realista para los pequeños grupos y se puede aplicar para describir el proceso real de reuniones tanto entre personas físicamente como, dados los tiempos actuales, en la red.
|
|||||||||||
|
Referencias bibliográficas
Weidlich, W. Sociodynamics. 2000. Harwood Academic Publishers, Amsterdam.
Lorenz, J. 2007. “Continuous Opinion Dynamics under Bounded Confidence: A Survey”, en International Journal of Modern Physics C, vol.18, núm. 12, pp. 18191838 (arXiv:0707.1762v2).
Castellano C., S. Fortunato y V. Loreto. 2009. “Statistical physics of social dynamics”, en Rev. Mod. Phys., núm. 81, pp. 591646.
Deffuant, G., F. Amblard, G. Weisbuch y T. Faure. 2002. “How can extremism prevail? A study based on the relative agreement interaction model”, en Journal of Artificial Societies and Social Simulation, vol. 5, núm. 4 (http://jasss.soc.surrey.ac.uk/5/4/1.html).
Hegselmann, R. y U. Krause. 2002. “Opinion dynamics and bounded confidence: models, analysis and simulation”, en Journal of Artificial Societies and Social Simulation, vol. 5, núm. 3 (http://jasss.soc.surrey.ac.uk/5/3/2.html).
|
|||||||||||
| _________________________________________________________ | |||||||||||
|
Yérali Gandica
Centro de Física,
Instituto Venezolano de Investigaciones Científicas. Sergio Rojas
Departamento de Física,
Universidad Simón Bolivar.
Marcelo del Castillo Mussot y Gerardo J. Vázquez
Instituto de Física,
Universidad Nacional Autónoma de México.
como citar este artículo → Gandica, Yérali y et.al. 2011. Modelos de convergencia de opiniones. Ciencias 102, abril-junio, 46-49. [En línea] |
|||||||||||
|
|
PDF →
|
|||||||||
![]() |
||||||||||
|
Huiricuta:
paisaje sagrado
amenazado
Humberto Fernández Borja
|
||||||||||
|
Huiricuta es un paisaje de singular relevancia planetaria por la
conjunción de sus valores culturales y naturales. El Desierto Chihuahuense, ecorregión en la que se encuentra, es una de las tres áreas semidesérticas biológicamente más ricas del planeta. Desde épocas remotas, Huiricuta ha sido el nombre en huichol de la región adyacente al poblado histórico de Real de Catorce al norte de San Luis Potosí. Los huicholes lo consideran como un inmenso “templo natural” que a su vez cobija distintos sitios sagrados naturales.
Este paisaje está expuesto a un amplio espectro de factores de deterioro, desde el sobrepastoreo de ganado caprino o la fragmentación de sus matorrales xerófilos por cultivos intensivos de jitomate, hasta el tráfico de peyote y otras cactáceas o bien la profanación de los sitios sagrados huicholes por parte de turistas y ‘neochamanes’ urbanos. Sin embargo, los planes de explotación minera intensiva en la zona, anunciados en el verano de 2010 por la empresa canadiense First Majestic, suponen una amenaza sustancial a la integridad y al frágil equilibrio de Huiricuta.
Patrimonio biocultural
Huiricuta, situado en el Altiplano PotosinoZacatecano, constituye un territorio altamente representativo de los ecosistemas que abarca el Desierto Chihuahuense. Aunque cubre el 0.30% de su superficie, alberga alrededor de la mitad de su flora, el 60% de sus mamíferos y casi el 80% de su avifauna, con una considerable tasa de endemicidad. De este último grupo, sobresale el águila real, símbolo vivo de México, y que encabeza la lista del programa nacional de conservación de especies prioritarias. Dos aspectos le confieren mayor relevancia: se encuentra en la porción sureste de dicha ecorregión, donde se presenta la máxima concurrencia de cactáceas endémicas o amenazadas; por otra parte, las relaciones biogeográficas de la Sierra de Catorce con la Sierra Madre Oriental le permiten albergar hábitats y especies de notable singularidad para la ecorregión.
En este sentido cabe añadir que la porción norte de Huiricuta está incluida en la Región terrestre prioritaria de la conabio núm. 80 (Tokio) y que la Sierra de Catorce es una de las Áreas de Importancia para la Conservación de Aves en México (aica núm. 81).
Existen elementos de patrimonio cultural de gran diversidad. Para los huicholes, es uno de los paisajes sagrados de mayor jerarquía y fundamental en su cosmogonía. El devenir histórico de los huicholes está íntimamente ligado a las prácticas rituales que llevan a cabo en Huiricuta, como culminación de sus peregrinaciones a través de rutas ancestrales desde sus asentamientos regulares al norte de Jalisco en la Sierra Madre Occidental. Estas rutas son el residuo vigente más representativo del gran enjambre de rutas de intercambio prehispánicas que durante milenios enriquecieron a las culturas del continente americano.
Asimismo, su riqueza contempla importantes vestigios paleontológicos y arqueológicos, incluyendo la huella humana más antigua registrada en México: ca. 31 000 años. Si bien la febril actividad minera de los siglos xviii y xix transformó radicalmente el paisaje y provocó la exterminación de las tribus guachichiles, también dejó como huella una concentración importante de edificaciones, haciendas, empedrados y acueductos. Es en el “Real de Minas de la Purísima Concepción de los Álamos de los Catorce”, donde este patrimonio urbanoarquitectónico es aún más notable. Adicionalmente, la vía de ferrocarril que atraviesa a Huiricuta dio lugar a algunos de los elementos de patrimonio industrial que afortunadamente empiezan a ser revalorados.
Una reserva amenazada
Reserva natural y cultural de Huiricuta es el nombre de divulgación para el área natural protegida que promovimos mediante un primer decreto en 1994 y que posteriormente fue sustituido para ampliar la cobertura territorial, los objetos de conservación y los fundamentos de defensa de los derechos indígenas de los huicholes. Su estatus legal vigente, como Reserva Estatal, es el que se señala en el Periódico Oficial del Gobierno del Estado de San Luis Potosí del 9 de junio de 2001 con una superficie de 140 212 hectáreas y una longitud de la ruta de 139 kilómetros hasta el límite con el estado de Zacatecas, en los municipios de Catorce, Villa de la Paz, Matehuala, Villa de Guadalupe, Charcas y Villa de Ramos.
Como parte de una estrategia de conservación más amplia también logramos que en 2004 la Ruta Tradicional de los Huicholes a Huiricuta se inscribiera en la Lista Indicativa mexicana de la Convención del Patrimonio Mundial Cultural y Natural de la unesco.
Actualmente la empresa canadiense First Majestic Silver Corporation ha emprendido su proyecto minero “Real de Catorce” para la explotación de plata y otros metales. Para ello adquirió el control accionario de dos empresas mexicanas, Minera Real Bonanza, S.A. de C.V. y Minera Real de Catorce, S.A. de C.V., poseedoras de 22 concesiones mineras; el 60% de ellas se encuentran dentro de la Reserva de Huiricuta.
Aún no es claro si será un proyecto de “minería a cielo abierto”, ya que el proyecto no se ha presentado formalmente para obtener las autorizaciones en materia de impacto ambiental o del patrimonio cultural, entre otras. No obstante, la explotación anunciada señala que se llevará a cabo mediante procesos químicos de beneficio en los minerales, con uso intensivo de cianuro, así como de un método de flotación en el que se usan otros químicos altamente contaminantes, como los Xantatos. Tan solo esto tendría un impacto irremediable a los acuíferos que abastecen a las comunidades aledañas a Real de Catorce, donde se utilizarán cerca de 10 000 litros de agua por cada tonelada extraída de acuerdo a los estándares de uso de agua de una actividad minera similar.
Ante la gravedad de esta amenaza, todas las comunidades huicholas, así como organizaciones civiles y académicas, dentro y fuera de México, solicitamos la intervención urgente de las autoridades competentes y de la sociedad en su conjunto, para evitar un conflicto social y una catástrofe ambiental, así como la violación a la legislación mexicana y diversos tratados internacionales, y preservar así este patrimonio de gran valor para el país y fundamental en la vida del pueblo huichol.
|
||||||||||
|
_____________________________________________________________
|
||||||||||
|
Humberto Fernández Borja
Conservación Humana, A.C.
como citar este artículo → Fernández Borja, Humberto. (2011). Huiricuta: paisaje sagrado amenazado. Ciencias 102, abril-junio, 38-39. [En línea] |
||||||||||
|
|
PDF →
|
|||||||||
![]() |
||||||||||
|
Patricia Magaña Rueda
|
||||||||||
|
Lo primero que viene a la mente al hablar de basura es una serie
de olores y texturas indeseables, de las que no quisiéramos volver a saber. El término basura es muy general, ya que engloba todos los elementos que son mezclados y desechados porque se les considera no útiles. Hablando de la basura que se genera en casa, lo que hacemos es entregarla a los encargados de “deshacerse” del problema y olvidarnos de él. Pero sabemos poco sobre la forma en que se transporta, separa, trata y hasta se utiliza, y a la mayoría le preocupa todavía menos lo que representa en contaminación y daño al medio, excepto cuando nos lo recuerdan los lineamientos y reglamentos ordenados por la autoridad.
En el Distrito Federal, donde se llega a hablar de la producción de hasta quince mil toneladas diarias, el problema es creciente, y durante décadas los gobiernos locales no han desarrollado un proyecto claro para contender con el mismo. Desde 2003 la Asamblea aprobó la Ley de residuos sólidos (nótese que es un término distinto a basura). Su aplicación se ha ido posponiendo por muchos factores, particularmente la falta de infraestructura. Cinco años después, en diciembre de 2008, se publicó el reglamento correspondiente a la Ley, y apenas este 2011 se ha puesto realmente en marcha, con las correspondientes sanciones, involucrando en primera instancia a los ciudadanos.
La preocupación del Gobierno del D. F. responde, sobre todo, al cierre del Bordo poniente, una enorme área ubicada entre el Distrito Federal y el Estado de México, donde se depositaban las docenas de toneladas diarias que produce la gran urbe. Y aunque ha causado un fuerte debate, y ha habido propuestas para aprovechar el gas metano que genera este inmenso tiradero, todavía no está claro qué va a pasar con toda la basura una vez cerrado este depósito, como lo acreditan diversas notas periodísticas (www.oem.com.mx/elsoldemexico/notas/n1992482.htm).
La responsabilidad es gubernamental, pero sin la participación ciudadana el asunto difícilmente encontrará vías adecuadas de solución a corto o largo plazo. Y aunque la información juega un papel central en la búsqueda de alternativas, ¿han servido los años transcurridos entre la aprobación de la Ley y su puesta en marcha para instruir y verdaderamente preparar a la población para entender el problema de la “basura”? La respuesta, desgraciadamente, es no. Y esto tendrá un papel central en los planes que sigan los distintos gobiernos en el futuro.
La Ley de residuos sólidos hace referencia en sus artículos 10, 11, 16, 17 y 18 a la necesidad de difundir su contenido y orientar a la población en sus detalles, pero más aún en el sustento para aplicarla. En los hechos, más allá de un cartel y algunos folletos, poco se hace. Si usted está interesado en conocer la Ley, visite la Gaceta Oficial del Distrito Federal (www.sma.df.gob.mx), un portal que además de permitirle descargar el documento completo, en su menú principal incluye el apartado “residuos sólidos” que contiene el nuevo programa de 2011 que lleva el nombre de “Juntos pero no revueltos”, datos, material de difusión, planes de manejo y hasta un apartado de denuncias por incumplimiento.
Pero, ¿por qué separar la basura y cómo hacerlo? La respuesta más simple sería que separar basura orgánica e inorgánica permitirá reciclar y no contaminar tanto. Pero más bien habría que hacerse dos preguntas más profundas: ¿se puede hacer algo para producir menos basura?, ¿están informados y concientes los ciudadanos del problema que representan los residuos sólidos, la forma de disponer de los mismos y lo que significa cambiar nuestros hábitos? Las respuestas ya no son tan simples y requieren programas más cuidadosos con un mayor número de personas involucradas —y no sólo los habitantes de la ciudad—, pues tendría que incluirse al personal de limpia, los industriales que producen cualquier tipo de elemento consumido, los fabricantes de empaques, los involucrados en el reciclaje y, por supuesto, los interesados en desarrollar ciencia y tecnología para contender con el problema.
En un primer intento, el gobierno local, por medio de su portal, presenta un programa más amplio que el solo reglamento y se llama “Plan verde. Ciudad de México”. En él se enmarca el manejo de residuos sólidos que incluye no sólo la separación de la basura, sino también el reciclaje y la reutilización de elementos (www.planverde.df.gob.mx/).
Lo adecuado sería entonces hacer una campaña que no se centre en conocer qué es orgánico y qué es inorgánico, lo cual indudablemente es importante, sino cómo nos hacemos de productos que generen menos residuos, cómo tener vías para ubicar lo reutilizable o lo que es reciclable y, finalmente, cómo disponer de manera adecuada de lo que hay que desechar, incluidas muchas sustancias y materiales que usamos en casa o en la oficina, que se siguen eliminando sin regulación y contribuyen a una alta contaminación de suelos, agua y mares.
Algunos pequeños libros o folletos sobre el tema de la basura han sido trabajados con cuidado y claridad. Uno de ellos fue elaborado, en 2004, por Raúl Herrera Massieu. En él, además de datos básicos y definiciones claras, se plantea cuestionamientos que pueden servir de base para apoyar la difusión de la Ley de residuos sólidos. Conviene consultar este texto que incluye una sección de preguntas frecuentes muy esclarecedoras (www.sma.df.gob.mx/educacionambiental/pdf/como.pdf).
Hay países que son exitosos en el manejo de sus residuos, tal es el caso de Alemania, donde se educa en términos de generar menos basura; muchas familias producen composta con los desechos orgánicos, y el reciclamiento está regulado por leyes, de manera que los empaques y recipientes en que se venden los productos vuelvan a ser responsabilidad de los fabricantes y por lo tanto les deben ser regresados para su disposición. Esto fue introducido desde 1991 por medio del llamado Dual System Germany Ltd., al cual se ha unido una gran cantidad de países en Europa. Su propósito fundamental es asegurar la recuperación y reciclamiento de los empaques en la forma más eficiente y amigable con el ambiente. Se puede aprender mucho de ellos (www.proe.org/Introduction.html).
En resumen, hay necesidad de desarrollar ciencia y tecnología sobre mejores y más amigables materiales, así como procesos de reutilización y manejo de muchas sustancias. De igual manera, la población tendrá que proponer se incentive la parte industrial de utilización y reciclamiento como una tarea importante en el país. Pero debería de haber un objetivo fundamental de difusión, que es también educativo: lograr, como en otras muchas cosas, un cambio de actitudes en nosotros, lo cual nunca es sencillo.
|
||||||||||
|
_____________________________________________________________
|
||||||||||
|
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
como citar este artículo → Magaña Rueda, Patricia. (2011). ¿Es sólo basura? Ciencias 102, abril-junio, 24-26. [En línea] |
||||||||||
|
|
PDF →
|
|||||||||
![]() |
||||||||||
|
La curiosa historia
del cangrejo samurai
Héctor T. Arita
|
||||||||||
|
The great tragedy of Science
the slaying of a beautiful hypothesis by an ugly fact. Thomas Henry Huxley
La batalla naval de Dannoura marcó el final del clan de los Taira
(o Heike). El 25 de abril de 1185, las fuerzas del clan de los Genji, lideradas por Minamoto no Yoshitsune, aplastaron a los Heike en el encuentro final de una guerra de cinco años que fue la culminación de décadas en conflicto por el control del poder en el Japón del siglo xii. Ese año marca en Japón el final del periodo clásico y el inicio del periodo feudal. Al presentir el final de los Heike, la abuela del emperador Antoku tomó al niño de apenas siete años en sus brazos y se arrojó al mar, en donde los dos se ahogaron. Igual suerte corrieron muchos de los valerosos guerreros Heike, incluyendo su líder Tomomori. Según el Heike monogatari (la épica del clan Heike), el espíritu de estos guerreros vive aún en las profundidades del mar de Japón.
La trágica historia de los Heike se recrea en las leyendas y en varias representaciones del kabuki, el estilizado teatro japonés. Una de las leyendas afirma que el espíritu de los guerreros ahogados en Dannoura subsiste en una especie de cangrejo local, llamado precisamente heikeganiHeikea japonica). En estos animales, el dorso del caparazón presenta curiosas rugosidades que semejan una cara humana gesticulando a la manera de un estoico guerrero japonés. Según cuenta la leyenda, los Heike se transformaron en estos cangrejos al hundirse en las aguas de Dannoura, tal como se puede ver en numerosas ilustraciones históricas, entre las que destacan los grabados en madera de Utagawa Kuniyoshi, un artista plástico del siglo xix reconocido por sus pinturas y grabados alusivos a la historia y costumbres japonesas.
La fascinante historia de los Heike ha sido también fuente de inspiración para los científicos. En 1952, en un artículo de la revista Life, Julian Huxley se refirió a los cangrejos heike como un ejemplo de animales que en su morfología semejan algún otro objeto, en este caso una cara humana. Huxley, uno de los biólogos de la primera mitad del siglo xx que con mayor vigor defendieron la idea de que la selección natural es la principal que subyace al proceso de evolución, presenta en el artículo varios casos de animales imitadores (copy cats) que al aparentar ser otro objeto obtienen beneficios para su supervivencia o reproducción. En particular, insiste en que el peculiar aspecto de los heikegani no puede deberse a la mera casualidad, y que más bien es “una adaptación específica que sólo pudo haber sido producida por la selección natural actuando a lo largo de cientos de años”. Según Huxley, los pescadores del mar de Japón, por respeto a los guerreros Heike, han evitado por generaciones comer aquellos cangrejos con mayor semejanza a una cara humana, de manera que a lo largo de las generaciones estos animales han sido favorecidos por la selección (en este caso artificial) y son hoy en día más frecuentes que los cangrejos con menor parecido a una cara.
La hipótesis de Huxley fue retomada años más tarde por Carl Sagan en el episodio “Una voz en la fuga cósmica”, de su serie de televisión Cosmos, para ilustrar, con la inigualable elocuencia que caracterizaba al célebre astrónomo y divulgador, el concepto de la selección artificial. “¿Cómo se consigue que el rostro de un guerrero quede grabado en el caparazón de un cangrejo?”, se pregunta en forma retórica Sagan. “La respuesta parece ser que fueron los hombres quienes hicieron la cara”. La explicación de Sagan es básicamente la misma que la de Huxley: en un pasado remoto pudieron haber surgido algunos cangrejos con una ligera semejanza a una cara humana. Los pescadores, al observar el parecido y en remembranza de los guerreros ancestrales, habrían regresado estos cangrejos al mar, permitiendo su supervivencia y reproducción. Los cangrejos ordinarios sin rasgos faciales dibujados en sus caparazones, por el contrario, habrían terminado sus días en la mesa de los pescadores. Después de cientos de años, debido a este proceso de selección dirigida por los pescadores, los cangrejos más parecidos a una cara se habrían hecho cada vez más numerosos hasta convertirse en la forma más común en la población. Un bello ejemplo de selección artificial. ¿O no?
La realidad es que es muy poco probable que la morfología del caparazón de los heikegani tenga algo que ver con los pescadores japoneses, y mucho menos con los guerreros samuráis del siglo xii. La cara en los caparazones es un ejemplo de pareidolia, el fenómeno psicológico por medio del cual la mente tiende a formar imágenes reconocibles a partir de un estímulo vago y aleatorio. Es por la pareidolia (del griego eidolon, figura o imagen) que creemos reconocer figuras en la configuración de las nubes o vemos siluetas de animales, personas o demonios en las manchas de tinta de la prueba de Rorschach. Por el mismo proceso la gente crédula afirma reconocer figuras como caras o pirámides en la disposición de los accidentes geológicos de Marte o imágenes de la virgen María en pedazos de roca, troncos de árbol o hasta en los patrones que aparecen en los panes tostados.
Las rugosidades que vemos en el caparazón de los cangrejos resultan de la disposición de los sitios en que se insertan los músculos. La simetría bilateral de los cangrejos y la particular localización de las rugosidades hacen que los caparazones, a primera vista, realmente parezcan rostros. Incluso la mayoría de la gente afirmaría reconocer gestos en esas caras. La realidad, sin embargo, es que estamos frente a un típico caso de pareidolia en la que unos cuantos trazos (la posición de las inserciones musculares) permiten a nuestro cerebro completar lo que interpretamos como un patrón conocido, en este caso una cara. Por supuesto, ningún científico serio piensa que esos rostros realmente son los de los guerreros Heike caídos en la batalla de Dannoura.
Aun si las supuestas caras en los caparazones son una pareidolia, la hipótesis HuxleySagan podría ser correcta si en efecto los pescadores ejercen de alguna manera una presión selectiva sobre las poblaciones de los cangrejos. En 1993, Joel Martin publicó en la revista Terra un análisis del curioso caso de los cangrejos samuráis y, no sin cierto dejo de tristeza, presentó varias piezas de evidencia en su contra. Para empezar, hay que recordar que, como señala Martin, existen muchas especies de cangrejos, además de los heikegani, en las que se pueden observar figuras semejantes a rostros humanos. Si la hipótesis de Huxley es correcta, entonces tendríamos que pensar que en todos los lugares en los que existen cangrejos con caparazones semejantes a caras habría gente que selectivamente los protege. El problema es que existen también fósiles de cangrejos emparentados con los heikegani en los que aparecen los supuestos rostros. Estos fósiles provienen por supuesto de tiempos anteriores a la batalla de Dannoura, son más antiguos que el propio ser humano. Claramente, la selección artificial no puede explicar la existencia de esos fósiles.
Más devastador para la hipótesis de la selección artificial es el hecho de que la fuerza de selección propuesta por Huxley no existe. Los pescadores japoneses ni siquiera se comen los cangrejos samuráis, independientemente de si tienen o no “caras” en el caparazón. De hecho, los heikegani son tan pequeños (miden apenas unos tres centímetros) que realmente no vale la pena siquiera intentar extraer algo de carne de ellos. Los pescadores suelen devolver estos cangrejos al mar, no por respeto a los guerreros ancestrales, sino simplemente porque los crustáceos no les son apetecibles.
En suma, dadas todas estas evidencias, la explicación de Huxley y Sagan, por bella que parezca, no se sostiene ante los hechos científicos. La historia de los heikegani es un ejemplo de lo que T. H. Huxley, el abuelo de Julian, llamó “la gran tragedia de la ciencia: la muerte de una bella hipótesis en manos de una fea verdad”.
Nota
Una versión anterior de este ensayo apareció en el blog “Mitología Natural” (www.hectorarita.wordpress.com) el 14 de noviembre de 2010.
|
||||||||||
|
Referencias bibliográficas
Huxley, J. S. 1952. “Evolution’s copycats”, en Life, 30 de junio de 1952.
Martin, J. W. 1993. “The Samurai Crab”, en Terra, vol. 31, núm. 4, pp. 3034.
Sagan, C. 1982. Cosmos. Editorial Planeta, Barcelona.
_____________________________________________________________ |
||||||||||
|
Héctor T. Arita
Centro de Investigaciones en Ecosistemas,
Universidad Nacional Autónoma de México.
como citar este artículo → Arita, Héctor T. (2011). La curiosa historia del cangrejo Samurai. Ciencias 102, abril-junio, 12-15. [En línea] |
||||||||||
|
|||||||||||||||||||||||||||||||||||||||||||||||||
|
Una invitación a la teoría matemática de la música.
II. Armonía y contrapunto
|
|||||||||||||||||||||||||||||||||||||||||||||||||
| Octavio A. Agustín y Emilio Lluis Puebla | |||||||||||||||||||||||||||||||||||||||||||||||||
|
En el primer libro de su tratado De Musica, San Agustín de
Hipona dice que la música es “la ciencia de la buena modulación”. Y no cabe duda que esto es fundamental para la teoría de la modulación tonal, un aspecto de la armonía occidental, donde se pasa de una tonalidad de origen s a una tonalidad destino t en un “buen modo”.
Por supuesto, la sencilla definición de “modulación” como un agradable tránsito de una tonalidad a otra no es muy precisa y ejemplifica el problema del encapsulamiento. Para empezar: ¿qué es una tonalidad? Decir que es “un sistema musical en el que hay relaciones jerárquicas entre los tonos respecto de un centro tonal o tónica” no parece un serio intento por aumentar la precisión del concepto.
Si partimos del hecho de que la materia de la música son los tonos (en particular los de la afinación equitemperada de doce tonos), que una escala es una elección periódica (es decir, que se repite octava tras octava) de estos tonos, y que los acordes son conjuntos de tonos, entonces una tonalidad es un conjunto de acordes elegidos apropiadamente entre los tonos de una escala. A los acordes de una tonalidad también se le llaman “grados”, y generalmente se les numera de acuerdo con su posición en la escala de un tono particular que le pertenece.
Algunos ejemplos pueden ilustrar esto. Cabe recordar que en la notación empleada: c = do, d = re, e = mi, f = fa, g = sol, a = la y b = si; cuando se acompañan del signo # significa que es sostenido (c# = do sostenido).
Ejemplo 1. El conjunto c = {c, d, e, f, g, a, b} repetido en todas las octavas es la llamada escala de c mayor (y se puede escuchar tocando sucesivamente todas las teclas blancas del piano). La tonalidad de c mayor está integrada por los acordes: ic = {c, e, g}, iic = {d, f, a}, iiic = {e, g, b}, ivc = {f, a, c}, vc = {g, b, d}, vic = {a, c, e}, viic = {b, d, f}.
Otro ejemplo sería el conjunto d = {d, e, f#, g, a, b, c#} repetido en las octavas, que es la escala de d mayor. La tonalidad de d mayor está integrada por los acordes: id = {d, f#, a}, iid = {e, g, b}, iiid = {f#, c#, a}, ivd = {g, b, d}, vd = {a, c#, e}, vid = {b, d, f#}, viid = {c#, e, g}.
Según Arnold Schönberg, para iniciar una modulación se utilizan primero algunos acordes que pertenezcan tanto a la tonalidad de salida como a otras (y por eso se denominan “neutros”). Un ejemplo de acorde neutro sería el quinto grado de la tonalidad de c mayor, que es vc = {g, b, d}, que coincide con el cuarto grado de la tonalidad de d mayor ivd = {g, b, d}. A continuación, en una etapa de transición, se usan acordes que funcionan como “pivotes”, anticipando la tonalidad de llegada. Por último, se despliega una “cadencia” para afirmar la tonalidad de llegada: es decir, se presenta una sucesión de acordes que pertenezcan exclusivamente a la tonalidad de llegada. Para formalizar matemáticamente todo lo anterior, primero hemos de identificar los tonos con el anillo Z12, que modela la llamada “aritmética del reloj” (figura 1). Esto es porque en la música se suman y multiplican tonos como se suman o multiplican las horas para transponer escalas o invertir acordes. De este modo, tendríamos que c = 0 (o las 12 en punto), c# = 1, d = 2, d# = 3, e = 4, f = 5, f# = 6, g = 7, g# = 8, a = 9, a# = 10, b = 11.
Ejemplo 2. El acorde que es el primer grado de la tonalidad de c mayor en: ic = {c, e, g} y en números corresponde a ic = {0, 4, 7}. Si transponemos en 2 a este acorde, tenemos: ic + 2 = {0+2, 4+2, 7+2} = {2,6,9} = {d, f#, a} = id, que es el primer grado de la tonalidad de d mayor. Para invertir id, lo multiplicamos por –1 y así –1·id = {–1·2, –1·6, –1·9} = {10, 6 ,3} = {d#, f#, a#}. El lector puede comprobar fácilmente que si transponemos en 2 a toda la escala de c mayor obtenemos la escala de d mayor, esto es, c + 2 = d.
Ahora nos restringiremos a las “escalas mayores”, que son c y todas sus transposiciones. Dada una escala mayor x, definimos una tonalidad x(3)x, iix, …, viix (que son transposiciones de los grados que ya mencionamos en un ejemplo anterior) que recubre toda la escala x, de la que se toman sus tonos. Así obtenemos las doce tonalidades mayores c(3), c#(3), e(3), …, b(3). El conjunto de estas tonalidades lo denotaremos como Dia(3); también se les llama “interpretaciones triádicas de las escalas diatónicas”. como el conjunto de grados i
Si a los acordes de x(3) los representamos como puntos en el espacio tridimensional y conectamos con una línea dos acordes que comparten al menos un tono, luego rellenamos los triángulos que se obtienen si los tres acordes en sus vértices comparten al menos un tono, resultauna superficie triangulada que es una banda de Möbius (figura 2). El orden cíclico de los acordes que surge de recorrer su borde es el llamado “círculo de quintas” (sin tomar en cuenta sostenidos o bemoles). Es interesante notar que Schönberg también descubrió esta construcción y la denominó Harmonisches Band, o “banda armónica”.
Otro aspecto interesante de la banda armónica es que representa objetos musicales (acordes o grados de una tonalidad) y sus relaciones (cómo comparten tonos). Tales relaciones son operaciones lógicas, pues finalmente son intersecciones de conjuntos (que a fin de cuentas están definidas por predicados lógicos). Esto significa que la banda armónica es una representación geométrica de un hecho lógico, idea que se extiende a toda la música por medio de la teoría de topos (que, repetimos, es una amalgama de la lógica y la geometría).
Podemos enseguida definir rigurosamente qué es una cadencia: es un conjunto mínimo de grados de una tonalidad x(3) tales que las triadas que lo conforman no pertenezcan a otra tonalidad. A continuación listamos todas las cadencias posibles: k1 = {iix,vx}, k2 = {iix,iiix}, k3 = {iiix, ivx}, k4 = {ivx, vx}, k5 = {viix}.
Llama la atención la cadencia k4, pues está conformada por los grados que tradicionalmente se denominan “subdominante” y “dominante”, respectivamente. Son un mecanismo clásico para afirmar la tonalidad en la música occidental, omnipresente en la música popular actual.
Disponemos ya de los ingredientes para describir el modelo de modulación propuesto por Mazzola. Parte de la modulación debe ser una función m (o llamada también “simetría”) que transforme la tonalidad de partida s(3) en la tonalidad de llegada t(3), y que llamaremos “modulador”. Pedimos que sea de la forma m(x) = ax + b, donde a = 1, 5, 7, 11 son precisamente los elementos de Z12 que tienen inversos multiplicativos, y que además mande a la escala s de la tonalidad s(3) en la escala t de t(3). Se puede ver que hay exactamente dos funciones de este tipo. Puede ser que o bien t(3) = s(3) + t para algún t; o que t(3) = as·s(3) + t para algún t, donde as es la única inversión que deja la escala s invariante. Se puede comprobar que solamente hay diez funciones que transforman a s(3) en t(3) como se ha descrito.
Ejemplo 3. Ya vimos que c + 2 = d, y evidentemente c(3) + 2 = d(3). Si s es la escala de c mayor, c, entonces ac(x) = 4 – x. En efecto, –{0, 2, 4, 5, 7, 9, 11} + 4 = {0 + 4, –2 + 4, –4 + 4, –5 + 4, –7 + 4, –9 + 4, 11 + 4} = {4, 2, 0, 11, 9, 7, 5}.
El modulador nos dice cómo ir de una tonalidad a otra, pero falta decir cómo debe comportarse respecto de las cadencias de las tonalidades. Es decir, debemos establecer cuáles grados serán los pivotes. Para tal fin, se introduce el concepto de “cuanto de modulación” respecto de la cadencia k y el modulador m, que es un conjunto de tonos m con las siguientes propiedades: a) el modulador debe ser una simetría de m, es decir, m(m) = m; b) los tonos de los grados de la cadencia k de T(3) deben estar contenidos en m; c) el conjunto de los tonos que pertenecen tanto a m como a t debe ser rígido, es decir, no tiene simetrías distintas a la identidad; d) el conjunto m es el que tiene la menor cantidad de elementos, de modo que se cumplan las dos primeras condiciones.
Ejemplo 4. Supongamos que tenemos el modulador m(x) = 11x + 6 que lleva a la tonalidad de c en la tonalidad de d y la cadencia clásica k={iv, v}. Entonces el cuanto de modulación respecto de (m,k) es m = {1, 2, 4, 5, 7, 9, 11}. Efectivamente, m({1, 2, 4, 5, 7, 9, 11}) = 11·{1, 2, 4, 5, 7, 9, 11} + 6 = {5, 4, 2, 1, 11, 9, 7}. Los tonos que pertenecen tanto a m como a d son {1, 2, 4, 7, 9, 11}, y si se opera con todas las simetrías de la forma f(x) = ax + b con a = 1, 5, 7 11 se ve que solamente f(x) = x la deja invariante. También es un cálculo (largo y tedioso, pero sencillo) ver que no hay otro conjunto más pequeño que satisfaga esto.
De lo anterior se desprende el siguiente teorema: para dos tonalidades diferentes, s(3) y t(3), existe un cuanto de modulación m respecto de (m,k). Además, tiene las siguientes propiedades: a) el conjunto m es una unión de los grados de s(3) y t(3); éstos definen a la interpretación triádica m(3) de m; b) los grados comunes de t(3) y m(3) se denominan “grados pivotes de la modulación” (k,m); c) el modulador m está determinado de forma única por los grados de la modulación.
Ejemplo 5. La interpretación triádica del m del ejemplo anterior es viid = {1, 4, 7}, iic = {2, 5, 9}, iiic = iid = {4, 7, 11}, vc = ivd = {7, 11, 2}, vd = {9, 1, 4} y viic = {11, 2, 5}, pues son los grados de c(3) y d(3) cuyos tonos están contenidos en m. Los grados comunes entre d(3) y m(3) son iid, ivd, vd y viid, por lo que éstos son los grados pivotes en la modulación de c(3) a d(3).
Los pivotes predichos por este modelo coinciden con los propuestos por Schönberg en su tratado Harmonielehre. Pero lo importante del enfoque matemático no es su concordancia con las ideas de Schönberg o las de cualquier otro teórico de la música, pues en ese caso resultaría superfluo. Lo fundamental es que descansa en pocos principios bien definidos y que se puede extender a otros ámbitos de manera natural: funciona para las escalas armónicas menores, las escalas de tonos enteros o en todo lo anterior pero en afinaciones justas, pitagóricas o microtonales. Inclusive pueden reemplazarse los tonos por los golpes del metrónomo en un compás de doce octavos (por tomar un metro particular) para efectuar ¡modulaciones rítmicas! Un ejemplo de ellas puede escucharse en la obra Synthesis de Guerino Mazzola.
Contrapunto
El contrapunto, parafraseando a K. Jeppesen, es el arte de preservar, de manera balanceada y armónica, la independencia de las voces en una composición polifónica. Por ello, si en la armonía los protagonistas son los acordes y las modulaciones, en el contrapunto son los intervalos y las consonancias, que son finalmente las relaciones que existen entre las voces de una composición polifónica.
Ahora bien, un “intervalo” es la distancia que existe entre un tono y otro. En ese sentido, hay solamente doce distancias posibles (sin tomar en cuenta octavas) y por eso también podemos modelarlas con Z12. También tienen nombres musicales tradicionales (cuadro 1). En el contrapunto clásico descrito por Johann Fux en su obra clásica Gradus ad Parnassum, las consonancias son el unísono (que engloba a las octavas), la quinta justa y las terceras y sextas (tanto menores como mayores). El resto son disonancias. Si se codifican como los elementos de Z12 vemos que las consonancias son k = {0, 3, 4, 7, 8, 9} y las disonancias son d = {1, 2, 5, 6, 10, 11}, cada conjunto con seis intervalos.
Una observación fundamental de Mazzola es que la transformación p(x) = 5x + 2 transforma consonancias en disonancias y recíprocamente: p(k) = d, p(d) = k. Además, es la única simetría con esta propiedad (y por eso es denominada “polaridad”). Con esto se pone de manifiesto que las simetrías deben incluir ahora multiplicación por quintas y cuartas, además de la inversión que se emplea en la armonía. Sin embargo, estas operaciones no se pueden visualizar tan fácilmente en la aritmética del reloj. Pero cambiando un poco la perspectiva (como aconseja la filosofía de Yoneda), hay una manera de resolver esto usando el llamado “toro de terceras” (figura 3), que resulta de ver cada intervalo como una suma de terceras menores (número 3 en el cuadro 1) y mayores (4). Con este objeto geométrico se puede ver que: a) la inversión (11) corresponde a rotar 180 grados respecto del eje que atraviesa el toro; b) la multiplicación por cuartas (5) es la reflexión respecto de un plano horizontal que corta a la mitad al toro, y la multiplicación por quintas (7) la reflexión respecto de un plano vertical que pasa por la tercera menor; c) transponer en una tercera menor equivale a rotar 90 grados y transponer una tercera mayor en un giro de 120 grados.
El contrapunto de la primera especie es la composición polifónica más simple, donde solamente hay dos voces que emiten notas de idéntica duración y son tales que los intervalos entre ellas siempre son consonancias (figura 4). Al componer contrapunto de la primera especie, generalmente una de las voces está dada de antemano y se le llama cantus firmus, mientras que la otra se construye de acuerdo con ciertas reglas y se denomina discanto. Además, es deseable que el discanto permanezca siempre por debajo, o bien siempre por arriba del cantus firmus. Cuando no sucede así, se dice que las voces se cruzan, por lo que se evita en la medida de lo posible. Por ello, en lo sucesivo supondremos que siempre el cantus firmus está por debajo del discanto y que entonces todos los intervalos entre ambas voces son ascendentes.
Para modelar el contrapunto de la primera especie y formalizar matemáticamente las reglas para componerlo se requiere solamente una voz (el cantus firmus) y asociarle intervalos, pues de esta manera queda determinada unívocamente el discanto. Esto se logra utilizando el anillo de los “números duales” sobre Z12, que es el anillo cociente Z12[e] = Z12[x]/(x2) = {a + eb: a, b pertenecen a Z12}. Cada número dual a + eb representa un intervalo de contrapunto, donde a es el tono del cantus firmus y b el intervalo entre el cantus firmus y el discanto. Por lo tanto, el tono del discanto es a + b. Vale recalcar que los intervalos que se emplean en el contrapunto de la primera especie son: k[e] = {a + ec, a pertenece a Z12 y c es una consonancia}. El resto de los intervalos de contrapunto son los intervalos disonantes d[e] = {a + ec, a pertenece a Z12 y c es una disonancia}.
Es posible multiplicar intervalos de contrapunto de la siguiente manera: (a + xb)(c + xd) = (ac + x)(ad + bc). También pueden sumarse: (a + xb) + (c + xd) = (a+c) + e(b + d).
Tales operaciones algebraicas no son vanos caprichos matemáticos, pues son musicalmente significativas: representan algunas de las transformaciones comunes en el contrapunto doble, permiten reinterpretar los intervalos cuando se cruzan las voces y son un elemento crucial para obtener el modelo matemático del contrapunto clásico de la primera especie. Para entender el por qué de esto último, empezaremos por notar que la multiplicación de intervalos de contrapunto permite definir simetrías de los intervalos de contrapunto, análogas a las de los intervalos sencillos. En este caso, una simetría es de la forma siguiente: f(a + eb) = (u + ey)(a + eb) + (s + et), donde u = 1, 5, 7, 11.
Así como existe una transformación p(x) = 5x + 2 que intercambia los intervalos consonantes por disonantes, para cada cantus firmus a existe una transformación pa(c + ed) = 5(c + ed) + 8a + e2 que intercambia los intervalos de contrapunto consonantes por disonantes, es decir, pa(k[e]) = d[e]. Adicionalmente, deja invariantes los intervalos con cantus firmus a (esto es, pa(a + eb) = a + eb’). La llamaremos una “polaridad relativa” (respecto de a). Por ejemplo, el intervalo de una quinta justa sobre d es 2+e7, y p2 lo manda a p2(2 + e7) = 5(2 + e7) + 8·2 + e2 = (10 + e11) + 4 + e2 = 10+4 + e(11 + 2) = 2 + e1, que es una segunda menor sobre d y es, desde luego, una disonancia.
Una simetría de intervalos de contrapunto f permite “deformar” las consonancias k[e] (figura 5), de modo que los elementos de f(k[e]) son “consonancias deformadas”; algunas siguen siendo consonancias, pero otras no. Supongamos ahora que elegimos algún intervalo consonante a + eb que no es una disonancia deformada por f, es decir, a + eb no pertenece a f(k[e]). Entonces todos los restantes elementos que pertenecen a f(k[e]) y a k[e] son consonancias que “suavizan” la disonancia deformada a + eb. Esto permite introducir una tensión horizontal en el contrapunto, a pesar de que en el contrapunto de la primera especie debemos restringirnos a utilizar consonancias. Efectivamente: a un intervalo de contrapunto que es una consonancia podemos verlo como disonancia deformada, y entonces contraponerle un “sucesor” que sea al mismo tiempo un intervalo de contrapunto consonante y una consonancia deformada.
Naturalmente, nos gustaría que para un intervalo de contrapunto a + eb la simetría f sea tal que dispongamos de la mayor cantidad posible de elecciones para el intervalo de contrapunto sucesor. También es deseable que la polaridad relativa respecto de a intercambie a f(k[e]) y f(d[e]), es decir, que el mismo modo de intercambiar consonancias por disonancias intercambie consonancias y disonancias deformadas. Entonces, dado el intervalo de contrapunto a + eb, diremos que f es una “simetría de contrapunto” para dicho intervalo si se satisface lo siguiente: a) el intervalo a + eb no es una consonancia deformada por f, es decir, a + eb no está en f(k[e]); b) la polaridad relativa pa(x) intercambia consonancias deformadas por disonancias deformadas, esto es, pa(f(k[e])) = f(d[e]); c) el conjunto de consonancias que también son consonancias deformadas por f es el más grande posible, tal que f tiene las dos propiedades anteriores.
Dada una simetría de contrapunto f para un intervalo de contrapunto a + eb, todos los elementos que son tanto consonancias como consonancias deformadas por f son sucesores “admisibles” de a + eb. Tenemos entonces como resultado un teorema de contrapunto: cualquier intervalo de contrapunto consonante a + eb tiene al menos 36 sucesores admisibles. En particular, cada intervalo de contrapunto tiene una simetría de contrapunto. Además, si se elige de antemano el cantus firmus del intervalo sucesor, siempre existe al menos un sucesor admisible para dicho cantus firmus.
Ejemplo 6. Consideremos el intervalo de contrapunto 0 + e7 (la quinta perfecta sobre c) y la simetría g(a + eb) = 7(a + eb). Ésta es una simetría de contrapunto para el intervalo, pues g(k[e]) = Z12 + e{0, 1, 3, 4, 8, 9}, así que 0 + e7 no es una consonancia deformada.
Es fácil verificar que éste satisface el resto de las propiedades, y que el número de sucesores admisibles es de 60, lo cual significa que todos los intervalos consonantes pueden suceder a una quinta perfecta, salvo la quinta justa. Ésta es una regla que también da Fux en su tratado, la gran diferencia es que aquí es una consecuencia del modelo, y no un prerrequisito.
El teorema de contrapunto nos dice que para cualquier cantus firmus podemos componer un discanto exclusivamente con consonancias que son sucesores admisibles. También es interesante que, si restringimos a los tonos del cantus firmus y el discanto para que permanezcan en cierta escala, la escala que nos da la mayor libertad de elecciones para los sucesores es la escala mayor; solamente en dos casos el sucesor admisible es único. Lo contrario pasa con la escala melódica menor: en 16 casos el sucesor es único. Éstas son consecuencias que podrían deducirse de las reglas del contrapunto clásico, pero vale enfatizar que fueron deducidas de unos cuantos principios bien definidos.
En un análisis detallado realizado por Muzzulini y Mazzola, descubrieron que las reglas de Fux restringidas a una octava (el que denominan “estilo estricto restringido”) arrojan un total de 54 progresiones de contrapunto inadmisibles. El modelo matemático da 37 prohibiciones, y coincide con los de Fux en 21 ocasiones. La probabilidad de que alguien, sin saber nada de contrapunto, acierte a dar 21 prohibiciones de las 54 posibles en 37 intentos es ¡menos de 2 en cien millones!
Si bien este argumento favorece el modelo matemático, lo importante otra vez no es atinarle a las ideas de Fux, Palestrina u otros tratadistas o practicantes del contrapunto. Lo importante es la simplicidad, la precisión y la capacidad del modelo para extenderse a otros ámbitos. Por ejemplo, en su tesis de maestría, Jens Hichert demostró que (además de las consonancias y disonancias del contrapunto clásico occidental) existen otras cinco formas de bipartir los intervalos en “consonancias y disonancias”, de modo que el modelo funciona de manera idéntica. Una de esas biparticiones es: i = {2, 4, 5, 7, 9, 11}, j = {0, 1, 3, 6, 8, 10}, esto es, la llamada “dicotomía jonia”. Obsérvese que los elementos de i son los intervalos de cualquier escala mayor tomados a partir de su primer tono.
Usando el modelo del contrapunto con la dicotomía jonia y si restringimos el cantus firmus y el discanto a permanecer en una escala, la escala que nos da la mayor libertad de elección de sucesores admisibles es k* = {0, 3, 4, 7, 8, 9, 11}. Esta escala es casi el conjunto de las consonancias occidentales, y también es casi idéntica a una escala básica para las ragas hindúes: {0, 1, 3, 4, 7, 8, 9}. Resulta así que la música occidental y la hindú son antipodales, en el sentido de que intercambian los papeles de las consonancias y las escalas en sus composiciones, y se pone de manifiesto que la selección histórica del material musical en distintas culturas tiende a optimizar algunos parámetros abstractos.
Para finalizar, cabe mencionar que este modelo de contrapunto se ha verificado parcialmente a nivel neurológico. Los análisis con electroencefalogramas profundos hechos por un equipo liderado por el epilepsiólogo HeinzGregor Wieser y Guerino Mazzola han revelado que el cerebro responde fuertemente a la confrontación de las consonancias y las disonancias que resultan de aplicarle la polaridad. Además, han arrojado algo de luz sobre la interrelación de las emociones y la música: la conclusión es que la música por sí misma no produce emociones, sino que las recupera y las reactiva de entre aquellas presentes en la memoria.
Comentarios finales
Nuestro ejemplo final sobre la fructífera relación entre la matemática y la música pertenece a la teoría enumerativa, que constituye un acercamiento cuantitativo a la clasificación de composiciones locales vía acciones de grupos de permutaciones. El trabajo pionero en el área es de Harald Fripertinger. Esta teoría trata de contar las órbitas de acciones de grupos finitos en conjuntos finitos, los cuales representan objetos particulares especiales, es decir, acordes, particiones de conjuntos de clase de notas o de altura, motivos, sucesiones de 12 notas, etcétera. Los grupos consisten en transformaciones musicales interesantes, tales como la transposición y la inversión.
Un teorema de Fripertinger muestra, en particular, que el número de clases de los motivos de 72 elementos es de: 2 230 741 522 540 743 033 415 296 821 609 381 912 = 2.23…·1036 lo cual indica que no hay escasez de motivos para ser introducidos en la composición musical. Visto de otra manera, a cada estrella de la Vía Láctea podríamos dedicarle una única melodía de más de un millardo de millardos de motivos distintos de 72 tonos.
La música pertenece a los humanos y no aparece ya como una revelación de las divinidades de cualquier índole. Esta renovación se debe también al inmenso arsenal de información y tecnología comunicativa donde la información se convierte en algo muy accesible y la carencia de precisión es de inmediato señalada. Esta situación da lugar a una nueva y fundamental manera de entender el conocimiento humano.
El conocimiento está actualizándose y extendiéndose constantemente, y en él navegamos y experimentamos con un espíritu de espaciotiempo dinámico. Ahora tenemos nuevos paradigmas en musicología. Recordemos el experimento de Galileo acerca de la velocidad instantánea. Su aproximación al problema de la caída libre de los cuerpos fue esencialmente la de la observación y la medición, y no la elaboración de reflexiones abstractas y especulativas. Su punto clave fue el de pasar del encapsulamiento especulativo de Oresme y los científicos medievales a la accesibilidad del “hacer ciencia” con el método operacional: pensar haciendo. Este episodio tiene un análogo musicológico: la velocidad en física con tiempo musical… solamente que 500 años después.
Esto coloca a la física y la musicología en vías paralelas, donde hoy músicos activos y matemáticos, entre otros, están al borde de lo explícito y dejan las especulaciones irrelevantes donde corresponde. Se está abandonando las últimas retóricas vacías. La evolución galileana fue la respuesta a la supuesta profundidad del discurso retórico. Si consideramos los universos creados por el hombre, tales como la matemática y la música, podremos ver que tales universos internos no son menos complicados e incontrolables que la naturaleza externa. Una pieza de naturaleza incontrolable, con su riqueza creativa, con la increíble complejidad nacida de procesos combinatorios, estrategias de interpretación, estratificación semiótica, etcétera, como lo es el Arte de la Fuga de J. S. Bach, no es fundamentalmente diferente de una estrella de neutrones en el espacio interestelar. Estamos viviendo actualmente un cambio tan radical en la musicología como el que se experimentó en la física hace 500 años. ¡Sin duda es un momento maravilloso!
|
|
||||||||||||||||||||||||||||||||||||||||||||||||
|
Referencias bibliográficas
Aceff F. y E. LluisPuebla. 2006. “Matemática en la Matemática, Música, Medicina y Aeronáutica”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Divulgación, vol. 1.
_____. 2007. “Matemática en la Matemática II, Música II, Naturaleza y Nuestro Cuerpo”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Divulgación, vol. 2.
AgustínAquino, Octavio Alberto. 2009. El Teorema de Contrapunto. Tesis de maestría, unam, México.
_____, J. du Plessis, E. LluisPuebla y M. Montiel. 2009. “Una Introducción a la Teoría de Grupos con Aplicaciones en la Teoría Matemática de la Música”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Textos, vol. 10.
Fux, J. J. 1725. Gradus ad Parnassum. Facsímil. Moments of Music and Music Literature, Broude Brothers, Nueva York. 1966.
Hichert, J. 1993. Verallgemeinung des Kontrapunkttheorems für die Hierarchie aller starkenDichotomien in temperierter Stimmung. Tesis de maestría, TU Ilmenau.
Jeppesen, K. 1992. Counterpoint: The Polyphonic Vocal Style of Sixteenth Century. Dover, Nueva York.
LluisPuebla, E. 1990. Álgebra homológica, cohomología de grupos y Kteoría algebraica clásica. Addison Wesley Iberoamericana, México (2a ed.” en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Textos, vol. 5).
Mazzola, Guerino (contribuyentes: E. LluisPuebla et al.). 2002. The Topos of Music. BirkhäuserVerlag, Basilea.
Mazzola, Guerino. 2007. La vérité du beau dans la Musique. Delatourircam, París.
Montiel Hernández, M. 1999. El denotador: su estructura, construcción y papel en la teoría matemática de la música. Tesis de Maestría, unam, México.
Schönberg, A. 1974. Tratado de armonía. Trad. Ramón Barce. Real Musical, Madrid.
|
|||||||||||||||||||||||||||||||||||||||||||||||||
|
____________________________________________________________
|
|||||||||||||||||||||||||||||||||||||||||||||||||
|
Octavio A. Agustín Aquino
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Estudió la licenciatura en Matemáticas Aplicadas en la Universidad Tecnológica de la Mixteca (Huajuapan de León, Oaxaca) y la Maestría en Ciencias Matemáticas en la Universidad Nacional Autónoma de México. Actualmente es estudiante del Doctorado en Ciencias Matemáticas en la UNAM.
Emilio Lluis Puebla
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Realizó sus estudios profesionales y de Maestría en Matemática en México. En 1980 obtuvo su Doctorado en Matemática en Canadá. Es catedrático de la Universidad Nacional Autónoma de México desde hace más de treinta años. Ha sido profesor visitante en Canadá.
como citar este artículo →
Agustín Aquino, Octavio A. y Lluis Puebla, Emilio. (2011). Una invitación a la teoría matemática de la música. II. Armonía y contrapunto. Ciencias 102, abril-junio, 68-77. [En línea]
|
|||||||||||||||||||||||||||||||||||||||||||||||||
|
PDF →
|
||||||||
| Percepciones del tiempo y el espacio en las ciencias naturales | |||||||||
| Ramón Peralta y Fabi | |||||||||
|
Pocos temas de ciencia son tratados por los filósofos con la
regularidad con la que se abordan los conceptos de tiempo y espacio. Seguramente tiene que ver con el hecho de que nos son propios a todos. Nadie escapa a su uso cotidiano y si se le pregunta a (casi) cualquiera sobre lo que significan, responderá que sí, desde luego. Pedir que lo ponga por escrito es otro asunto, pues fácilmente se percibe que las definiciones son escurridizas, vagas o circulares. La dirección en la que afinará una idea más precisa dependerá de lo que hace la persona.
Es en el uso cotidiano de espacio y tiempo donde caben nuestras intuiciones sobre cada uno de ellos. El primero, como el escenario o foro en el que están las cosas que son, naturales o abstractas; el “continente”, se dice. En cuanto al tiempo, es el cambio el elemento sustantivo; sin variaciones no hay tiempo o éste no “transcurre”, no fluye. Ciertamente se puede revisar diccionarios o enciclopedias para hallar acepciones que confirmen lo que uno ya entiende o cree saber. El problema será que incluyan cada uno de los aspectos de nuestras experiencias.
Está el punto de vista metafísico. Hay que leer a algunos de los pensadores que han escrito a lo largo de la historia para apreciar las dificultades de ser claro y preciso. Cuando se recurre a la Física de Aristóteles (384-322 a.C.), habiéndose perdido más de 80% de lo que presumiblemente escribió, uno se da cuenta qué tan lejos está de quienes nos interesamos en el tema desde las ciencias naturales; lo único que la física moderna conserva de Aristóteles es la palabra “física”. Algo semejante ocurre si se van revisando distintas construcciones de estos conceptos en lo escrito por otros autores igualmente distinguidos, pasando por el poema de Tito Lucrecio Caro (99-55 a.C.), en el que resume para los latinos la cultura helénica, o más de mil años después por Immanuel Kant (1724-1804), y doscientos más tarde en Martin Heidegger (1889-1976), por citar algunos; a los científicos poco o nada nos aportan.
En las ciencias naturales, como la biología, la química y la física, el tiempo y el espacio son parte esencial, aunque cabe decir, pocas veces son definidos, aclarados o analizados con cuidado. Por otro lado, como parte de la formación científica se hace referencia a las formas de medir uno u otro, y a las muy diversas escalas de ambos, dependiendo de los fenómenos de interés.
Las escalas de tiempo en la biología varían de los miles de millones de años (1016segundos; 102=100, 104=10 000,…), cuando se estudian vestigios primordiales (fósiles) en el contexto del origen de la vida, hasta los diezmilésimos de segundo (10–4s; 10–3=1/1 000, 106=1/1 000 000,…), en los que ocurren procesos celulares o bioquímicos, como el doblamiento de proteínas o la replicación parcial de un ácido ribonucleico. Los “relojes” correspondientes a estas escalas son igualmente diversos.
En cuanto al espacio, se acepta implícitamente la noción clásica del “foro inerte” o absoluto en el que las cosas se dan u ocurren. Pero dentro de éste, hay un espacio que tiene un sentido biocéntrico, en tanto que se percibe como el entorno inmediato que circunda a un ser vivo o a una colectividad de éstos, un nicho ecológico. Este escenario interacciona con los “actores”, modificándose mutuamente; la ecología y las discusiones sobre el cambio climático comparten este fondo. Las escalas espaciales no tienen el intervalo de las temporales y también son biocéntricas: de kilómetros (ecosistemas) a nanómetros (virus, de vida debatible).
En química también se presume un tiempo y un espacio con carácter absoluto. Es decir, los elementos y los compuestos, junto con los procesos que conciernen a la reactividad, esencial en esta disciplina, suceden igual en cualquier momento (invariancia en el tiempo) y la ubicación es irrelevante (invariancia traslacional), en tanto que se cuiden las condiciones de reproducibilidad, como presión, temperatura, etcétera. Las escalas espaciales barren desde las atómicas (10–8m) a las industriales, mientras que las temporales se extienden por muchos órdenes de magnitud: de femtosegundos (10–15s) que duran ciertas reacciones químicas, y se miden con láseres pulsados, hasta las geológicas, típicas de los procesos de formación de rocas y estructuras cristalinas gigantes (1014s).
En física, los conceptos de espacio y tiempo son una parte íntima de la infraestructura, de su entramado más fundamental, y la revisión de éstos, innecesaria en las otras ciencias naturales, ha llevado a transformaciones esenciales.
Desde las primeras teorías de la física, como los trabajos de Galileo Galilei (1564-1642) y de Isaac Newton (1643-1727), el espacio y el tiempo tienen un sentido absoluto. El primero, práctico, los supone evidentes y construye las formas de medirlos, diseñando relojes y patrones de longitud. Así, mejora la clépsidra egipcia, ya asimilada en la cultura latina, que mide tiempos en función del goteo de una vasija bien calibrada, y descubre la isocronía de los péndulos, cuyo periodo de oscilación sólo depende de su longitud y no del material, tamaño de la lenteja que pende o de otras cosas, en tanto que los ángulos iniciales no excedieran 20°. En la obra cumbre de Newton, Principia, se hace la hipótesis implícita de que tanto el tiempo como el espacio tienen este carácter. Gottfried W. Leibniz, en el terreno metafísico e involuntariamente usando a un conocido común, entabla con Newton un debate más sobre tales conceptos. Mientras este último parece imaginarlos como algo absoluto y casi material y tangible, Leibniz introduce un aspecto “relacional”, dándoles más valor en función de los objetos circundantes que por su ubicación o duración. Esta discusión, irrelevante para la física, es tal vez la única hasta los inicios del siglo XX, en que se modificó de fondo el fino entretejido de la física.
Albert Einstein (1879-1955), al revisar los fundamentos de la mecánica de Newton y del electromagnetismo propuesto por James C. Maxwell (1831-1879), y con la información de ciertos experimentos cruciales, formuló la teoría de la relatividad especial en 1905. En ella, el espacio y el tiempo pasan a ser uno, articulados en un espacio nuevo de cuatro dimensiones y con el límite de que ninguna señal o movimiento puede exceder la velocidad de la luz, reconocida desde entonces como una constante universal. En paralelo, se iba erigiendo una nueva teoría del átomo, sus componentes y sus comportamientos; como en la relatividad, las cosas dejaban de ser intuitivamente claras, subsistiendo en ambas teorías el tiempo y el espacio como testigos inertes.
Para 1916, Einstein había concluido su más profunda revolución intelectual. En su teoría de la relatividad general se modificaba la esencia misma de la física, en tanto que el espaciotiempo se convertía en un ente dinámico que cambiaría con los fenómenos naturales. El foro espaciotemporal dejaba de ser fijo ante los actores para ser uno más de los participantes, cambiando con ellos y retroalimentándose unos a otros. Ahora, las masas y su dinámica evolucionan cambiando el tiempo y el espacio, que a su vez les afecta. Como metáfora, semeja la imagen ecológica. Einstein buscó durante el resto de su vida una manera de hacer ambas teorías compatibles, es decir, construir lo que se llama la teoría unificada del campo, referida a los campos gravitacionales y cuánticos.
Una parte de la estrategia fue el desarrollar la física cuántica de modo que la relatividad especial se pudiese incorporar, permitiendo que las partículas cargadas, por ejemplo, fueran descritas adecuadamente. El primer éxito, relativamente inmediato, fue la teoría de Dirac para los electrones. Con el paso de las décadas y muchos premios Nobel más, la teoría se convirtió en la electrodinámica cuántica y a la versión actual se le llama modelo estándar. Toda la dinámica de las partículas elementales, en términos de elementos más primarios, como los cuarks y los gluones, está descrita por esta teoría y sus bases experimentales son sólidas y aceptadas por la comunidad; esto no quiere decir que esté libre de problemas, de verificaciones pendientes y de suposiciones necesarias, cuyas justificaciones estén por encontrarse, si las hay. Aun incompleta, es sin duda la teoría fundamental más completa que se ha elaborado en la historia de la física. Pero sigue siendo incompatible con un foro cambiante, con la gravedad. La búsqueda para hallar una forma de integrar gravedad y cuántica sigue intensa, e infructuosa. Es interesante saber que las observaciones o los experimentos han llegado a tales grados de precisión, que es difícil saber qué teoría está mejor apoyada experimentalmente; el modelo estándar tiene predicciones confirmadas hasta en once cifras significativas, lo que es extraordinario; la relatividad general, por ahora, va un poco más allá gracias a observaciones efectuadas a lo largo de más de veinte años, ya con catorce cifras significativas.
Una opción es que una de las dos teorías básicas, la relatividad general o el modelo estándar, esté equivocada o requiera una modificación importante; la llamada materia oscura y la energía oscura constituyen un problema para la física hoy conocida y podrían llevar a cambios estructurales en una de ellas o en las dos. Otra opción es que ambas teorías sean la manifestación de una teoría más general, que las englobe, las unifique. En este sentido, hay veredas muy diversas, pero principalmente dos teorías, las cuerdas y los lazos, y son las opciones con mayor número de investigadores activos en el mundo, sobre todo la primera.
La teoría de cuerdas fue por varias décadas la parte más efervescente de la física. Una teoría elegante y “simple” que fue creciendo y haciéndose cada vez más abstracta. Por más tiempo de lo que es saludable fue moda; las dimensiones extras “necesarias” (nueve como mínimo) y sus “compactificaciones”, las supersimetrías, las supercuerdas, las branas o las conjeturas de la teoría M, de Maldacena, o la de Witten, son parte del lenguaje de los iniciados y del proyecto que esa teoría representa. Por cerca de treinta años ha sido incapaz de tener los elementos básicos de lo que los físicos han hecho por cerca de 400 años; es decir, sobre una base experimental, hacer hipótesis y formar un corpus —en lenguaje matemático— que pueda identificarse, analizarse y manipularse para hacer alguna predicción experimental; nada de esto ha ocurrido. Actualmente puede decirse que son un conjunto de especulaciones que, con una intensa producción de artículos —más de 50 000 en dos décadas— y de recursos, empieza a perder credibilidad; hoy, como teoría física, está hueca.
La teoría de lazos aún está en desarrollo y no hay certeza de que sea el camino correcto, si es que éste existe. No es la única opción restante, pero los caminos se angostan y se mira distante la gran unificación. El trasfondo es, por supuesto, el papel del tiempo y del espacio.
No se ha encontrado una forma de “cuantizar” las ecuaciones de Einstein, ni de incorporar un espaciotiempo dinámico en la teoría cuántica. En todo caso, habría que decir que los intentos han dado pie a resultados con soluciones múltiples o que no pueden ser físicamente plausibles. Por ejemplo, se ha planteado que el espaciotiempo tiene una escala mínima —cuantizándose el foro— de modo que deja de ser continuo, generando escalas temporales y espaciales discretas. Los actores ya no pueden ocupar cualquier rincón del escenario, ni estar “presentes” todo el tiempo. En otro enfoque, la curvatura es un efecto cuántico; el espaciotiempo es plano, si no se llega a escalas muy pequeñas, como cuando inició el universo con la gran explosión, o si las densidades no son demasiado altas, como en un hoyo negro.
Cabe mencionar que un tiempo “natural” que aparece en la física es tp, el “tiempo de Planck”, resultado de una combinación única de tres constantes fundamentales de la naturaleza; a saber, tp=(Gh/c5)1/2, siendo G la constante de la gravitación universal, c la velocidad de la luz y h la constante de Planck; el valor numérico de tp es 1.35×10–43s, lapso difícilmente imaginable en su pequeñez. ¿Tiene sentido hablar de tiempos más cortos?, ¿son detectables? o ¿son relevantes en algún contexto? Las respuestas son que tal vez no, no y sí, respectivamente. Las limitaciones impuestas por la física cuántica sugieren que, en tiempos tan cortos, la energía involucrada excede todos los procesos conocidos, salvo en la gran explosión, donde la gravedad cuántica (de haberla) debería entrar en juego; así, este tiempo podría ser una cara de la textura más fina posible del tiempo en el “quantum del espaciotiempo” aludido anteriormente. La longitud correspondiente a tp es lp, también una combinación única de las constantes fundamentales lp=(Gh/c3)1/2, llamada longitud de Planck, y cuyo valor numérico es 4.05×1035m; se interpreta como la distancia que recorre la luz en el tiempo de Planck. Longitudes más cortas se enfrentan también a los límites de la física cuántica.
Así, el problema de la gravedad cuántica subsiste y nos reta, tal vez para siempre. La visión reduccionista, en la que se busca una teoría que todo lo incluya y aparece la “ecuación de universo”, es una quimera. En cada escala hay fenómenos emergentes en los que poco o nada tienen que ver los detalles de las otras escalas, mayores o menores. Creer que se pueden explicar todas las cosas a partir de unas cuantas suposiciones (leyes) es, o debiera ser, parte del pasado. Sí, por supuesto, se han ido descubriendo leyes naturales que parecen cumplirse a cabalidad, en su “zona” de influencia, y se esperaría que no fueran contradictorias entre ellas, como hoy lo son. Si la aritmética es incompleta de manera esencial, por la física, mi pasión profesional, apostaría mucho menos.
Confieso que nunca escuché una discusión formal, asociada a un curso o a una conferencia profesional, sobre el tiempo y el espacio; parte es, desde luego, que no cursé Relatividad general, donde se le debe dar algún sentido a las ecuaciones de Einstein, algo que debería hacerse en cualquier curso que atienda el movimiento. En general, la educación del físico no aborda los aspectos fundamentales y más profundos de nuestra ciencia; se cae fácilmente en la parte metodológica, de cálculo o de instrumentación, antes que abordar la de interpretación previa y posterior al análisis, el que sea. Fomentar la lectura del sustento conceptual de la física, de la reflexión sobre las ideas y la escritura, no es un tema que se atienda en la formación científica.
Tiempo y espacio son pues conceptos de la filosofía, de la ciencia y de la vida cotidiana, inagotables en su diversidad y versatilidad. Se seguirá leyendo y escribiendo sobre estos temas, con la expectativa de disipar un poco las dudas que hay, localizadas en particularidades, cuando no en los pilares mismos de una disciplina, como sucede en la física.
En el fondo, se trata de seguir con la interminable tarea de hacer el universo inteligible, alejando el pensamiento débil que solicita intervenciones divinas donde no hace falta, que nubla la vista y desarticula un exitoso quehacer que lleva ya cientos de años.
La educación es la tarea central en una sociedad como la nuestra, como la latinoamericana, o la de todas las sociedades con atraso en su desarrollo. Eliminar la injusticia y la desigualdad requiere como condición necesaria, sin que sea suficiente, la educación.
Cuando la arrogancia de pretender entenderlo todo, o de creer que se tiene un diálogo con un ser que todo lo trasciende, haya desaparecido —lejana esperanza—, se contará con la humildad para apreciar el lugar inconspicuo que ocupamos en el universo. Deambulamos alrededor de una estrella común y corriente, como la mayoría de las que se miran con asombro en una noche constelada, y dicha estrella está en una parte alejada dentro de una galaxia espiral, la Vía Láctea, que gira sobre sí misma y se dirige hacia otra con la que —dentro de millones de años— habrá de colisionar para formar una nueva. Ambas son como las otras millones de galaxias que navegan en el firmamento de nuestras noches.
|
|||||||||
|
Referencias bibliográficas
Aristóteles. 184 a.C. Física, Libro 5. Trad. U. Schmidt Osmanczik. unam, México, 2001.
Berenzon, B. y G. Calderón (eds). 2008. Diccionario Tiempo Espacio. unam, México.
El Colegio de México. 2009. Diccionario del español usual en México. Colmex, México.
Einstein, A. 1922. The Meaning of Relativity. Princeton Science Library, Nueva Jersey.
Lucrecio Caro, Tito. 99 a.C. De la natura de las cosas Libro I. Trad. R. Bonifaz Nuño. unam, México, 1984,
Hawking, S., 1985. “The arrow of time in cosmology”, en Physical Review D, vol. 32, núm. 10, pp. 2489-2495.
y Penrose, R. 1996. The Nature of Space and Time. Princeton Science Library, Nueva Jersey.
Kant, Immanuel. 1781. Crítica de la razón pura. Ed. Libertador, Buenos Aires, 2008.
Martin Heidegger. 1954. Filosofía, ciencia y técnica, Trad. F. Soler y J. Acevedo, Ed. Universitaria, Santiago de Chile, 2007.
Newton, I. 1687. The Principia (Philosophiae Naturalis Principia Mathematica). Trad. A. Motte. Prometheus Books, Nueva York, 1995.
Peralta y Fabi, R. 2010. “El entramado del Universo”, en Los elementos del tiempo y el espacio. Berenzon, B. y G.Calderón (eds.). unamipchconacyt (en prensa).
Smolin, L. 2006. The Trouble with Physics: The Rise of String Theory, The Fall of a Science, and What Comes Next. Mariner Books, Boston.
|
|||||||||
|
___________________________________________________________
|
|||||||||
|
Ramón Peralta y Fabi
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Es Doctor en Ciencias en el área de dinámica de fluidos y física estadística, pionero en la docencia e investigación en estos campos. Fue director de la Facultad de Ciencias de la UNAM.
como citar este artículo →
Peralta y Fabi, Ramón. (2011). Percepciones del tiempo y el espacio en las ciencias naturales. Ciencias 102, abril-junio, 60-66. [En línea]
|
|||||||||
|
PDF →
|
||||||||||||||||||||
|
La forma de la Tierra
|
|||||||||||||||||||||
| Antonio Sarmiento Galán | |||||||||||||||||||||
|
A manera de introducción, una pregunta al lector. Recordemos
lo que sabemos de la forma de la Tierra e intentemos responder, sin premura alguna: ¿cuál es el sitio más alto de la Tierra? La mayoría de las respuestas mencionan invariablemente al Monte Everest, una montaña caliza (carbonato de calcio) situada en los Himalayas orientales entre Nepal y Tíbet, a 27.6 grados de latitud N, cuyo pico está a 8 872 metros. Su nombre en tibetano es, utilizando nuestros caracteres, Qomolangma, y quiere decir: Diosa madre del mundo.
Pocos son los que contestan Mauna Kea (Montaña blanca), un volcán durmiente en la isla mayor de Hawaii (19.5 °N), cuya cima está a 4 205 metros y su base a 5 547 metros bajo el nivel del mar. Su mención se debe, esencialmente, a que es un excelente sitio para la observación astronómica. Y raro es que se mencione el Chimborazo, un pico volcánico en los Andes en Ecuador (1.3 °S), cuyo cráter está cubierto por una gruesa capa de hielo que, al derretirse en verano, desciende por la pendiente oriental hacia el Amazonas. Su cima se encuentra a 6 267 metros sobre el nivel del mar.
Ahora, se recordará que la pregunta se hizo precedida de la sugerencia de recordar lo que sabemos de la forma de la Tierra. Por lo general, en las escuelas se enseña que la Tierra es un esferoide oblato, algo así como una esfera, un poco más ancha que alta. En la figura 1 se le muestra, un poco exagerada, la diferencia entre lo ancho y lo alto, así como la ubicación latitudinal aproximada de los tres sitios mencionados.
Con la ayuda de esta figura vemos claramente que la respuesta correcta dependerá de la base que se tome para medir la altura; es decir, si medimos respecto del nivel del mar, el Everest es el punto más alto en la atmósfera, pero si lo hacemos desde la base de las montañas, el más alto es el Mauna Kea, pues su altura desde el fondo del océano es de 9 752 metros. Finalmente, si queremos ser precisos, debemos medir desde el centro de la Tierra, entonces el sitio más alejado de dicho punto es el Chimborazo. La razón es evidente si volvemos la vista a la figura 1, pues la superficie de la Tierra se aleja más del centro mientras más se acerque uno al ecuador.
Un poco de historia
Como es usual en la historia occidental, donde el crédito de descubrimientos o logros se otorga a una sola persona, en pocos sitios se ha registrado el nombre del sherpa que llevó a Edmund Hillary a la cima del Everest el 29 de mayo de 1953: Tenzing Norgay (19141986), un indonepalí, cuyo nombre original era Namgyal Wangdi, conocido como Sherpa Tenzing. Tampoco es frecuente que se mencione a Lhakpa Tenzing Sherpa, conocido como Sherpa Apa, quien en mayo de 2010 subió por vigésima vez al Everest —un récord que debería estar entre los más mencionados y conocidos en todo el mundo.
Sabemos entonces que la Tierra es un esferoide oblato, pero ¿a qué se debe dicha forma? La rotación de la Tierra genera una fuerza inercial a la que llamamos fuerza centrífuga; ésta no es una fuerza real, sino que aparece por el hecho de que la Tierra está girando, es decir, es un sistema no inercial (de ahí el nombre de fuerza inercial) y su dirección es hacia afuera a partir del centro de la Tierra. Como el eje de rotación atraviesa los polos, éstos no giran, y por lo tanto la fuerza desaparece en ellos, pero su intensidad va aumentando a medida que nos alejamos de éstos y alcanza su máximo valor en el ecuador. Esta variación de la fuerza centrífuga por la latitud ha hecho que después de algunos miles de millones de años de rotar alrededor de su eje, la Tierra haya adquirido la forma de esferoide oblato (o esfera aplanada).
Las medidas precisas de la forma oblata de la Tierra indican que el eje ecuatorial es 21.4 km (0.33%) mayor que el eje polar. La primera consecuencia de esta forma de la Tierra es la variación en la aceleración de la gravedad por la latitud. Recordemos que, en una primera aproximación, la atracción gravitacional varía en forma inversamente proporcional al cuadrado de la distancia, es decir, mientras más cerca del centro, mayor es su valor. De esta manera tenemos que la variación en la aceleración de la gravedad por la latitud se debe a la disminución de la distancia al centro de la Tierra conforme aumenta la latitud. Los valores extremos son el famoso 9.78 metros/segundos2 en el ecuador y el no tan conocido 9.83 m/s2 en ambos polos. Esta variación ya ocasionó un famoso y vergonzante problema con un cargamento de oro enviado de Port Elizabeth, en Suráfrica, a Londres, cuyo peso cambió aun cuando no se había violado el cofre en el que el metal era transportado (el detalle del problema escapa a la intención de este trabajo y el lector acucioso podrá localizarlo fácilmente).
La demarcación entre continentes y océanos, lo que conocemos como el contorno de elevación cero respecto del nivel del mar, queda determinada por un balance entre dos fuerzas que mantienen un equilibrio muy frágil: la fuerza centrífuga causada por la rotación de la Tierra, hacia fuera, y la atracción gravitacional terrestre, hacia el centro de la Tierra. Aunque sabemos que el calentamiento global está causando un aumento considerable en el nivel de los océanos, en este trabajo nos restringiremos a la geometría de la Tierra y las enormes cantidades de energía que determinan el nivel de los océanos; los catastróficos efectos del calentamiento global se discuten en una gran cantidad de publicaciones de fácil acceso, como el informe elaborado por el ipcc en 2007.
La rotación de la Tierra es muy rápida, su velocidad tangencial alcanza un valor máximo de 1 667 km/hora en el ecuador, lo cual ocasiona que la profundidad promedio de los océanos en el ecuador sea de 8 kilómetros. Pero, ¿qué pasaría si la Tierra no girase sobre su eje?
La Tierra estática
¿Cómo sería la Tierra sin rotar?, es decir, una vez que la fuerza centrífuga ha desaparecido. La traslación alrededor del Sol y la inclinación del eje terrestre seguirían siendo iguales, por lo que la duración de un año sería la misma, pero un día duraría lo mismo que un año. Los cambios climáticos y geológicos serían catastróficos por la transformación de las superficies equipotenciales, pero lo que nos interesa señalar es que ahora tendríamos que la atracción gravitacional es mayor en las regiones polares, intermedia en latitudes meridionales, y menor a grandes altitudes (figura 2).
Como el agua migra siempre hacia los sitios en donde la atracción gravitacional es mayor, esto es, a los sitios más cercanos al centro de la Tierra, esta situación hipotética causaría que toda la zona ecuatorial emergiese, dando origen a un continente ecuatorial enorme y a dos océanos polares (hacemos abstracción del efecto de los cuerpos celestes prominentes, como la Luna o el Sol, sobre el nivel de los océanos debido a la poca masa de la primera y a la gran distancia que nos separa del segundo).
La figura 3 muestra el resultado de las suposiciones hechas en el párrafo anterior. Si la Tierra fuese un esferoide perfecto, entonces la línea que delimitaría las áreas que hidrológicamente contribuirían a cada uno de los océanos debería seguir la del ecuador. Sin embargo, el relieve tanto de los continentes como del fondo de los océanos hace que dicha línea se desvíe notablemente (línea gruesa).
Volviendo a la pregunta del principio, en esta situación hipotética tendríamos que la altitud de los dos volcanes ecuatoriales, el Chimborazo (Ecuador) y el Kilimanjaro (Tanzania) sería de 13 615 y 12 786 metros, respectivamente. La figura 4 muestra el detalle de lo que sería el nuevo continente alrededor de nuestro país; curiosamente, la gráfica recuerda nítidamente la imagen de la Nueva España antes de las invasiones norteamericanas. Asimismo en la figura 5 se muestra la proyección del enorme continente ecuatorial y los dos océanos inconexos; las zonas cercanas al continente son someras mientras que las polares son muy profundas. Las antiguas planicies abisales y las trincheras oceánicas se convierten en mares interiores al nuevo continente.
Con este experimento ficticio esperemos hayan quedado más claras la influencia y la magnitud de las fuerzas que en frágil equilibrio determinan el nivel de los océanos, así como la enorme cantidad de energía involucrada en dicho equilibrio. El geoide determinado vía satélite
Recientemente, dada la obsolescencia del World Geodetic System y la necesidad de conocer en detalle las diversas condiciones de nuestro planeta ante el calentamiento global, se han puesto en órbita varios satélites que nos permiten conocer, entre muchas otras cosas, la forma de la Tierra. El más reciente, conocido como el Explorador del campo gravitacional y la circulación oceánica estacionaria (Gravity Field and SteadyState Ocean Circulation Explorer, goce), fue lanzado el 17 de marzo de 2009 por la Agencia Espacial Europea (esa por sus siglas en inglés). Su misión ha logrado un nuevo nivel en el conocimiento de una de las fuerzas fundamentales de la naturaleza: el campo gravitacional terrestre.
Por ello se emplea el llamado geoide, que es una superficie imaginaria sobre la cual el potencial gravitacional terrestre tiene un valor único, es decir, constituye la superficie horizontal definida como la superficie donde la atracción gravitacional terrestre en cualquiera de sus puntos es perpendicular a ella. El geoide se puede pensar como el nivel de un océano global imaginario en ausencia de mareas, corrientes y vientos; es un sistema de referencia crucial para medir con precisión la circulación de los océanos, el cambio en su nivel y la dinámica del hielo —todos afectados por el calentamiento global.
El goce mide el campo gravitacional terrestre, y con los datos se modela el geoide con una precisión y resolución espacial sin precedente alguno. El satélite no tiene partes móviles que pudiesen afectar su estabilidad al momento de realizar las mediciones del campo gravitacional; su órbita es la más baja jamás sostenida por un satélite durante lapsos grandes, 254.9 km, lo que obedece al hecho ya mencionado de que las variaciones gravitacionales son tanto más fuertes cuanto más cerca se está del centro de la Tierra. El aire residual a esta altitud causa que la órbita decaiga rápidamente; sin embargo, el goce nulifica en forma continua la fricción mediante un motor que expulsa iones de xenón a velocidades superiores a 40 km/s, modulando la aceleración para mantener una altitud fija; además, su forma es la de un cuerpo delgado, de sección octagonal, de 5 metros de longitud por uno de ancho, configurado para reducir al mínimo tanto el arrastre aerodinámico del aire residual como la torca sobre el mismo (figura 6). Con todo ello se asegura que los sensores gravitacionales vayan en caída libre y que sólo registren el campo gravitacional y no las perturbaciones de otras fuerzas.
La figura 6 muestra esquemáticamente la información obtenida a partir de las mediciones del satélite. Se ilustra tanto la superficie del esferoide (1) como del geoide (3) que es determinado por las mediciones realizadas por el goce (2). El hecho de que esta última superficie esté determinada por un único valor del potencial gravitacional se muestra con una pelota que permanece estacionaria a pesar de que parezca como si el geoide tuviese una pendiente en donde se ha colocado dicha pelota (4). La dinámica de los océanos (5) se logra medir actualmente vía satélite con una precisión sorprendente, y si recordamos que el geoide muestra el nivel que los océanos tendrían en ausencia de mareas, corrientes y vientos, resulta entonces que con sólo restar el geoide al comportamiento observado de los océanos podemos obtener la influencia que tales efectos tienen sobre la dinámica de éstos últimos (6). Es una información crítica para elaborar modelos de circulación global de los océanos, en los cuales se intenta representar la forma en que se realizan las enormes trasferencias de energía alrededor del planeta.
En geofísica, la información derivada de los mediciones del goce podrá utilizarse para detectar lo que ocurre a grandes profundidades, sobre todo en sitios propensos a terremotos o erupciones volcánicas —desplazamientos de placas tectónicas, flujos subterráneos de lava (7). Uno de los beneficios más importantes de los datos obtenidos es el poder contar con un sistema universal que permita la comparación de alturas en cualquier lugar de la Tierra (8) —en la construcción de grandes obras, por ejemplo, permitirá saber en que dirección fluirá de manera natural el contenido de un ducto.
En sitios de acceso difícil, como los Himalayas o los Andes, las mediciones proporcionan nueva información; para la Antártida en particular, donde no es fácil medir las variaciones del campo gravitacional que son vitales para conocer el flujo de hielo y su dinámica ante el calentamiento global (9), la información es de importancia primordial, ya que intentar medir las variaciones de muy alta frecuencia por medio de aeroplanos no sólo es imposible por la benéfica carencia de suficientes aeropuertos, sino indeseable por las consecuencias adicionales de la gran cantidad de vuelos que se realizarían sobre los glaciares que afectarían su dinámica.
La impresionante precisión de los gradiómetros gravitacionales, variaciones de una parte en diez billones de la gravedad terrestre, se logra con el uso de bloques de platino extremadamente uniformes que permiten la medida simultánea de seis desplazamientos.
Estas seis mediciones corresponden a los desplazamientos de los bloques en las direcciones usuales de los sistemas de referencia y a los desplazamientos en las direcciones perpendiculares a ellas.
Los resultados de las mediciones preliminares realizadas durante los meses de noviembre y diciembre de 2009 muestran, por ejemplo, que en el Atlántico norte, cerca de Islandia, el geoide está a 80 metros por arriba del elipsoide, mientras que en el océano Índico se encuentra a 100 metros por debajo del elipsoide.
Otro de los resultados preliminares de las multicitadas mediciones, esta vez en el campo de la geología submarina, es el hecho de que la Gran Bretaña, Irlanda y demás, no son en realidad islas, sino que se encuentran unidas a Europa. Esto permite entender también cómo fue posible construir en 1994 el túnel submarino que une a Inglaterra con Francia en el estrecho de Dover, cuya profundidad máxima es de sólo 75 metros.
La confirmación indirecta
Aunque orientado en sentido distinto, existe un experimento que realiza mediciones equivalentes y también lo hace vía satélite. Su propósito es el de comprobar las predicciones de la teoría general de la relatividad, que ya es bisecular o trisecular si se incluye el experimento de Albert Michelson y Edward Morley realizado en 1887 y la publicación de La ciencia de la mecánica de Ernst Mach en 1893, ambos íntimamente ligados. El experimento, llamado Gravity Probe B, está diseñado para medir el arrastre del espaciotiempo alrededor de un objeto en rotación (gravitomagnetismo), propuesto por Josef Lense y Hans Thirring en 1918, un año antes de que ocurriese el eclipse solar que permitió a Frank Watson Dyson, Arthur Stanley Eddington y C. R. Davidson medir la desviación de la luz predicha por Albert Einstein en 1911.
Si la teoría es correcta, un giróscopo libre de toda interacción y en órbita alrededor de la Tierra deberá girar en la dirección de la rotación terrestre con una rapidez de 40.9 milisegundos de arco por año, es decir, poco más de 11 millonésimas de grado por año (figura 7). Para tener una idea de lo que ello significa, un milisegundo de arco es el ángulo subtendido por un cabello situado a 16.093 km de distancia, o bien, al observar desde París una moneda de un centavo de dólar norteamericano situada en la estatua de la Libertad, esto equivale a diez veces el tamaño del ángulo subtendido por el ojo de Lincoln en dicha moneda.
Las mediciones se llevan a cabo mediante cuatro giróscopos de cuarzo fundido con un diámetro de 3.81± 0.00000762 centímetros, cubiertos con niobium, sometidos previamente a pruebas que garantizan la más alta homogeneidad, esfericidad mecánica y esfericidad eléctrica (dipolo nulo ≈ 10–6), jamás antes logradas. Se encuentran levitando eléctricamente suspendidos en cavidades que detectan sus desplazamientos (10–6 del centro), al alto vacío (10–11 torr), a muy baja temperatura (1.8 K) y girando a altas velocidades (w ≈ 5 000 rpm). El sistema de giróscopos está totalmente aislado del exterior para evitar que sufra el efecto de alguna otra interacción, ya sea mecánica, eléctrica, magnética, térmica o de cualquier otro tipo conocido.
El satélite que lleva los giróscopos se encuentra en una órbita plana (sistema inercial) definida por el centro de la Tierra, su polo norte y una estrella guía (im Pegasi o HR8703) respecto de la cual se miden los desplazamientos; el periodo orbital es de 97.5 minutos y su altura es de 645.35 km. Al movimiento del satélite en la órbita polar debe restarse los efectos debidos a las llamaradas y viento solares, los de la traslación de la Luna alrededor de la Tierra, de la traslación de la Tierra alrededor del Sol, del paralaje de la estrella guía y los movimientos de ésta respecto de estrellas muy distantes que se consideran fijas (en este caso el cuásar 3C454.3).
Para que pueda realizarse la medición de una magnitud tan pequeña con la precisión requerida necesitamos saber con enorme precisión cuál es el campo gravitacional generado por la Tierra. De manera que, como resultado adicional, el experimento proporciona un mapa detallado de las variaciones en dicho campo (ver mapa en la red en la página de goce).
A manera de conclusión, aun cuando actualmente sólo se conocen los resultados preliminares de ambos experimentos, podemos afirmar que sus mediciones se complementan y apuntan a una mutua corroboración. Esperemos que pronto se pueda contar con datos que permitan la producción de mapas con la precisión necesaria para la planificación de medidas de prevención en las regiones que muestren una mayor vulnerabilidad ante las inevitables consecuencias del calentamiento global.
|
|||||||||||||||||||||
|
Referencias bibliográficas
European Space Agency. 2009. Gravity Field and Steadystate Ocean Circulation Explorer (goce), en www.esa.int/esaLP/LPgoce.html.
Everitt, C. W. F. 2011 Gravity Probe B., en http://einstein.stanford.edu/.
Fraczek, W. 2010. “If the Earth Stood Still, modeling the absence of centrifugal force”, en Arc-User, Summer, pp. 62-68 (www.esri.com).
ipcc. 2007. Climate Change 2007, The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, Solomon S., D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor y H. L. Miller (eds.). Cambridge University Press, Londres.
wgs. 1984. World Geodetic System, 1984, en http://en.wikipedia.org/wiki/World Geodetic System.
|
|||||||||||||||||||||
|
____________________________________________________________
|
|||||||||||||||||||||
|
Antonio Sarmiento Galán
Instituto de Matemáticas,
Universidad Nacional Autónoma de México.
Es egresado de la Facultad de Ciencias de la UNAM y del Queen Mary College de la Universidad de Londres. Laboró en el Instituto de Astronomía entre 1981 y 1999, y desde 2000 en el Instituto de Matemáticas, ambos de la UNAM.
como citar este artículo →
Sarmiento Galán, Antonio. (2011). La forma de la Tierra. Ciencias 102, abril-junio, 50-57. [En línea]
|
|||||||||||||||||||||
|
PDF →
|
||||||||||||||
|
El perifiton de los humedales de Yucatán
y la agricultura maya
|
|||||||||||||||
| Rosaluz Tavera y Eberto Novelo | |||||||||||||||
|
Los humedales se han definido como un tipo de ecosistema
distinto de los acuáticos y de los terrestres debido a la vegetación que en ellos crece y, sobre todo, por el régimen de cambios asociados con la cantidad de agua disponible. En un humedal, las plantas pueden sobrevivir a pesar de que en el suelo existan condiciones de ausencia de oxígeno por un periodo más o menos largo. Otras características importantes son que la profundidad del agua no es muy grande (generalmente menor a cinco metros) y el movimiento del agua es muy reducido. En su conjunto, el humedal está regulado principalmente por el viento y los aportes superficiales (especialmente la lluvia), no por un flujo continuo de agua ni por mareas.
Estos sistemas se han considerado como altamente productivos debido a su tasa de recambio de biomasa por unidad de tiempo, a pesar de que a simple vista parecieran poco poblados o con una vegetación dispersa. Las condiciones tan extremas de máxima humectación y sequía intermitentes producen biotas muy interesantes, en las que se expresan al máximo todas las capacidades fisiológicas de los organismos. Por ejemplo, hay plantas que soportan la ausencia de aire en las raíces por más de tres meses y luego la ausencia de agua por más de seis. Un elemento muy interesante en los humedales es el crecimiento masivo de algas; y en las zonas tropicales, con temperatura e insolación altas y continuas, el crecimiento de algas cubre prácticamente 100% de la superficie. Este incremento ha sido estudiado en muchos lugares, y se ha observado que hay un ciclo de cambios en el tipo de comunidades que se presentan durante un año. Goldsboroug y Robinson reseñaron esta secuencia como fases de desarrollo de un humedal, por lo que una manera de evaluar y caracterizar el desarrollo de los humedales de las zonas templadas es tomado como parámetro del desarrollo de comunidades planctónicas y perifíticas. El perifiton es una comunidad compuesta principalmente de algas, así como bacterias, hongos e invertebrados, la cual se encuentra en los ecosistemas de agua dulce de todo el mundo. El “cieno” o “lama”, como suele llamarse a esta comunidad, se reconoce como un importante indicador biológico de la calidad del agua; es por ello que ha generado un gran interés en humedales de todo el mundo como un medio para monitorear y regular la concentración de nutrimentos. Muchos humedales, naturales y artificiales, se utilizan con fines económicos, ecosistémicos o simplemente como medios “naturales” de mejoramiento en la calidad de agua utilizada en asentamientos humanos. Cabe destacar que en nuestro país el perifiton ha tenido una utilización tradicional y quizá más amplia de lo que se piensa: la utilización de los sedimentos de lagos someros como fertilizantes en los sistemas chinamperos, por ejemplo, puede considerarse como una utilización del perifiton. Se piensa que los mayas conocieron la importancia de esta comunidad, ya que aparece documentado en las crónicas históricas y en las huellas prehispánicas de esta civilización. Es muy probable que los mayas hayan intuido claramente el potencial del perifiton como fertilizante, tal vez a partir del contacto que tuvieron con los humedales de la península de Yucatán, pues se desarrolla profusamente en particular en estos ecosistemas. También se ha planteado que el vínculo de los antiguos mayas con los humedales fue muy importante para propósitos agrícolas, y que abarcó desde la simple plantación en suelos húmedos después de la anegación, hasta la transformación profunda del humedal, creando sistemas de canales o construyendo plataformas más elevadas para los plantíos, lo que refleja un manejo diverso de los sistemas acuáticos. Esto es, no sólo el uso de los cuerpos de agua permanentes como aguadas y cenotes, sino un aprovechamiento óptimo del suministro de agua temporal que ofrecen los humedales y, con ello, la explotación de las comunidades que viven allí. Es de notar que muchos asentamientos mayas se encuentran en la periferia de las zonas de humedales (figura 1).
Particularmente importantes han sido los hallazgos en asentamientos como Makabil, que corresponde al periodo Clásico tardío y está situado a pocos kilómetros de distancia de zonas de humedales, pues en áreas específicas en forma de parcelas o huertos familiares existe evidencia arqueológica de que el perifiton se transportó desde los humedales y se adicionó a los huertos, lo que supone un manejo deliberado de la productividad agrícola del huerto. Morrison y Cózatl Manzano explican que algunos caparazones de caracoles anfibios que habitan principalmente en los humedales y están siempre asociados con el perifiton de agua dulce se preservan arqueológicamente, y puesto que han sido encontrados en cantidades importantes en los registros de los huertos familiares, se considera como una evidencia sólida del transporte del perifiton. Dichos autores hacen notar que los caparazones de los huertos no presentaron una distribución debida al azar, por lo que no llegaron allí por causas naturales tales como inundaciones extensivas, sino que su presencia localizada se debe a que estuvieron mezclados con el perifiton adicionado. La reserva ecológica El Edén
Desde 1999 se han realizado varios estudios sobre el perifiton en la península de Yucatán, que brindan una explicación de por qué el perifiton pudo tener valor como fertilizante de cultivos, pues tanto seco como húmedo constituye un notable reservorio de fósforo y nitrógeno (figura 2). Cabe destacar que cuando es adicionado experimentalmente a cultivos de invernadero se estimula significativamente el crecimiento de las plantas. Esto nos permite suponer que al utilizarlo como fertilizante, una de las ventajas que encontraron los mayas fue el incremento de la eficiencia en la productividad de los cultivos, muy necesaria tanto debido a la escasez de suelos con suficiente profundidad en la península, como por la elevada densidad que llegaron a alcanzar las poblaciones mayas y que generaron una enorme demanda en el suministro de alimento.
La presencia del perifiton es particularmente notable en los humedales de la península porque recubre grandes extensiones de terreno inundable, independientemente del tipo de vegetación y suelo, pues la condición que tiene mayor influencia en el crecimiento del perifiton es la luz, y en los humedales casi todos los tipos de vegetación que se presentan favorecen una buena penetración de luz hasta el sustrato, como se puede apreciar en los ecosistemas de tintal, de sabana y aun en la selva baja subcaducifolia.
¿Es posible que los mayas hubieran utilizado el perifiton en plantaciones mayores que los huertos familiares? Además de su capacidad para almacenar nutrimentos, una de las razones que podría argumentarse es su presencia difundida y constante. Forma crecimientos de grosor variable que durante el periodo seco se constituyen en costras delgadas y muy laxamente adheridas al sustrato y durante el periodo anegado son tapetes espesos con una consistencia esponjosa, a veces de varios centímetros de grosor. El estar presente durante todo el año pudo permitir un manejo conveniente para cultivarlo o estimular su crecimiento y tenerlo disponible para ser adicionado de manera sincronizada con los tiempos de producción general, como los del cultivo extensivo del maíz, que parecen haber estado dictados por el conocimiento que los mayas tenían de los ciclos de precipitación anual.
Si es cierto que el perifiton tuvo un enorme peso en el establecimiento de los asentamientos mayas, se puede pensar entonces en su valor para explotarlo actualmente como mejorador de suelos. Sin embargo, antes de entusiasmarnos con esta idea es necesario considerar varios aspectos importantes de la biología del perifiton. Desde el punto de vista de la biodiversidad, es una de las comunidades acuáticas más ricas que existe y varias de las especies que la componen aún no han sido descritas. Sólo en la reserva El Edén se ha registrado más de 300 especies de algas hasta la fecha y algunas diatomeas son nuevas para la ciencia (figura 3).
El flujo de nutrimentos del perifiton al agua y el suelo, y viceversa, implica relaciones complejas entre muchas especies: durante la época anegada, por ejemplo, se desarrollan profusamente algas carofíceas, y las algas presentes en las costras del periodo anterior germinan y cubren todos los sustratos posibles —suelo, rocas, plantas y animales. Apenas empezamos a entender las relaciones entre estas comunidades fijas al sustrato y aquellas que flotan o viven libremente en el agua. A partir de un análisis de las comunidades de diatomeas a lo largo de un ciclo hídrico se mostró que las comunidades de perifiton cambian en su composición y estructura cuando flotan, a pesar de que esto no se note en su apariencia. Cuando se inicia el periodo de sequía, las caroficeas se secan y sus restos y las costras de perifiton en vías de compactación son incorporados al suelo. Durante todo este proceso estas costras han acumulado fósforo y compuestos nitrogenados. Es de notar que las especies dominantes y que le dan estructura al perifiton comparten una morfología básica: son células rodeadas de copiosas envolturas de mucílago. Dicho mucílago funciona de varias maneras en las condiciones de este ambiente: a) protege de la desecación a las algas y favorece el crecimiento de otros organismos que componen al perifiton, como hongos, bacterias, polen, semillas y animales invertebrados como nemátodos, insectos y moluscos; b) amortigua los efectos de los cambios drásticos en la temperatura, ya que durante la época seca se ha registrado 42 °C bajo la costra de algas, lo cual puede crear situaciones de estrés hídrico para la mayoría de las plantas; en cambio, las algas con mucílago pueden acceder a las mínimas condiciones de humectación durante la noche (en forma de rocío) y soportar los cambios durante el día; c) favorece la actividad de la nitrogenasa que es sensible al oxígeno, lo cual les permite, en la situación de aislamiento relativo en que se encuentran, fijar el nitrógeno atmosférico en formas químicas asimilables para otras algas y vegetales; d) concentra pigmentos fotoprotectores como la scytonemina, un compuesto que filtra la radiación ultravioleta que es letal para los organismos (figura 4).
Todo este sistema “protector” actúa como una compuerta para el paso y acumulación de nutrimentos al suelo, tales como fosfatos —derivados de las caroficeas secas— y nitratos —de la fijación no simbiótica del nitrógeno—, facilitando su aprovechamiento por las comunidades de plantas vasculares. Las características mencionadas sugieren que el papel ecológico que cumple el perifiton es el de una comunidad extremadamente importante. Por ello, sin un conocimiento detallado de las causas que controlan su crecimiento, su explotación podría afectar gravemente el ecosistema, pues por regular el flujo de nutrimentos entre el sustrato y el agua, el perifiton influye también en el desarrollo de las plantas vasculares. Además, a pesar de que el desarrollo del perifiton es profuso en los humedales de El Edén, su establecimiento en el ecosistema parece ser lento, pues en sitios de muy poca cobertura que fueron alterados para fines de muestreo, la recuperación de las matas de filamentos no se completa en un ciclo anual y en ocasiones tarda hasta más de tres años. Desde el punto de vista biológico, el perifiton es una comunidad que amerita un estudio detallado por su conspicua biodiversidad y su indudable importancia como soporte y regulador del ecosistema. Desde el punto de vista arqueológico encierra varias claves que ayudan a entender el funcionamiento de la civilización maya; no obstante, debemos preguntarnos hacia dónde nos conduciría el conocimiento generado por estos pueblos y cuánto podemos utilizar de la herencia maya sobre el manejo de agroecosistemas que involucran el perifiton. En las prácticas agrícolas de tradición maya se creaban cultivos mixtos sembrando una gran variedad de plantas como complemento alimenticio y diversas variedades de maíz con distintos periodos de maduración que correspondían a las condiciones de precipitación regional. Esto puede significar que, si los mayas utilizaban el perifiton, lo hacían razonadamente; tal vez observaron la fragilidad de su recuperación y la relacionaron con el manejo productivo general. Sería entonces una muestra de cómo conservar la diversidad biológica de la región y fomentar el desarrollo sostenible. Como lo sugieren autores como Martos y Gallareta Negrón, es posible que el colapso de la cultura ancestral maya no se relacionara con la limitación de recursos, pues parecen haber explotado razonablemente el medio, esto es, no luchando contra la naturaleza, sino integrándose a ella.
|
|||||||||||||||
|
Referencias bibliográficas
Bello-Baltazar, E., E. Estrada-Lugo, P. Macario-Mendoza, A. Segundo-Cabello y L. Sánchez-Pérez. 2002. “Transdisciplina y sustentabilidad maya”, en Ciencia Ergo Sum, vol. 9, núm. 3, pp. 260-272.
Fedick, S. L., B. A. Morrison, B. J. Andersen, S. Boucher, J. Ceja Acosta y J. P. Mathews. 2000. “Wetland manipulation in the Yalahau region of the northern Maya lowlands”, en Journal of Field Archaeology, núm. 27, pp. 131-152.
Goldsborough, L. G. y G. G. C. Robinson. 1996. “Pattern in wetlands”, en Algal ecology. Freshwater benthic ecosystems, Stevenson, R. J., M. L. Bothwell y R. L. Lowe (eds.), pp. 78117. Academic Press, San Diego.
GómezPompa, A., M. Allen, S. Fedick y J. J. JiménezOsornio (eds.). 2003. Lowland Maya Area: Three Millennia at the HumanWildland Interface. The Haworth Press, Nueva York.
Ibarra Vázquez, C., R. Tavera y E. Novelo. 2009. “Diversidad y estructura de las comunidades de diatomeas del perifiton y el metafiton en un humedal tropical en México”, en Revista Mexicana de Biodiversidad, núm. 80, pp. 763-769.
Martos L., Luis Alberto. 2002. “La costa oriental de Quintana Roo” en Arqueología mexicana, vol. 9, núm. 54, pp. 26-33.
Morrison, B y R. CózatlManzano. 2003. “Initial evidence for use of periphyton as an agricultural fertilizer by the ancient Maya associated with the El Edén wetland, Northern Quintana Roo, Mexico”, en Lowland Maya Area: Three Millennia at the HumanWildland Interface, Gómez-Pompa, A., M. Allen, S. Fedick, y J.J. Jiménez-Osornio (eds.). The Haworth Press, Nueva York.
Novelo, E. y R. Tavera. 2003. “The role of periphyton in the regulation and supply of nutrients in a wetland at El Eden, Quintana Roo”, en Lowland Maya Area: Three Millennia at the HumanWildland Interface. A. Gómez-Pompa, M. Allen, S. Fedick, y J. J. Jiménez-Osornio (eds). The Haworth Press, Nueva York.
_____, R. Tavera, y C. Ibarra. 2007. “Bacillariophyceae from karstic wetlands in Mexico”, en Bibliotheca Diatomologica 54. J. Cramer, Berlín.
|
|||||||||||||||
|
____________________________________________________________
|
|||||||||||||||
|
Rosaluz Tavera
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Es profesora de Carrera Titular del Departamento de Ecología y Recursos Naturales, Facultad de Ciencias, UNAM. Realizó sus estudios profesionales en la Facultad de Ciencias, UNAM, y los de posgrado en la Facultad de Biología, Universidad de Bohemia, República Checa.
Eberto Novelo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Es biólogo por la Facultad de Ciencias de la UNAM. Es profesor titular de carrera del Departamento de Biología Comparada de la Facultad de Ciencias, UNAM.
como citar este artículo →
Tavera, Rosaluz y Novelo, Eberto. (2011). El perifiton de los humedales de Yucatán y la agricultura maya. Ciencias 102, abril-junio, 40-45. [En línea]
|
|||||||||||||||































