revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.

 

de modelos
       
 
  menu2
PDF
               
  102B04P2
 
Modelo de convergencia
de opiniones
 
Yérali Gandica, Marcelo del Castillo
Mussot, Sergio Rojas y Gerardo J. Vázquez
   
   
     
                     
                     
En el estudio de la dinámica social, la capacidad de una sociedad para reaccionar ante cambios internos y externos y hacer frente a sus mecanismos de regulación es un tema fascinante. Obviamente, es un gran campo para los sociólogos, etnólogos, economistas, psicólogos sociales, criminólogos, antropólogos, etcétera. Más recientemente, los físicos y matemáticos están empleando sus modelos y su experiencia para conseguir una mejor comprensión de la conducta colectiva de los sistemas sociales.
 
Por ejemplo, la convergencia (o divergencia) de ideas u opiniones entre los participantes de un debate es un proceso social muy importante. En algunos modelos de la dinámica de opinión que han sido revisados por Weidlich, Lorenz, y Castellano y colaboradores, los agentes pueden negociar sus diferencias para tratar de llegar a un consenso.
 
En la práctica, es plausible asumir que los debates tienen lugar cuando las opiniones de las personas implicadas (agentes) están lo suficientemente cerca uno del otro para poder negociar sus diferencias y tratar de llegar a un consenso. En este sentido, un modelo importante y simple de dinámica de opiniones es el desarrollado por el modelo de Deffuant y colaboradores.
 
Supongamos que tenemos una red definida como un conjunto de nodos y enlaces fijos (en el modelo original se propuso una simple dinámica de opinión para la gráfica o red completa, donde todos los nodos están conectados entre ellos, pero aquí lo presentamos para cualquier gráfica o red). En cualquier asunto, la opinión correspondiente es representada por un número continuo Θ entre 0 y 1. Se selecciona cualquier agente i y luego con la misma probabilidad para todos sus vecinos, se selecciona uno de ellos, llamado j. En la práctica es plausible asumir que los debates tienen lugar cuando las opiniones de las personas implicadas (o agentes) son lo suficientemente parecidas o cercanas unas de otras. Si entre vecinos la diferencia de las opiniones Θ i (t) y Θ j (t) supera un determinado umbral, entonces no pasa nada (en este caso t es un tiempo discreto que etiqueta y ordena los pasos de tiempo del proceso iterativo); pero si:
 
| Θ i (t) – Θ j (t) | < ε,

entonces:
 
Θi (t + 1) = Θi (t) + µj (t) − Θi (t)]  (1),
Θj (t + 1) = Θj (t) + µi (t) − Θj (t)],
 
lo cual significa que sus opiniones se acercan, moduladas por el parámetro µ.
 
Este procedimiento se repite hasta que se alcanza la convergencia. Es habitual utilizar el mismo parámetro de aproximación µ para todos los agentes. Es evidente que la topología subyacente al sistema define a los vecinos de cada agente. La convergencia se alcanza después de emplear el procedimiento de la ecuación (1) iterativamente, y se define un grupo o cúmulo como el conjunto de nodos en la red o agentes que comparten la misma opinión final.
 
Un ejemplo
 
Vamos a considerar tres nodos alineados como se muestra en la siguiente figura:
 
 
figura1
 
 
 
y mostrar como su opinión converge para e = 1 y µ = ½.
 
Supongamos que en un principio la cantidad de información u opinión en cada nodo es a0, b0, y c0. Puesto que e = 1, entonces sus valores siempre se aproximan en pares siguiendo la ecuación (1) para cualquier valor de la cantidad de información. Si µ= ½, entonces ambas opiniones llegan a ser iguales en el punto medio en un solo paso y el consenso de los dos agentes implicados es total. Es decir, la convergencia entre los dos agentes se produce inmediatamente;
 
 
Θ i (t + 1) = Θ j (t) = [Θ i (t) + Θ j (t + 1)] / 2.
 
 
Sin perder la perspectiva general, se puede comenzar la simulación, eligiendo un primer nodo a y su nodo más cercano b vecino, por lo que la nueva cantidad de información en cada nodo es:
 
 
a1 = a 0 / 2 + b 0 / 2,
b 1 = a 0 / 2 + b 0 / 2,
c 1 = c 0.
 
 
En el siguiente paso de simulación, el nodo c y su vecino b son elegidos, así tenemos:
 
 
a 2 = a 1 = a 0 / 2 + b 0 / 2,
b 2 = b 1 / 2 + c1 /2 = a0 / 4 + b 0 / 4 + c 0 / 2,
c 2 = b 1 / 2 + c 1 / 2 = a 0 / 4 + b 0 / 4 + c 0 / 2.
 
 
Después de n pasos, tenemos:
 
 
a n = {a 0 + b 0 + c 0 } /3 + A {a 0 + b 0 − 2c 0 } / (3[ 2 2n ]),
b n = {a 0 + b 0 + c 0 } /3 + B {a 0 + b 0 − 2c 0 } / (3[2 2n ]),
c n = {a 0 + b 0 + c 0 } /3 + C {a 0 + b 0 − 2c 0 } / (3[2 2n ]),
 
 
donde a, b y c son constantes.
 
A partir de estas expresiones uno puede ver que todos los nodos convergen en el mismo punto.
 
Discusión
 
Este proceso continuo parece ser un modelo más realista para los dispositivos numéricos (en los que la precisión es fundamental) que para los seres humanos. Un valor preciso de la opinión de un agente humano en un rango infinito (números reales entre 0 y 1) es conveniente para los propósitos numéricos, pero no es realista. Por lo tanto, podemos referirnos al valor numérico de la opinión de un agente determinado como la “cantidad de información” que este agente tiene. De esta manera, podemos pensar en un agente como una persona o cualquier otro dispositivo artificial.
 
Hemos demostrado cómo una serie numérica surge cuando se trata de sólo tres agentes en la modelo de Deffuant. Un caso más general consiste en escoger dos diferentes valores de µ en una interacción de pares o valores aleatorios. En la práctica vemos que incluso para un pequeño número de nodos, N = 3, y hasta para el caso de las aproximaciones más rápidas (µ = ½), llegar a un consenso perfecto generalmente toma un número infinito de pasos. Para efectos prácticos, en el modelo de Deffuant aplicado a cualquier sistema con cualquier valor de agentes, la serie convergente resultante se puede truncar en cualquier grado deseado de precisión. Para los sistemas sociales es más adecuado un conjunto de valores posibles discreto, no continuo, y además es más fácil de manejar. Aunque este modelo es matemáticamente elegante, no parece ser un modelo realista de las opiniones humanas, porque se necesita un número infinito de pasos para converger o llegar a un consenso. En primer lugar, ¡las vidas humanas son finitas! En segundo, un valor de la opinión de un agente humano ubicado en un rango infinito (números reales entre 0 y 1) no es realista.
 
 
En resumen, son más adecuados los modelos de opinión con un número finito de estados para describir o simular el comportamiento social. En los cálculos numéricos, el proceso de convergencia toma mucho tiempo cuando el rango es infinito, salvo en el caso de emplear un pequeño número de dígitos significativos (el redondeo de errores).
 
Existe otro modelo de opiniones propuesto por Hegselmann y U. Krause, que es similar al de Deffuant, pero en él un agente cambia de opinión por la opinión general de sus vecinos. Es decir, en este modelo un agente, en lugar de interactuar con uno solo de sus vecinos a la vez, como en ocurre en el anterior, va a interactuar a la vez con el promedio de todos los agentes dentro de una región de opiniones similares definida o limitada también por e. Este modelo es más adecuado para describir la formación de opinión cuando la gente se reúne al mismo tiempo en grupos pequeños, donde existe una interacción eficaz con participación de muchas personas al mismo tiempo. Por otra parte, ya que este modelo incluye más agentes al mismo tiempo (como en un verdadero proceso de reuniones), una mayor precisión numérica (como en un proceso de votación) parece naturalmente ser más apropiada que en el modelo anterior.
 
 
Los debates en torno a la evolución y convergencia de la computación social se pueden encontrar en la red. Baste concluir aquí mencionando que un modelo como el de Hegselmann y Krause es más realista para los pequeños grupos y se puede aplicar para describir el proceso real de reuniones tanto entre personas físicamente como, dados los tiempos actuales, en la red.Chivi_102
 
  articulos  
Referencias bibliográficas
 
Weidlich, W. Sociodynamics. 2000. Harwood Academic Publishers, Amsterdam.
Lorenz, J. 2007. “Continuous Opinion Dynamics under Bounded Confidence: A Survey”, en International Journal of Modern Physics C, vol.18, núm. 12, pp. 18191838 (arXiv:0707.1762v2).
Castellano C., S. Fortunato y V. Loreto. 2009. “Statistical physics of social dynamics”, en Rev. Mod. Phys., núm. 81, pp. 591646.
Deffuant, G., F. Amblard, G. Weisbuch y T. Faure. 2002. “How can extremism prevail? A study based on the relative agreement interaction model”, en Journal of Artificial Societies and Social Simulation, vol. 5, núm. 4 (http://jasss.soc.surrey.ac.uk/5/4/1.html).
Hegselmann, R. y U. Krause. 2002. “Opinion dynamics and bounded confidence: models, analysis and simulation”, en Journal of Artificial Societies and Social Simulation, vol. 5, núm. 3 (http://jasss.soc.surrey.ac.uk/5/3/2.html).
     
_________________________________________________________      
 
Yérali Gandica
Centro de Física,
Instituto Venezolano de Investigaciones Científicas.
 
Sergio Rojas
Departamento de Física,
Universidad Simón Bolivar.
 
Marcelo del Castillo Mussot y Gerardo J. Vázquez
Instituto de Física,
Universidad Nacional Autónoma de México.
 
 

 

como citar este artículo

Gandica, Yérali y et.al. 2011. Modelos de convergencia de opiniones. Ciencias 102, abril-junio, 46-49. [En línea]

     




 

102A06P1 102A06P2
 
  menu2
PDF
   
     
Percepciones del tiempo y el espacio en las ciencias naturales      
Ramón Peralta y Fabi      
               
               
Pocos temas de ciencia son tratados por los filósofos con la
regularidad con la que se abordan los conceptos de tiempo y espacio. Seguramente tiene que ver con el hecho de que nos son propios a todos. Nadie escapa a su uso cotidiano y si se le pregunta a (casi) cualquiera sobre lo que significan, responderá que sí, desde luego. Pedir que lo ponga por escrito es otro asunto, pues fácilmente se percibe que las definiciones son escurridizas, vagas o circulares. La dirección en la que afinará una idea más precisa dependerá de lo que hace la persona.
 
 
Es en el uso cotidiano de espacio y tiempo donde caben nuestras intuiciones sobre cada uno de ellos. El primero, como el escenario o foro en el que están las cosas que son, naturales o abstractas; el “continente”, se dice. En cuanto al tiempo, es el cambio el elemento sustantivo; sin variaciones no hay tiempo o éste no “transcurre”, no fluye. Ciertamente se puede revisar diccionarios o enciclopedias para hallar acepciones que confirmen lo que uno ya entiende o cree saber. El problema será que incluyan cada uno de los aspectos de nuestras experiencias.
 
Está el punto de vista metafísico. Hay que leer a algunos de los pensadores que han escrito a lo largo de la historia para apreciar las dificultades de ser claro y preciso. Cuando se recurre a la Física de Aristóteles (384-322 a.C.), habiéndose perdido más de 80% de lo que presumiblemente escribió, uno se da cuenta qué tan lejos está de quienes nos interesamos en el tema desde las ciencias naturales; lo único que la física moderna conserva de Aristóteles es la palabra “física”. Algo semejante ocurre si se van revisando distintas construcciones de estos conceptos en lo escrito por otros autores igualmente distinguidos, pasando por el poema de Tito Lucrecio Caro (99-55 a.C.), en el que resume para los latinos la cultura helénica, o más de mil años después por Immanuel Kant (1724-1804), y doscientos más tarde en Martin Heidegger (1889-1976), por citar algunos; a los científicos poco o nada nos aportan.
 
En las ciencias naturales, como la biología, la química y la física, el tiempo y el espacio son parte esencial, aunque cabe decir, pocas veces son definidos, aclarados o analizados con cuidado. Por otro lado, como parte de la formación científica se hace referencia a las formas de medir uno u otro, y a las muy diversas escalas de ambos, dependiendo de los fenómenos de interés.
 
Las escalas de tiempo en la biología varían de los miles de millones de años (1016segundos; 102=100, 104=10  000,…), cuando se estudian vestigios primordiales (fósiles) en el contexto del origen de la vida, hasta los diezmilésimos de segundo (10–4s; 10–3=1/1 000, 106=1/1 000 000,…), en los que ocurren procesos celulares o bioquímicos, como el doblamiento de proteínas o la replicación parcial de un ácido ribonucleico. Los “relojes” correspondientes a estas escalas son igualmente diversos.
 
En cuanto al espacio, se acepta implícitamente la noción clásica del “foro inerte” o absoluto en el que las cosas se dan u ocurren. Pero dentro de éste, hay un espacio que tiene un sentido biocéntrico, en tanto que se percibe como el entorno inmediato que circunda a un ser vivo o a una colectividad de éstos, un nicho ecológico. Este escenario interacciona con los “actores”, modificándose mutuamente; la ecología y las discusiones sobre el cambio climático comparten este fondo. Las escalas espaciales no tienen el intervalo de las temporales y también son biocéntricas: de kilómetros (ecosistemas) a nanómetros (virus, de vida debatible).
 
En química también se presume un tiempo y un espacio con carácter absoluto. Es decir, los elementos y los compuestos, junto con los procesos que conciernen a la reactividad, esencial en esta disciplina, suceden igual en cualquier momento (invariancia en el tiempo) y la ubicación es irrelevante (invariancia traslacional), en tanto que se cuiden las condiciones de reproducibilidad, como presión, temperatura, etcétera. Las escalas espaciales barren desde las atómicas (10–8m) a las industriales, mientras que las temporales se extienden por muchos órdenes de magnitud: de femtosegundos (10–15s) que duran ciertas reacciones químicas, y se miden con láseres pulsados, hasta las geológicas, típicas de los procesos de formación de rocas y estructuras cristalinas gigantes (1014s).
 
En física, los conceptos de espacio y tiempo son una parte íntima de la infraestructura, de su entramado más fundamental, y la revisión de éstos, innecesaria en las otras ciencias naturales, ha llevado a transformaciones esenciales.
 
Desde las primeras teorías de la física, como los trabajos de Galileo Galilei (1564-1642) y de Isaac Newton (1643-1727), el espacio y el tiempo tienen un sentido absoluto. El primero, práctico, los supone evidentes y construye las formas de medirlos, diseñando relojes y patrones de longitud. Así, mejora la clépsidra egipcia, ya asimilada en la cultura latina, que mide tiempos en función del goteo de una vasija bien calibrada, y descubre la isocronía de los péndulos, cuyo periodo de oscilación sólo depende de su longitud y no del material, tamaño de la lenteja que pende o de otras cosas, en tanto que los ángulos iniciales no excedieran 20°. En la obra cumbre de Newton, Principia, se hace la hipótesis implícita de que tanto el tiempo como el espacio tienen este carácter. Gottfried W. Leibniz, en el terreno metafísico e involuntariamente usando a un conocido común, entabla con Newton un debate más sobre tales conceptos. Mientras este último parece imaginarlos como algo absoluto y casi material y tangible, Leibniz introduce un aspecto “relacional”, dándoles más valor en función de los objetos circundantes que por su ubicación o duración. Esta discusión, irrelevante para la física, es tal vez la única hasta los inicios del siglo XX, en que se modificó de fondo el fino entretejido de la física.
 
 
Albert Einstein (1879-1955), al revisar los fundamentos de la mecánica de Newton y del electromagnetismo propuesto por James C. Maxwell (1831-1879), y con la información de ciertos experimentos cruciales, formuló la teoría de la relatividad especial en 1905. En ella, el espacio y el tiempo pasan a ser uno, articulados en un espacio nuevo de cuatro dimensiones y con el límite de que ninguna señal o movimiento puede exceder la velocidad de la luz, reconocida desde entonces como una constante universal. En paralelo, se iba erigiendo una nueva teoría del átomo, sus componentes y sus comportamientos; como en la relatividad, las cosas dejaban de ser intuitivamente claras, subsistiendo en ambas teorías el tiempo y el espacio como testigos inertes.
 
Para 1916, Einstein había concluido su más profunda revolución intelectual. En su teoría de la relatividad general se modificaba la esencia misma de la física, en tanto que el espaciotiempo se convertía en un ente dinámico que cambiaría con los fenómenos naturales. El foro espaciotemporal dejaba de ser fijo ante los actores para ser uno más de los participantes, cambiando con ellos y retroalimentándose unos a otros. Ahora, las masas y su dinámica evolucionan cambiando el tiempo y el espacio, que a su vez les afecta. Como metáfora, semeja la imagen ecológica. Einstein buscó durante el resto de su vida una manera de hacer ambas teorías compatibles, es decir, construir lo que se llama la teoría unificada del campo, referida a los campos gravitacionales y cuánticos.
 
Una parte de la estrategia fue el desarrollar la física cuántica de modo que la relatividad especial se pudiese incorporar, permitiendo que las partículas cargadas, por ejemplo, fueran descritas adecuadamente. El primer éxito, relativamente inmediato, fue la teoría de Dirac para los electrones. Con el paso de las décadas y muchos premios Nobel más, la teoría se convirtió en la electrodinámica cuántica y a la versión actual se le llama modelo estándar. Toda la dinámica de las partículas elementales, en términos de elementos más primarios, como los cuarks y los gluones, está descrita por esta teoría y sus bases experimentales son sólidas y aceptadas por la comunidad; esto no quiere decir que esté libre de problemas, de verificaciones pendientes y de suposiciones necesarias, cuyas justificaciones estén por encontrarse, si las hay. Aun incompleta, es sin duda la teoría fundamental más completa que se ha elaborado en la historia de la física. Pero sigue siendo incompatible con un foro cambiante, con la gravedad. La búsqueda para hallar una forma de integrar gravedad y cuántica sigue intensa, e infructuosa. Es interesante saber que las observaciones o los experimentos han llegado a tales grados de precisión, que es difícil saber qué teoría está mejor apoyada experimentalmente; el modelo estándar tiene predicciones confirmadas hasta en once cifras significativas, lo que es extraordinario; la relatividad general, por ahora, va un poco más allá gracias a observaciones efectuadas a lo largo de más de veinte años, ya con catorce cifras significativas.
 
Una opción es que una de las dos teorías básicas, la relatividad general o el modelo estándar, esté equivocada o requiera una modificación importante; la llamada materia oscura y la energía oscura constituyen un problema para la física hoy conocida y podrían llevar a cambios estructurales en una de ellas o en las dos. Otra opción es que ambas teorías sean la manifestación de una teoría más general, que las englobe, las unifique. En este sentido, hay veredas muy diversas, pero principalmente dos teorías, las cuerdas y los lazos, y son las opciones con mayor número de investigadores activos en el mundo, sobre todo la primera.
 
La teoría de cuerdas fue por varias décadas la parte más efervescente de la física. Una teoría elegante y “simple” que fue creciendo y haciéndose cada vez más abstracta. Por más tiempo de lo que es saludable fue moda; las dimensiones extras “necesarias” (nueve como mínimo) y sus “compactificaciones”, las supersimetrías, las supercuerdas, las branas o las conjeturas de la teoría M, de Maldacena, o la de Witten, son parte del lenguaje de los iniciados y del proyecto que esa teoría representa. Por cerca de treinta años ha sido incapaz de tener los elementos básicos de lo que los físicos han hecho por cerca de 400 años; es decir, sobre una base experimental, hacer hipótesis y formar un corpus —en lenguaje matemático— que pueda identificarse, analizarse y manipularse para hacer alguna predicción experimental; nada de esto ha ocurrido. Actualmente puede decirse que son un conjunto de especulaciones que, con una intensa producción de artículos —más de 50 000 en dos décadas— y de recursos, empieza a perder credibilidad; hoy, como teoría física, está hueca.
 
La teoría de lazos aún está en desarrollo y no hay certeza de que sea el camino correcto, si es que éste existe. No es la única opción restante, pero los caminos se angostan y se mira distante la gran unificación. El trasfondo es, por supuesto, el papel del tiempo y del espacio.
 
No se ha encontrado una forma de “cuantizar” las ecuaciones de Einstein, ni de incorporar un espaciotiempo dinámico en la teoría cuántica. En todo caso, habría que decir que los intentos han dado pie a resultados con soluciones múltiples o que no pueden ser físicamente plausibles. Por ejemplo, se ha planteado que el espaciotiempo tiene una escala mínima —cuantizándose el foro— de modo que deja de ser continuo, generando escalas temporales y espaciales discretas. Los actores ya no pueden ocupar cualquier rincón del escenario, ni estar “presentes” todo el tiempo. En otro enfoque, la curvatura es un efecto cuántico; el espaciotiempo es plano, si no se llega a escalas muy pequeñas, como cuando inició el universo con la gran explosión, o si las densidades no son demasiado altas, como en un hoyo negro.
 
Cabe mencionar que un tiempo “natural” que aparece en la física es tp, el “tiempo de Planck”, resultado de una combinación única de tres constantes fundamentales de la naturaleza; a saber, tp=(Gh/c5)1/2, siendo G la constante de la gravitación universal, c la velocidad de la luz y h la constante de Planck; el valor numérico de tp es 1.35×10–43s, lapso difícilmente imaginable en su pequeñez. ¿Tiene sentido hablar de tiempos más cortos?, ¿son detectables? o ¿son relevantes en algún contexto? Las respuestas son que tal vez no, no y sí, respectivamente. Las limitaciones impuestas por la física cuántica sugieren que, en tiempos tan cortos, la energía involucrada excede todos los procesos conocidos, salvo en la gran explosión, donde la gravedad cuántica (de haberla) debería entrar en juego; así, este tiempo podría ser una cara de la textura más fina posible del tiempo en el “quantum del espaciotiempo” aludido anteriormente. La longitud correspondiente a tp es lp, también una combinación única de las constantes fundamentales lp=(Gh/c3)1/2, llamada longitud de Planck, y cuyo valor numérico es 4.05×1035m; se interpreta como la distancia que recorre la luz en el tiempo de Planck. Longitudes más cortas se enfrentan también a los límites de la física cuántica.
 
Así, el problema de la gravedad cuántica subsiste y nos reta, tal vez para siempre. La visión reduccionista, en la que se busca una teoría que todo lo incluya y aparece la “ecuación de universo”, es una quimera. En cada escala hay fenómenos emergentes en los que poco o nada tienen que ver los detalles de las otras escalas, mayores o menores. Creer que se pueden explicar todas las cosas a partir de unas cuantas suposiciones (leyes) es, o debiera ser, parte del pasado. Sí, por supuesto, se han ido descubriendo leyes naturales que parecen cumplirse a cabalidad, en su “zona” de influencia, y se esperaría que no fueran contradictorias entre ellas, como hoy lo son. Si la aritmética es incompleta de manera esencial, por la física, mi pasión profesional, apostaría mucho menos.
 
Confieso que nunca escuché una discusión formal, asociada a un curso o a una conferencia profesional, sobre el tiempo y el espacio; parte es, desde luego, que no cursé Relatividad general, donde se le debe dar algún sentido a las ecuaciones de Einstein, algo que debería hacerse en cualquier curso que atienda el movimiento. En general, la educación del físico no aborda los aspectos fundamentales y más profundos de nuestra ciencia; se cae fácilmente en la parte metodológica, de cálculo o de instrumentación, antes que abordar la de interpretación previa y posterior al análisis, el que sea. Fomentar la lectura del sustento conceptual de la física, de la reflexión sobre las ideas y la escritura, no es un tema que se atienda en la formación científica.
 
Tiempo y espacio son pues conceptos de la filosofía, de la ciencia y de la vida cotidiana, inagotables en su diversidad y versatilidad. Se seguirá leyendo y escribiendo sobre estos temas, con la expectativa de disipar un poco las dudas que hay, localizadas en particularidades, cuando no en los pilares mismos de una disciplina, como sucede en la física.
 
En el fondo, se trata de seguir con la interminable tarea de hacer el universo inteligible, alejando el pensamiento débil que solicita intervenciones divinas donde no hace falta, que nubla la vista y desarticula un exitoso quehacer que lleva ya cientos de años.
 
La educación es la tarea central en una sociedad como la nuestra, como la latinoamericana, o la de todas las sociedades con atraso en su desarrollo. Eliminar la injusticia y la desigualdad requiere como condición necesaria, sin que sea suficiente, la educación.
 
Cuando la arrogancia de pretender entenderlo todo, o de creer que se tiene un diálogo con un ser que todo lo trasciende, haya desaparecido —lejana esperanza—, se contará con la humildad para apreciar el lugar inconspicuo que ocupamos en el universo. Deambulamos alrededor de una estrella común y corriente, como la mayoría de las que se miran con asombro en una noche constelada, y dicha estrella está en una parte alejada dentro de una galaxia espiral, la Vía Láctea, que gira sobre sí misma y se dirige hacia otra con la que —dentro de millones de años— habrá de colisionar para formar una nueva. Ambas son como las otras millones de galaxias que navegan en el firmamento de nuestras noches.Chivi_102
  articulos  
Referencias bibliográficas
 
 
Aristóteles. 184 a.C. Física, Libro 5. Trad. U. Schmidt Osmanczik. unam, México, 2001.
Berenzon, B. y G. Calderón (eds). 2008. Diccionario Tiempo Espacio. unam, México.
El Colegio de México. 2009. Diccionario del español usual en México. Colmex, México.
Einstein, A. 1922. The Meaning of Relativity. Princeton Science Library, Nueva Jersey.
Lucrecio Caro, Tito. 99 a.C. De la natura de las cosas Libro I. Trad. R. Bonifaz Nuño. unam, México, 1984,
Hawking, S., 1985. “The arrow of time in cosmology”, en Physical Review D, vol. 32, núm. 10, pp. 2489-2495.
y Penrose, R. 1996. The Nature of Space and Time. Princeton Science Library, Nueva Jersey.
Kant, Immanuel. 1781. Crítica de la razón pura. Ed. Libertador, Buenos Aires, 2008.
Martin Heidegger. 1954. Filosofía, ciencia y técnica, Trad. F. Soler y J. Acevedo, Ed. Universitaria, Santiago de Chile, 2007.
Newton, I. 1687. The Principia (Philosophiae Naturalis Principia Mathematica). Trad. A. Motte. Prometheus Books, Nueva York, 1995.
Peralta y Fabi, R. 2010. “El entramado del Universo”, en Los elementos del tiempo y el espacio. Berenzon, B. y G.Calderón (eds.). unamipchconacyt (en prensa).
Smolin, L. 2006. The Trouble with Physics: The Rise of String Theory, The Fall of a Science, and What Comes Next. Mariner Books, Boston.
     
___________________________________________________________
     
Ramón Peralta y Fabi
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Es Doctor en Ciencias en el área de dinámica de fluidos y física estadística, pionero en la docencia e investigación en estos campos. Fue director de la Facultad de Ciencias de la UNAM.
 
 
como citar este artículo
 
Peralta y Fabi, Ramón. (2011). Percepciones del tiempo y el espacio en las ciencias naturales. Ciencias 102, abril-junio, 60-66. [En línea]
     

 


102A07P1 102A07P2
  menu2
   
     
Una invitación a la teoría matemática de la música.
II. Armonía y contrapunto
   
Octavio A. Agustín y Emilio Lluis Puebla      
               
               
En el primer libro de su tratado De Musica, San Agustín de
Hipona dice que la música es “la ciencia de la buena modulación”. Y no cabe duda que esto es fundamental para la teoría de la modulación tonal, un aspecto de la armonía occidental, donde se pasa de una tonalidad de origen s a una tonalidad destino t en un “buen modo”.
 
Por supuesto, la sencilla definición de “modulación” como un agradable tránsito de una tonalidad a otra no es muy precisa y ejemplifica el problema del encapsulamiento. Para empezar: ¿qué es una tonalidad? Decir que es “un sistema musical en el que hay relaciones jerárquicas entre los tonos respecto de un centro tonal o tónica” no parece un serio intento por aumentar la precisión del concepto.
 
Si partimos del hecho de que la materia de la música son los tonos (en particular los de la afinación equitemperada de doce tonos), que una escala es una elección periódica (es decir, que se repite octava tras octava) de estos tonos, y que los acordes son conjuntos de tonos, entonces una tonalidad es un conjunto de acordes elegidos apropiadamente entre los tonos de una escala. A los acordes de una tonalidad también se le llaman “grados”, y generalmente se les numera de acuerdo con su posición en la escala de un tono particular que le pertenece.
 
Algunos ejemplos pueden ilustrar esto. Cabe recordar que en la notación empleada: c = do, d = re, e = mi, f = fa, g = sol, a = la y b = si; cuando se acompañan del signo # significa que es sostenido (c# = do sostenido).
 
Ejemplo 1. El conjunto c = {c, d, e, f, g, a, b} repetido en todas las octavas es la llamada escala de c mayor (y se puede escuchar tocando sucesivamente todas las teclas blancas del piano). La tonalidad de c mayor está integrada por los acordes: ic = {c, e, g}, iic = {d, f, a}, iiic = {e, g, b}, ivc = {f, a, c}, vc = {g, b, d}, vic = {a, c, e}, viic = {b, d, f}.
 
 
Otro ejemplo sería el conjunto d = {d, e, f#, g, a, b, c#} repetido en las octavas, que es la escala de d mayor. La tonalidad de d mayor está integrada por los acordes: id = {d, f#, a}, iid = {e, g, b}, iiid = {f#, c#, a}, ivd = {g, b, d}, vd = {a, c#, e}, vid = {b, d, f#}, viid = {c#, e, g}.
 
Según Arnold Schönberg, para iniciar una modulación se utilizan primero algunos acordes que pertenezcan tanto a la tonalidad de salida como a otras (y por eso se denominan “neutros”). Un ejemplo de acorde neutro sería el quinto grado de la tonalidad de c mayor, que es vc = {g, b, d}, que coincide con el cuarto grado de la tonalidad de d mayor ivd = {g, b, d}. A continuación, en una etapa de transición, se usan acordes que funcionan como “pivotes”, anticipando la tonalidad de llegada. Por último, se despliega una “cadencia” para afirmar la tonalidad de llegada: es decir, se presenta una sucesión de acordes que pertenezcan exclusivamente a la tonalidad de llegada. Para formalizar matemáticamente todo lo anterior, primero hemos de identificar los tonos con el anillo Z12, que modela la llamada “aritmética del reloj” (figura 1). Esto es porque en la música se suman y multiplican tonos como se suman o multiplican las horas para transponer escalas o invertir acordes. De este modo, tendríamos que c = 0 (o las 12 en punto), c# = 1, d = 2, d# = 3, e = 4, f = 5, f# = 6, g = 7, g# = 8, a = 9, a# = 10, b = 11.
 
 
Figura1A7 Figura2
Figura 1. Los doce tonos de la afinación equitemperada, sin tomar en cuenta las octavas. En gris, los tonos de la escala de c mayor.
Figura 2. La banda armónica.
 
 
 
Ejemplo 2. El acorde que es el primer grado de la tonalidad de c mayor en: ic = {c, e, g} y en números corresponde a ic = {0, 4, 7}. Si transponemos en 2 a este acorde, tenemos: ic + 2 = {0+2, 4+2, 7+2} = {2,6,9} = {d, f#, a} = id, que es el primer grado de la tonalidad de d mayor. Para invertir id, lo multiplicamos por –1 y así –1·id = {–1·2, –1·6, –1·9} = {10, 6 ,3} = {d#, f#, a#}. El lector puede comprobar fácilmente que si transponemos en 2 a toda la escala de c mayor obtenemos la escala de d mayor, esto es, c + 2 = d.
 
Ahora nos restringiremos a las “escalas mayores”, que son c y todas sus transposiciones. Dada una escala mayor x, definimos una tonalidad x(3)x, iix, …, viix (que son transposiciones de los grados que ya mencionamos en un ejemplo anterior) que recubre toda la escala x, de la que se toman sus tonos. Así obtenemos las doce tonalidades mayores c(3), c#(3), e(3), …, b(3). El conjunto de estas tonalidades lo denotaremos como Dia(3); también se les llama “interpretaciones triádicas de las escalas diatónicas”. como el conjunto de grados i
 
Si a los acordes de x(3) los representamos como puntos en el espacio tridimensional y conectamos con una línea dos acordes que comparten al menos un tono, luego rellenamos los triángulos que se obtienen si los tres acordes en sus vértices comparten al menos un tono, resultauna superficie triangulada que es una banda de Möbius (figura 2). El orden cíclico de los acordes que surge de recorrer su borde es el llamado “círculo de quintas” (sin tomar en cuenta sostenidos o bemoles). Es interesante notar que Schönberg también descubrió esta construcción y la denominó Harmonisches Band, o “banda armónica”.
 
 
 
 
 
 
Otro aspecto interesante de la banda armónica es que representa objetos musicales (acordes o grados de una tonalidad) y sus relaciones (cómo comparten tonos). Tales relaciones son operaciones lógicas, pues finalmente son intersecciones de conjuntos (que a fin de cuentas están definidas por predicados lógicos). Esto significa que la banda armónica es una representación geométrica de un hecho lógico, idea que se extiende a toda la música por medio de la teoría de topos (que, repetimos, es una amalgama de la lógica y la geometría).
 
Podemos enseguida definir rigurosamente qué es una cadencia: es un conjunto mínimo de grados de una tonalidad x(3) tales que las triadas que lo conforman no pertenezcan a otra tonalidad. A continuación listamos todas las cadencias posibles: k1 = {iix,vx}, k2 = {iix,iiix}, k3 = {iiix, ivx}, k4 = {ivx, vx}, k5 = {viix}.
 
 
Llama la atención la cadencia k4, pues está conformada por los grados que tradicionalmente se denominan “subdominante” y “dominante”, respectivamente. Son un mecanismo clásico para afirmar la tonalidad en la música occidental, omnipresente en la música popular actual.
 
Disponemos ya de los ingredientes para describir el modelo de modulación propuesto por Mazzola. Parte de la modulación debe ser una función m (o llamada también “simetría”) que transforme la tonalidad de partida s(3) en la tonalidad de llegada t(3), y que llamaremos “modulador”. Pedimos que sea de la forma m(x) = ax + b, donde a = 1, 5, 7, 11 son precisamente los elementos de Z12 que tienen inversos multiplicativos, y que además mande a la escala s de la tonalidad s(3) en la escala t de t(3). Se puede ver que hay exactamente dos funciones de este tipo. Puede ser que o bien t(3) = s(3) + t para algún t; o que t(3) = as·s(3) + t para algún t, donde as es la única inversión que deja la escala s invariante. Se puede comprobar que solamente hay diez funciones que transforman a s(3) en t(3) como se ha descrito.
 
Ejemplo 3. Ya vimos que c + 2 = d, y evidentemente c(3) + 2 = d(3). Si s es la escala de c mayor, c, entonces ac(x) = 4 – x. En efecto, –{0, 2, 4, 5, 7, 9, 11} + 4 = {0 + 4, –2 + 4, –4 + 4, –5 + 4, –7 + 4, –9 + 4, 11 + 4} = {4, 2, 0, 11, 9, 7, 5}.
 
El modulador nos dice cómo ir de una tonalidad a otra, pero falta decir cómo debe comportarse respecto de las cadencias de las tonalidades. Es decir, debemos establecer cuáles grados serán los pivotes. Para tal fin, se introduce el concepto de “cuanto de modulación” respecto de la cadencia k y el modulador m, que es un conjunto de tonos m con las siguientes propiedades: a) el modulador debe ser una simetría de m, es decir, m(m) = m; b) los tonos de los grados de la cadencia k de T(3) deben estar contenidos en m; c) el conjunto de los tonos que pertenecen tanto a m como a t debe ser rígido, es decir, no tiene simetrías distintas a la identidad; d) el conjunto m es el que tiene la menor cantidad de elementos, de modo que se cumplan las dos primeras condiciones.
 
Ejemplo 4. Supongamos que tenemos el modulador m(x) = 11x + 6 que lleva a la tonalidad de c en la tonalidad de d y la cadencia clásica k={iv, v}. Entonces el cuanto de modulación respecto de (m,k) es m = {1, 2, 4, 5, 7, 9, 11}. Efectivamente, m({1, 2, 4, 5, 7, 9, 11}) = 11·{1, 2, 4, 5, 7, 9, 11} + 6 = {5, 4, 2, 1, 11, 9, 7}. Los tonos que pertenecen tanto a m como a d son {1, 2, 4, 7, 9, 11}, y si se opera con todas las simetrías de la forma f(x) = ax + b con a = 1, 5, 7 11 se ve que solamente f(x) = x la deja invariante. También es un cálculo (largo y tedioso, pero sencillo) ver que no hay otro conjunto más pequeño que satisfaga esto.
 
De lo anterior se desprende el siguiente teorema: para dos tonalidades diferentes, s(3) y t(3), existe un cuanto de modulación m respecto de (m,k). Además, tiene las siguientes propiedades: a) el conjunto m es una unión de los grados de s(3) y t(3); éstos definen a la interpretación triádica m(3) de m; b) los grados comunes de t(3) y m(3) se denominan “grados pivotes de la modulación” (k,m); c) el modulador m está determinado de forma única por los grados de la modulación.
 
Ejemplo 5. La interpretación triádica del m del ejemplo anterior es viid = {1, 4, 7}, iic = {2, 5, 9}, iiic = iid = {4, 7, 11}, vc = ivd = {7, 11, 2}, vd = {9, 1, 4} y viic = {11, 2, 5}, pues son los grados de c(3) y d(3) cuyos tonos están contenidos en m. Los grados comunes entre d(3) y m(3) son iid, ivd, vd y viid, por lo que éstos son los grados pivotes en la modulación de c(3) a d(3).
 
Los pivotes predichos por este modelo coinciden con los propuestos por Schönberg en su tratado Harmonielehre. Pero lo importante del enfoque matemático no es su concordancia con las ideas de Schönberg o las de cualquier otro teórico de la música, pues en ese caso resultaría superfluo. Lo fundamental es que descansa en pocos principios bien definidos y que se puede extender a otros ámbitos de manera natural: funciona para las escalas armónicas menores, las escalas de tonos enteros o en todo lo anterior pero en afinaciones justas, pitagóricas o microtonales. Inclusive pueden reemplazarse los tonos por los golpes del metrónomo en un compás de doce octavos (por tomar un metro particular) para efectuar ¡modulaciones rítmicas! Un ejemplo de ellas puede escucharse en la obra Synthesis de Guerino Mazzola.
 
Contrapunto
 
El contrapunto, parafraseando a K. Jeppesen, es el arte de preservar, de manera balanceada y armónica, la independencia de las voces en una composición polifónica. Por ello, si en la armonía los protagonistas son los acordes y las modulaciones, en el contrapunto son los intervalos y las consonancias, que son finalmente las relaciones que existen entre las voces de una composición polifónica.
 
Ahora bien, un “intervalo” es la distancia que existe entre un tono y otro. En ese sentido, hay solamente doce distancias posibles (sin tomar en cuenta octavas) y por eso también podemos modelarlas con Z12. También tienen nombres musicales tradicionales (cuadro 1). En el contrapunto clásico descrito por Johann Fux en su obra clásica Gradus ad Parnassum, las consonancias son el unísono (que engloba a las octavas), la quinta justa y las terceras y sextas (tanto menores como mayores). El resto son disonancias. Si se codifican como los elementos de Z12 vemos que las consonancias son k = {0, 3, 4, 7, 8, 9} y las disonancias son d = {1, 2, 5, 6, 10, 11}, cada conjunto con seis intervalos.
 
 
 
Intervalo Nombre Intervalo Nombre
0 unísono u octava 6 tritono
1 segunda menor 7 quinta perfecta
2 segunda mayor 8 sexta menor
3 tercera menor 9 séptima menor
4 tercera mayor 10 séptima menor
5
cuarta perfecta
11
séptima mayor
Cuadro 1. Nombres de los intervalos.
 
 
 
 
 

Una observación fundamental de Mazzola es que la transformación p(x) = 5x + 2 transforma consonancias en disonancias y recíprocamente: p(k) = d, p(d) = k. Además, es la única simetría con esta propiedad (y por eso es denominada “polaridad”). Con esto se pone de manifiesto que las simetrías deben incluir ahora multiplicación por quintas y cuartas, además de la inversión que se emplea en la armonía. Sin embargo, estas operaciones no se pueden visualizar tan fácilmente en la aritmética del reloj. Pero cambiando un poco la perspectiva (como aconseja la filosofía de Yoneda), hay una manera de resolver esto usando el llamado “toro de terceras” (figura 3), que resulta de ver cada intervalo como una suma de terceras menores (número 3 en el cuadro 1) y mayores (4). Con este objeto geométrico se puede ver que: a) la inversión (11) corresponde a rotar 180 grados respecto del eje que atraviesa el toro; b) la multiplicación por cuartas (5) es la reflexión respecto de un plano horizontal que corta a la mitad al toro, y la multiplicación por quintas (7) la reflexión respecto de un plano vertical que pasa por la tercera menor; c) transponer en una tercera menor equivale a rotar 90 grados y transponer una tercera mayor en un giro de 120 grados.
 
 
 
Figura3A7
Figura 3. Simetrías del toro de terceras.
 
 
 
 
 

El contrapunto de la primera especie es la composición polifónica más simple, donde solamente hay dos voces que emiten notas de idéntica duración y son tales que los intervalos entre ellas siempre son consonancias (figura 4). Al componer contrapunto de la primera especie, generalmente una de las voces está dada de antemano y se le llama cantus firmus, mientras que la otra se construye de acuerdo con ciertas reglas y se denomina discanto. Además, es deseable que el discanto permanezca siempre por debajo, o bien siempre por arriba del cantus firmus. Cuando no sucede así, se dice que las voces se cruzan, por lo que se evita en la medida de lo posible. Por ello, en lo sucesivo supondremos que siempre el cantus firmus está por debajo del discanto y que entonces todos los intervalos entre ambas voces son ascendentes.
 
 
 
Figura4A7
Figura 4. Ejemplo de contrapunto de la primera especie. El cantus firmus está en la voz inferior.
 
 
 
 
 

Para modelar el contrapunto de la primera especie y formalizar matemáticamente las reglas para componerlo se requiere solamente una voz (el cantus firmus) y asociarle intervalos, pues de esta manera queda determinada unívocamente el discanto. Esto se logra utilizando el anillo de los “números duales” sobre Z12, que es el anillo cociente Z12[e] = Z12[x]/(x2) = {a + eb: a, b pertenecen a Z12}. Cada número dual a + eb representa un intervalo de contrapunto, donde a es el tono del cantus firmus y b el intervalo entre el cantus firmus y el discanto. Por lo tanto, el tono del discanto es a + b.
 
Vale recalcar que los intervalos que se emplean en el contrapunto de la primera especie son: k[e] = {a + ec, a pertenece a Z12 y c es una consonancia}. El resto de los intervalos de contrapunto son los intervalos disonantes d[e] = {a + ec, a pertenece a Z12 y c es una disonancia}.
 
Es posible multiplicar intervalos de contrapunto de la siguiente manera: (a + xb)(c + xd) = (ac + x)(ad + bc). También pueden sumarse: (a + xb) + (c + xd) = (a+c) + e(b + d).
 
Tales operaciones algebraicas no son vanos caprichos matemáticos, pues son musicalmente significativas: representan algunas de las transformaciones comunes en el contrapunto doble, permiten reinterpretar los intervalos cuando se cruzan las voces y son un elemento crucial para obtener el modelo matemático del contrapunto clásico de la primera especie. Para entender el por qué de esto último, empezaremos por notar que la multiplicación de intervalos de contrapunto permite definir simetrías de los intervalos de contrapunto, análogas a las de los intervalos sencillos. En este caso, una simetría es de la forma siguiente: f(a + eb) = (u + ey)(a + eb) + (s + et), donde u = 1, 5, 7, 11.
 
Así como existe una transformación p(x) = 5x + 2 que intercambia los intervalos consonantes por disonantes, para cada cantus firmus a existe una transformación pa(c + ed) = 5(c + ed) + 8a + e2 que intercambia los intervalos de contrapunto consonantes por disonantes, es decir, pa(k[e]) = d[e]. Adicionalmente, deja invariantes los intervalos con cantus firmus a (esto es, pa(a + eb) = a + eb’). La llamaremos una “polaridad relativa” (respecto de a). Por ejemplo, el intervalo de una quinta justa sobre d es 2+e7, y p2 lo manda a p2(2 + e7) = 5(2 + e7) + 8·2 + e2 = (10 + e11) + 4 + e2 = 10+4 + e(11 + 2) = 2 + e1, que es una segunda menor sobre d y es, desde luego, una disonancia.
 
Una simetría de intervalos de contrapunto f permite “deformar” las consonancias k[e] (figura 5), de modo que los elementos de f(k[e]) son “consonancias deformadas”; algunas siguen siendo consonancias, pero otras no. Supongamos ahora que elegimos algún intervalo consonante a + eb que no es una disonancia deformada por f, es decir, a + eb no pertenece a f(k[e]). Entonces todos los restantes elementos que pertenecen a f(k[e]) y a k[e] son consonancias que “suavizan” la disonancia deformada a + eb. Esto permite introducir una tensión horizontal en el contrapunto, a pesar de que en el contrapunto de la primera especie debemos restringirnos a utilizar consonancias. Efectivamente: a un intervalo de contrapunto que es una consonancia podemos verlo como disonancia deformada, y entonces contraponerle un “sucesor” que sea al mismo tiempo un intervalo de contrapunto consonante y una consonancia deformada.
 
 
Figura5A7
Figura 5. Efecto de las simetrías de intervalos de contrapunto.
 
 
 

Naturalmente, nos gustaría que para un intervalo de contrapunto a + eb la simetría f sea tal que dispongamos de la mayor cantidad posible de elecciones para el intervalo de contrapunto sucesor. También es deseable que la polaridad relativa respecto de a intercambie a f(k[e]) y f(d[e]), es decir, que el mismo modo de intercambiar consonancias por disonancias intercambie consonancias y disonancias deformadas.
 
Entonces, dado el intervalo de contrapunto a + eb, diremos que f es una “simetría de contrapunto” para dicho intervalo si se satisface lo siguiente: a) el intervalo a + eb no es una consonancia deformada por f, es decir, a + eb no está en f(k[e]); b) la polaridad relativa pa(x) intercambia consonancias deformadas por disonancias deformadas, esto es, pa(f(k[e])) = f(d[e]); c) el conjunto de consonancias que también son consonancias deformadas por f es el más grande posible, tal que f tiene las dos propiedades anteriores.
 
Dada una simetría de contrapunto f para un intervalo de contrapunto a + eb, todos los elementos que son tanto consonancias como consonancias deformadas por f son sucesores “admisibles” de a + eb. Tenemos entonces como resultado un teorema de contrapunto: cualquier intervalo de contrapunto consonante a + eb tiene al menos 36 sucesores admisibles. En particular, cada intervalo de contrapunto tiene una simetría de contrapunto. Además, si se elige de antemano el cantus firmus del intervalo sucesor, siempre existe al menos un sucesor admisible para dicho cantus firmus.
 
 
Ejemplo 6. Consideremos el intervalo de contrapunto 0 + e7 (la quinta perfecta sobre c) y la simetría g(a + eb) = 7(a + eb). Ésta es una simetría de contrapunto para el intervalo, pues g(k[e]) = Z12 + e{0, 1, 3, 4, 8, 9}, así que 0 + e7 no es una consonancia deformada.
 
Es fácil verificar que éste satisface el resto de las propiedades, y que el número de sucesores admisibles es de 60, lo cual significa que todos los intervalos consonantes pueden suceder a una quinta perfecta, salvo la quinta justa. Ésta es una regla que también da Fux en su tratado, la gran diferencia es que aquí es una consecuencia del modelo, y no un prerrequisito.
 
El teorema de contrapunto nos dice que para cualquier cantus firmus podemos componer un discanto exclusivamente con consonancias que son sucesores admisibles. También es interesante que, si restringimos a los tonos del cantus firmus y el discanto para que permanezcan en cierta escala, la escala que nos da la mayor libertad de elecciones para los sucesores es la escala mayor; solamente en dos casos el sucesor admisible es único. Lo contrario pasa con la escala melódica menor: en 16 casos el sucesor es único. Éstas son consecuencias que podrían deducirse de las reglas del contrapunto clásico, pero vale enfatizar que fueron deducidas de unos cuantos principios bien definidos.
 
En un análisis detallado realizado por Muzzulini y Mazzola, descubrieron que las reglas de Fux restringidas a una octava (el que denominan “estilo estricto restringido”) arrojan un total de 54 progresiones de contrapunto inadmisibles. El modelo matemático da 37 prohibiciones, y coincide con los de Fux en 21 ocasiones. La probabilidad de que alguien, sin saber nada de contrapunto, acierte a dar 21 prohibiciones de las 54 posibles en 37 intentos es ¡menos de 2 en cien millones!
 
Si bien este argumento favorece el modelo matemático, lo importante otra vez no es atinarle a las ideas de Fux, Palestrina u otros tratadistas o practicantes del contrapunto. Lo importante es la simplicidad, la precisión y la capacidad del modelo para extenderse a otros ámbitos. Por ejemplo, en su tesis de maestría, Jens Hichert demostró que (además de las consonancias y disonancias del contrapunto clásico occidental) existen otras cinco formas de bipartir los intervalos en “consonancias y disonancias”, de modo que el modelo funciona de manera idéntica. Una de esas biparticiones es: i = {2, 4, 5, 7, 9, 11}, j = {0, 1, 3, 6, 8, 10}, esto es, la llamada “dicotomía jonia”. Obsérvese que los elementos de i son los intervalos de cualquier escala mayor tomados a partir de su primer tono.
 
Usando el modelo del contrapunto con la dicotomía jonia y si restringimos el cantus firmus y el discanto a permanecer en una escala, la escala que nos da la mayor libertad de elección de sucesores admisibles es k* = {0, 3, 4, 7, 8, 9, 11}. Esta escala es casi el conjunto de las consonancias occidentales, y también es casi idéntica a una escala básica para las ragas hindúes: {0, 1, 3, 4, 7, 8, 9}. Resulta así que la música occidental y la hindú son antipodales, en el sentido de que intercambian los papeles de las consonancias y las escalas en sus composiciones, y se pone de manifiesto que la selección histórica del material musical en distintas culturas tiende a optimizar algunos parámetros abstractos.
 
Para finalizar, cabe mencionar que este modelo de contrapunto se ha verificado parcialmente a nivel neurológico. Los análisis con electroencefalogramas profundos hechos por un equipo liderado por el epilepsiólogo HeinzGregor Wieser y Guerino Mazzola han revelado que el cerebro responde fuertemente a la confrontación de las consonancias y las disonancias que resultan de aplicarle la polaridad. Además, han arrojado algo de luz sobre la interrelación de las emociones y la música: la conclusión es que la música por sí misma no produce emociones, sino que las recupera y las reactiva de entre aquellas presentes en la memoria.
 
 
Comentarios finales
 
Nuestro ejemplo final sobre la fructífera relación entre la matemática y la música pertenece a la teoría enumerativa, que constituye un acercamiento cuantitativo a la clasificación de composiciones locales vía acciones de grupos de permutaciones. El trabajo pionero en el área es de Harald Fripertinger. Esta teoría trata de contar las órbitas de acciones de grupos finitos en conjuntos finitos, los cuales representan objetos particulares especiales, es decir, acordes, particiones de conjuntos de clase de notas o de altura, motivos, sucesiones de 12 notas, etcétera. Los grupos consisten en transformaciones musicales interesantes, tales como la transposición y la inversión.
 
Un teorema de Fripertinger muestra, en particular, que el número de clases de los motivos de 72 elementos es de: 2 230 741 522 540 743 033 415 296 821 609 381 912 = 2.23…·1036 lo cual indica que no hay escasez de motivos para ser introducidos en la composición musical. Visto de otra manera, a cada estrella de la Vía Láctea podríamos dedicarle una única melodía de más de un millardo de millardos de motivos distintos de 72 tonos.
 
La música pertenece a los humanos y no aparece ya como una revelación de las divinidades de cualquier índole. Esta renovación se debe también al inmenso arsenal de información y tecnología comunicativa donde la información se convierte en algo muy accesible y la carencia de precisión es de inmediato señalada. Esta situación da lugar a una nueva y fundamental manera de entender el conocimiento humano.
 
El conocimiento está actualizándose y extendiéndose constantemente, y en él navegamos y experimentamos con un espíritu de espaciotiempo dinámico. Ahora tenemos nuevos paradigmas en musicología. Recordemos el experimento de Galileo acerca de la velocidad instantánea. Su aproximación al problema de la caída libre de los cuerpos fue esencialmente la de la observación y la medición, y no la elaboración de reflexiones abstractas y especulativas. Su punto clave fue el de pasar del encapsulamiento especulativo de Oresme y los científicos medievales a la accesibilidad del “hacer ciencia” con el método operacional: pensar haciendo. Este episodio tiene un análogo musicológico: la velocidad en física con tiempo musical… solamente que 500 años después.
 
Esto coloca a la física y la musicología en vías paralelas, donde hoy músicos activos y matemáticos, entre otros, están al borde de lo explícito y dejan las especulaciones irrelevantes donde corresponde. Se está abandonando las últimas retóricas vacías. La evolución galileana fue la respuesta a la supuesta profundidad del discurso retórico. Si consideramos los universos creados por el hombre, tales como la matemática y la música, podremos ver que tales universos internos no son menos complicados e incontrolables que la naturaleza externa. Una pieza de naturaleza incontrolable, con su riqueza creativa, con la increíble complejidad nacida de procesos combinatorios, estrategias de interpretación, estratificación semiótica, etcétera, como lo es el Arte de la Fuga de J. S. Bach, no es fundamentalmente diferente de una estrella de neutrones en el espacio interestelar. Estamos viviendo actualmente un cambio tan radical en la musicología como el que se experimentó en la física hace 500 años. ¡Sin duda es un momento maravilloso!Chivi_102
 
  articulos
 
 
Referencias bibliográficas
 
 
Aceff F. y E. LluisPuebla. 2006. “Matemática en la Matemática, Música, Medicina y Aeronáutica”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Divulgación, vol. 1.
_____. 2007. “Matemática en la Matemática II, Música II, Naturaleza y Nuestro Cuerpo”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Divulgación, vol. 2.
AgustínAquino, Octavio Alberto. 2009. El Teorema de Contrapunto. Tesis de maestría, unam, México.
_____, J. du Plessis, E. LluisPuebla y M. Montiel. 2009. “Una Introducción a la Teoría de Grupos con Aplicaciones en la Teoría Matemática de la Música”, en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Textos, vol. 10.
Fux, J. J. 1725. Gradus ad Parnassum. Facsímil. Moments of Music and Music Literature, Broude Brothers, Nueva York. 1966.
Hichert, J. 1993. Verallgemeinung des Kontrapunkttheorems für die Hierarchie aller starkenDichotomien in temperierter Stimmung. Tesis de maestría, TU Ilmenau.
Jeppesen, K. 1992. Counterpoint: The Polyphonic Vocal Style of Sixteenth Century. Dover, Nueva York.
LluisPuebla, E. 1990. Álgebra homológica, cohomología de grupos y Kteoría algebraica clásica. Addison Wesley Iberoamericana, México (2a ed.” en Sociedad Matemática Mexicana. Publicaciones Electrónicas, Serie Textos, vol. 5).
Mazzola, Guerino (contribuyentes: E. LluisPuebla et al.). 2002. The Topos of Music. BirkhäuserVerlag, Basilea.
Mazzola, Guerino. 2007. La vérité du beau dans la Musique. Delatourircam, París.
Montiel Hernández, M. 1999. El denotador: su estructura, construcción y papel en la teoría matemática de la música. Tesis de Maestría, unam, México.
Schönberg, A. 1974. Tratado de armonía. Trad. Ramón Barce. Real Musical, Madrid.
     
____________________________________________________________
     
Octavio A. Agustín Aquino
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Estudió la licenciatura en Matemáticas Aplicadas en la Universidad Tecnológica de la Mixteca (Huajuapan de León, Oaxaca) y la Maestría en Ciencias Matemáticas en la Universidad Nacional Autónoma de México. Actualmente es estudiante del Doctorado en Ciencias Matemáticas en la UNAM.
 
Emilio Lluis Puebla
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
Realizó sus estudios profesionales y de Maestría en Matemática en México. En 1980 obtuvo su Doctorado en Matemática en Canadá. Es catedrático de la Universidad Nacional Autónoma de México desde hace más de treinta años. Ha sido profesor visitante en Canadá.
 
 
como citar este artículo
 
Agustín Aquino, Octavio A. y Lluis Puebla, Emilio. (2011). Una invitación a la teoría matemática de la música. II. Armonía y contrapunto. Ciencias 102, abril-junio, 68-77. [En línea]
     
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 102