revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
 Entrada109A01   menu2
 
 
   
   
Mariana Espinosa Aldama      
               
               
La gravedad existe, a todos nos consta. Es de las primeras
cosas que siente un bebé cuando sale de su bolsa de líquido amniótico, y todos la estudiamos a conciencia a los pocos meses de haber nacido al tirar una y otra y otra vez la comida al suelo mientras nuestras desesperadas madres hacen el reiterado esfuerzo de levantar los alimentos arrojados y limpiar por enésima ocasión el piso. La gravedad hace que las frutas se caigan de los árboles y atrae la Luna a la Tierra y la Tierra a la Luna. Desde el punto de vista más clásico, se trata de una fuerza central, atractiva, que decae conforme aumenta la distancia y depende directamente de la masa. Su carácter de universal no se debe a que sea válida en todo el Universo, sino al hecho de que ocurre entre todos los cuerpos que se hallan en éste y entre todas las partes de los cuerpos, afectando la totalidad de las partículas sin excepción, incluyendo los fotones. Su ámbito de validez, en cambio, no es universal en el sentido más amplio, pues sabemos que en sistemas microscópicos y menores priman la fuerza electromagnética, la nuclear débil y la nuclear fuerte. Y a pesar de que la gravedad es la más evidente, también es la más misteriosa de las cuatro interacciones fundamentales pues, a diferencia de las otras tres, todavía no hemos podido explicar satisfactoriamente cómo se da y se transmite la información gravitacional.
 
Las reglas para filosofar
 
Isaac Newton no se ocupó de explicar las causas de esta fuerza, solamente de construirla, pero muy acertadamente, pues predice el movimiento de todos los planetas del sistema solar, con excepción de Mercurio cuyo perihelio varía unos 43” de arco cada 100 años debido a efectos relativistas. Para encontrar la fuerza de gravedad, Newton puso en acción sus tres leyes (inercia, F = ma, acciónreacción), apoyándose en los fenómenos observados (las distancias medias al Sol y los tiempos periódicos de las órbitas de la Luna, de los planetas y los satélites galileanos), utilizando ciertas definiciones, entre ellas la de la masa y la cantidad de movimiento, recurriendo a la deducción mediante razonamientos matemáticos, utilizando la hipótesis de un espacio y un tiempo absolutos, y aplicando sus cuatro reglas para filosofar: 1) “no debemos para las cosas naturales admitir más causas que las verdaderas y suficientes para explicar sus fenómenos”; 2) “por consiguiente, debemos asignar tanto como sea posible a los mismos efectos las mismas causas”; 3) “las cualidades de los cuerpos que no admiten intensificación ni reducción, y que resultan pertenecer a todos los cuerpos dentro del campo de nuestros experimentos, deben considerarse cualidades universales de cualesquiera tipos de cuerpos”; y 4) “en filosofía experimental debemos recoger proposiciones verdaderas o muy aproximadas, inferidas por inducción general a partir de fenómenos, prescindiendo de cualesquiera hipótesis contraria, hasta que se produzcan otros fenómenos capaces de hacer más precisas esas proposiciones o sujetas a excepciones [...] Hemos de seguir esta regla para que el argumento por inducción no pueda ser eludido por hipótesis”.

Las reglas 1 y 2 nos dicen, básicamente, que no hay que dar explicaciones de más o redundantes; la tercera hace la caracterización de la universalidad y la cuarta resume de manera muy apretada el precepto básico de la corriente filosófica empirista moderna. En efecto, el empirismo de la edad moderna es la forma de acercarse al mundo a partir de la experimentación, de cuantificar los fenómenos y formular relaciones en función de esas mediciones (lo cual siempre se reduce a medir distancias, tiempos y cantidad de materia) y, por último, confirmar las relaciones comparando nuestras predicciones con una gran cantidad de fenómenos y así, por medio de la inducción, encontrar las leyes que rigen el Universo.

Una de las mayores motivaciones de Newton para escribir Los principios matemáticos de la filosofía natural era mostrar que las reglas para filosofar de los aristotélicos, en especial las del francés René Descartes y su modelo del mundo, eran equivocadas. En su introducción a la segunda edición de los Principia, Roger Cotes expresó estas motivaciones: “Los que han abordado la filosofía natural pueden reducirse a tres clases aproximadamente. De entre ellos, algunos han atribuido a las diversas especies de cosas cualidades ocultas y específicas, de acuerdo con lo cual se supone que los fenómenos de cuerpos particulares proceden de alguna manera desconocida. El conjunto de la doctrina escolástica, derivada de Aristóteles y los peripatéticos, se apoya en este principio. Estos autores afirman que los diversos efectos de los cuerpos surgen de las naturalezas particulares de esos cuerpos. Pero no nos dicen de dónde provienen esas naturalezas y, por consiguiente, no nos dicen nada. Como toda su preocupación se centra en dar nombres a las cosas, en vez de buscar en las cosas mismas, podemos decir que han inventado un modo filosófico de hablar, pero no que nos hayan dado a conocer una verdadera filosofía.”

“Otros han intentado aplicar sus esfuerzos mejor rechazando ese fárrago inútil de palabras. Suponen que toda materia es homogénea, y que la variedad de formas percibida en los cuerpos surge de algunas afecciones muy sencillas y simples de sus partículas componentes. Y procediendo de las cosas sencillas a las más compuestas toman con certeza un buen camino, siempre que no atribuyan a esas afecciones ningún modo distinto del atribuido por la propia Naturaleza. Pero cuando se toman la libertad de imaginar arbitrariamente figuras y magnitudes desconocidas, situaciones inciertas y movimientos de las partes, suponiendo fluidos ocultos capaces de penetrar libremente por los poros de los cuerpos, dotados además de una sutileza omnipotente y agitados por movimientos ocultos, caen en sueños y quimeras despreciando la verdadera constitución de las cosas, que desde luego no podrá deducirse de conjeturas falaces cuando apenas logramos alcanzarla con comprobadísimas observaciones. Los que parten de hipótesis como primeros principios de sus especulaciones —aunque procedan luego con la mayor precisión a partir de esos principios— pueden desde luego componer una fábula ingeniosa, pero no dejará de ser una fábula.”
“Queda entonces la tercera clase, que se aprovecha de la filosofía experimental. Estos pensadores deducen las causas de todas las cosas de los principios más simples posibles; pero no asumen como principio nada que no esté probado por los fenómenos. No inventan hipótesis, ni las admiten en filosofía, sino como cuestiones cuya verdad puede ser disputada. Proceden así siguiendo un método doble, analítico y sintético. A partir de algunos fenómenos seleccionados deducen por análisis las fuerzas de la naturaleza y las leyes más simples de las fuerzas, desde allí, por síntesis, muestran la constitución del resto. Ese es el modo de filosofar, incomparablemente mejor, que nuestro célebre autor ha abrazado con toda justicia prefiriéndolo a todo el resto por considerarlo único merecedor de ser cultivado y adornado por sus excelentes trabajos”.

Descartes es uno de los máximos representantes del racionalismo, corriente epistemológica que propone llegar a la verdad por medio de la razón, tomando como fundamento los conocimientos más seguros y verdaderos (como la lógica, la geometría y las matemáticas). Es decir, propone que se haga uso del método deductivo acompañado de hipótesis razonables. Sobre esta base se comparan las conclusiones con las observaciones y se valida el camino recorrido. Descartes, de hecho, recomendaba hacer caso omiso de lo falso o verdadero que pudiera parecer nuestro fundamento, pues dudar era su regla número uno. Dudar de todo, excepto de la existencia de dios y de que uno existe afortunadamente también recomendaba no aplicar esa duda a la vida práctica.

En realidad, se hace y siempre se ha hecho filosofía natural combinando el método inductivo con el deductivo, pues ambos son eficaces en la inteligencia de que si nuestra aproximación al mundo fuera dogmática en un sentido u otro, caeríamos, por el lado empirista, en la simple descripción del mundo, olvidando el objetivo de comprender los procesos causales; si nuestra aproximación fuera ultrarracionalista, podríamos caer fácilmente en sueños y quimeras, que aun cuando estén bien construidas matemáticamente, no reflejen la realidad del mundo. La historia de la gravitación y la cosmología nos da muchos ejemplos de este ir y venir del racionalismo al empirismo, del método deductivista al inductivista y de vuelta.

Así, en 1846, el francés Urbano Le Verrier y el inglés John Adams calcularon con 1º y 12º de error la posición en la que habría de buscarse un planeta que explicara las perturbaciones que se observaban en la órbita de Urano. En vista del éxito obtenido, Le Verrier supuso que la precesión del perihelio de Mercurio también se debía a otro planeta ubicado más cerca aún del Sol; murió pensando que Vulcano existía, pero nunca se le vio. La órbita de Mercurio se volvió, en consecuencia, un problema para la teoría de la gravitación.

 
Un nuevo punto de vista
 
En el siglo XIX, las nuevas ideas vinieron de Alemania, en especial de la Universidad de Göttingen, donde los matemáticos hicieron escuela. Ahí, Bernhard Riemann, animado por su tu
tor, el gran Carl Friedrich Gauss, presentó en 1854 su famosa ponencia “Sobre las hipótesis en que se funda la geometría”, explicando cómo el espacio que aparece ante nuestros sentidos es un caso particular de tres dimensiones de los muchos espacios que se puede imaginar e incluso posiblemente existir. Los espacios se distinguen en particular por la manera en que se definen las distancias (no es lo mismo una línea recta en un plano que en la superficie de una esfera), y sólo al establecerse dichas relaciones métricas puede definirse la curvatura o el tipo de espacio que se tiene. Las relaciones métricas pueden obtenerse únicamente a partir de la experiencia, es decir, por medio de observaciones astronómicas y experimentos. Riemann además explicó la manera de extender la geometría diferencial a n dimensiones utilizando tensores para expresar la curvatura; sus trabajos fueron esenciales para concebir el espacio-tiempo de cuatro dimensiones y la relatividad general.

Cuando Albert Einstein trabajaba en la oficina de patentes en Berna, el espacio ya había perdido su rigidez clásica. También había más dimensiones, campos electromagnéticos, luz que viajaba a velocidad constante, leyes físicas que dependían del marco de referencia y un misterioso éter que no se dejaba explicar. La teoría de la relatividad especial o restringida flotaba en el aire y se requirió la inspiración del genio rebelde para dudar también de lo absoluto del tiempo, concluyendo que aquello que medimos (tiempos, distancias y cantidad de materia) difiere para observadores en distintos marcos de referencia. La relatividad especial es una teoría muy rica que relaciona la masa con la energía y que permitió entender las simetrías de las leyes electromagnéticas, pero no trata de la gravedad.

En realidad, Einstein no estaba satisfecho con ella, pues buscaba una ley que explicara no sólo la física en sistemas inerciales, sino también en los sistemas acelerados. De hecho, pretendía unificar la teoría electromagnética con la gravitatoria. Él mismo cuenta que, en 1907, mientras trabajaba en un artículo titulado “Sobre los principios de la relatividad y sus consecuencias” tuvo “la idea más feliz de su vida”: para un observador cayendo libremente desde el techo de una casa no existe campo gravitacional. Esto le iluminó el camino para desarrollar la teoría de la relatividad general, con ecuaciones de movimiento que fueran válidas para cualquier sistema de referencia, acelerado o no. Le llevó casi nueve años encontrar las ecuaciones que describieran bien esta situación (que fueran covariantes) y como no contaba con la pericia matemática necesaria, acudió a varios matemáticos. En el verano de 1915, el gran matemático David Hilbert lo invitó a Göttingen para que diera un seminario sobre su teoría. Tras esta estancia, y una serie de intercambios epistolares, ambos genios derivaron las ecuaciones tan buscadas. Como buen matemático, Hilbert buscó una técnica general que se aplicase a cualquier espacio, recurriendo nuevamente al principio de mínima acción; pero a Einstein le interesaba sólo una ecuación, la que representara el espacio físico. Detrás de las ecuaciones generales de gravitación está la idea, indudablemente de Einstein, de que la gravedad no es un campo como el electromagnético, sino una manifestación de la curvatura del espacio-tiempo mismo, debido a la presencia de masa. Éste es el principio de geometrización (o de métrica) y en él se sostienen casi todas las teorías gravitatorias desarrolladas durante el siglo XX y hasta nuestros días.

Para probar la teoría de Einstein, su amigo y colega, el astrofísico inglés Arthur Eddington fue a la isla Príncipe, en el golfo de Guinea, con el fin de fotografiar las estrellas alrededor del Sol durante el eclipse de 1919. Siete de las diez placas fotográficas se le echaron a perder por no haber previsto el calor y la gran humedad del ecuador. Las tres restantes mostraron que las estrellas se encontraban desviadas de su sitio, lo que corroboraba el efecto de lente gravitacional predicho por Einstein. Igualmente, pudo describir la precesión de Mercurio. Muchos otros experimentos se han realizado en el sistema solar encontrando que la teoría funciona, sin embargo, ni la mecánica clásica ni la teoría de la relatividad general logran describir el veloz movimiento de sistemas más lejanos y masivos como las galaxias; tampoco explican la acelerada expansión del Universo, ni las lentes gravitacionales producidas por cúmulos galácticos sin hacer mayores suposiciones.
 
Dos oscuros problemas
 
Durante el decenio de 1930, Fritz Zwicky, astrónomo suizo que trabajó durante gran parte de su vida en el Instituto Tecnológico de California, realizó una serie de investigaciones y propuestas que han contribuido enormemente a la cosmología y que en tiempos recientes han cobrado gran valor. Entre ellas, Zwicky conjeturó, en 1933, la existencia de gran cantidad de materia inobservable (que denominó “materia oscura”) tras estimar la masa del cúmulo galáctico Coma al medir su luminosidad y la velocidad de sus galaxias. Para explicar la dinámica de Coma según las leyes de Newton y Einstein, Zwicky llegó a la conclusión de que debía haber 400 veces más masa de la que se veía. Sin embargo, en aquellos años, los instrumentos disponibles sólo captaban la luz visible y se pensaba que con nuevos telescopios de luz infrarroja, rayos X o microondas aquella materia podría verse.

A finales de los sesentas, la astrónoma estadounidense Vera Rubin utilizó un nuevo espectrógrafo de gran sensibilidad para estimar la velocidad de las estrellas en el disco de la galaxia espiral de Andrómeda, la más cercana a la Vía Láctea. Para su sorpresa, la velocidad de las estrellas no disminuía conforme la distancia al centro aumentaba, como sucede en el Sistema Solar, sino que se mantenía prácticamente constante. Vera midió más de doscientas galaxias y encontró en todas el mismo fenómeno: el aplanamiento de las curvas de rotación de los discos galácticos. Al igual que en el caso de los cúmulos galácticos que estudió Zwicky, la fuerza centrífuga que debieran sentir las estrellas ubicadas en las partes más externas de las galaxias debía haber provocado ya su dispersión a manera de rehilete de agua. Como no se ve que esto suceda, se ha supuesto que existe una mayor fuerza gravitatoria que mantiene unidas a las galaxias y que dicha fuerza debe ser provocada por una gran cantidad de materia dispuesta en halos que las rodea. Desde entonces, dicho fenómeno ha sido observado en galaxias elípticas, cúmulos globulares, galaxias enanas esferoidales, cúmulos galácticos y supercúmulos. En todos los sistemas en donde la masa y la distancia son de gran magnitud, la velocidad es mayor a la que predice Newton.

Por otro lado, la forma en que se curva la luz al pasar cerca de cúmulos galácticos, las llamadas lentes gravitacionales, no se puede explicar con la teoría de Einstein sin invocar nuevamente grandes cantidades de materia invisible.

Los fenómenos oscuros o, por decirlo más francamente, inexplicables, provocan comezón en muchos científicos. Lo que particularmente suscita dudas y perplejidades puede resumirse de la siguiente forma: en primer lugar, el hecho de que la materia oscura no haya podido ser observada en otras longitudes de onda, por lo que se infiere que no hay interacción electromagnética y, por lo tanto, de naturaleza exótica. Y, en segundo, el que la materia oscura no esté compuesta por protones y neutrones (no es bariónica) y no absorbe ni emite radiación, no se agruma, sino que más bien se comporta como un fluido, atraviesa la materia ordinaria y es, hasta la fecha, indetectable e irreproducible, incluso con los aceleradores más potentes y los telescopios más sofisticados. Asimismo, la materia oscura tampoco entra dentro del modelo estándar de partículas que recientemente se completó con la detección del bosón de Higgs. A pesar de todo lo anterior, sigue sosteniéndose la hipótesis de que la materia oscura comprende más de 80% de la materia del Universo.

Recientemente, los científicos del Gran Colisionador de Hadrones ubicado en Ginebra, Suiza, presentaron resultados negativos en sus experimentos al no poder detectar ni reproducir la materia oscura. Igualmente, el cosmólogo mexicanobritánico Carlos Frenk, director del Instituto de Cosmología Computacional de la Universidad de Durham, Inglaterra, quien realizó la famosa “simulación del milenio” de la distribución de materia oscura, admitió que el modelo de la materia oscura en su versión fría —partículas que viajan a baja velocidad— no puede explicar el comportamiento de las galaxias enanas esferoidales (sistemas pequeños de entre mil y un millón de estrellas que giran alrededor de la Vía Láctea y que son los que más materia oscura requieren), y que por tanto se debe considerar otras formas de materia oscura, como la templada, que viaja a velocidades relativistas. Esto recuerda los tiempos renacentistas cuando los astrónomos aferrados al modelo geocéntrico colocaban epiciclos sobre epiciclos a las órbitas planetarias para poder describir sus movimientos, con tal de no tumbar el paradigma que significaba la perfección del círculo y el geocentrismo.

En 1998 se comenzó a observar sistemáticamente ciertas supernovas llamadas SN1a; este tipo de explosiones tiene una duración de semanas y su curva de luminosidad es muy característica. Fritz Zwicky las propuso en 1938 como candelas estándar para estimar distancias en el espacio más profundo. Al graficar su distancia contra su velocidad (corrimiento al rojo), puede verse que se están alejando unas de otras, pero que este movimiento es cada vez más acelerado, lo que hace pensar que el Universo se está expandiendo cada vez más rápido, contrario a lo que se esperaría, como si existiera una energía de repulsión en el vacío intergaláctico. Este es un nuevo fenómeno que la teoría de Einstein tampoco explica.
 
Algunas teorías alternas de gravitación
 
A lo largo del siglo XX se han propuesto decenas de teorías alternas a la relatividad general por distintos motivos. Einstein mismo trabajó sin éxito en la búsqueda de otras teorías capaces de unificar el electromagnetismo con la gravedad. La mayoría de las alternas son métricas y son teorías covariantes que se distinguen por el uso de distintos campos: escalares, vectoriales, tensoriales, quasilineares...

La relatividad general de Einstein se describe con tensores, y es en realidad el caso más sencillo de toda una familia de teorías gravitacionales tensoriales, llamadas F(R), que se obtienen mediante la técnica variacional de David Hilbert. Matemáticamente es posible construir otras ecuaciones que describan de igual manera los fenómenos relativistas, pero la mayor razón por preferir las ecuaciones de Einstein es la simplicidad. Éste no es un principio filosófico suficiente para preferir una teoría.

Theodor Kalusa y Oskar Klein elaboraron, por ejemplo, en los veintes, un modelo geométrico de un espacio-tiempo de cinco dimensiones a fin de unificar la gravitación con el electromagnetismo. Sobre la base de este modelo se han construido otros de más de cinco dimensiones y, además, en él se apoya la teoría de supercuerdas; pero hasta la fecha ninguno de esos modelos e hipótesis ha encontrado el sustento experimental necesario.

Algunos, como Paul Dirac, han pensado en la posibilidad de que la constante de gravitación G no fuera en realidad constante. Las motivaciones de Dirac eran más bien numerológicas y metafísicas, pues tenían que ver con su hipótesis de los números grandes que relaciona diversas cantidades cosmológicas curiosamente coincidentes. La constante de gravitación coincide con el inverso de la edad del Universo y, para mantener esta equivalencia, Dirac sugirió que G variara con el inverso del tiempo. En la misma línea Pascual Jordan, en 1959 y, más tarde, en 1961, Carl H. Brans y Robert H. Dicke elaboraron una teoría gravitacional sustituyendo la constante de gravitación universal G por una función que varía en el tiempo y el espacio.

Una propuesta similar es la del físico canadiense John W. Moffat, quien tuvo la fortuna de cartearse en su juventud con Albert Einstein. El objetivo de Moffat al proponer en 1992 su teoría de Gravitación Asimétrica (Nonsymetric Gravitational Theory, NGT), ahora conocida como MOG (Modified Gravity) era resolver los problemas de la materia oscura y la energía oscura variando G en el tiempo y el espacio, pero además, propone que la velocidad de la luz tampoco ha sido constante en el tiempo y que en los inicios del Universo ésta tenía un valor muchísimo mayor.

Entre las teorías alternas recientes dirigidas a resolver el problema de las curvas de rotación de las galaxias espirales se destaca la de Mordehai Milgrom, formulada en 1982. El físico israelí notó que dicha anomalía sucede en los sistemas que sufren cambios diminutos en la velocidad, y calculó la aceleración crítica a partir de la cual la dinámica de Newton cambia: a0 = 0.00000000012 m/s2 (figura 1). Curiosamente, esta aceleración crítica es proporcional a la constante de expansión del Universo de Hubble multiplicada por la velocidad de la luz. El razonamiento de Mordehai Milgrom fue el siguiente: “todas las determinaciones de la masa dentro de las galaxias y sistemas galácticos hacen uso de una relación virial de la forma V 2 = MG/r, donde V es la velocidad típica de las partículas en el sistema, M es la masa a ser determinada, G es la constante de gravitación y r es el radio del sistema.
Las principales suposiciones en que la relación virial están basadas son: a) la fuerza que gobierna la dinámica es la gravedad; b) la fuerza gravitacional en una partícula depende, en un modo convencional, de la masa de la partícula y la distribución de la masa que produce la fuerza; c) la segunda ley de Newton se mantiene válida; y d) la velocidad de las partículas está medida correctamente por el corrimiento al rojo con la relación usual del efecto Doppler.
 
 Figura2109A01
Figura 1. El desplazamiento de las estrellas binarias separadas por más de 1000 UA no coincide con el predicho por la ley universal de gravitación elaborada por Newton. La discrepancia se observa a partir del punto en que la aceleración sufrida por las estrellas es menor a la aceleración de Milgrom (a0). La velocidad orbital de las binarias extendidas se vuelve constante a partir de a0. La fuerza deja de ser inversamente proporcional a r2 y comienza a ser inversamente proporcional a r, confirmando la predicción de la teoría de gravitación extendida.

Milgrom optó por pensar que la suposición c no era correcta, que la reacción de un cuerpo frente a una fuerza dada es diferente a lo que Newton pensaba, pero que la fuerza producida por los objetos es la misma. Así, propuso una ecuación alterna a la segunda ley de Newton incorporando la ahora llamada aceleración de Milgrom.

A partir de su propuesta, conocida como MoND (Modified Newtonian Dynamics), han surgido numerosas variantes MoNDianas que han logrado describir algunos casos particulares como la rotación de las galaxias espirales o los cúmulos galácticos, pero que no consiguen describir todos los sistemas a la vez, incluyendo el solar (figura 2). Además, las fórmulas que presentan son rebuscadas y no permiten la solución práctica de problemas concretos. Estos modelos han sido ampliados con versiones relativistas, como es el caso de TeVeS (TensorVectorScalar Gravity), desarrollado por Jacob Bekenstein en 2004, de una gran complejidad matemática que muy pocos en el mundo dominan y que casi nadie se atreve a abordar. Pero más allá de las fórmulas resultantes, el problema de MoND radica propiamente en la intención de modificar la segunda ley de Newton que, por consenso desde el siglo XIX, es considerada la definición del concepto de fuerza. MoND no es una teoría gravitatoria, tan sólo es un modelo un tanto irracional para los más ortodoxos que, sin embargo, ha dado mucha luz al problema.
 
Figura2109A01
Figura 2. Diagrama de espacio fase de X. Hernández, que relaciona la extensión de los sistemas astronómicos con su masa. Se señalan dos escalas críticas: el radio de Shwarzchild rs = 2GM/c2 que marca el punto en que una estrella se convierte en un hoyo negro; y el radio de Milgrom:
rM = (GM/a0)1/2 que marca la transición entre el régimen newtoniano al mondiano.
 
 
Extendiendo la gravedad
 
En agosto de 2010, los astrofísicos mexicanos Sergio Mendoza, Xavier Hernández, Juan Carlos Hidalgo y Tula Bernal del Instituto de Astronomía de la UNAM se dispusieron a investigar la opción b de Milgrom con una aproximación empirista, partiendo de los fenómenos, dudando de que la fuerza de gravedad fuera la misma a grandes escalas y prescindiendo de la hipótesis de la materia oscura. Para ello tomaron en un extremo la ley de gravitación universal de Newton (la cual ha sido más que probada con gran precisión por la NASA y demás centros de investigación) y en el otro una función de fuerza que decae con el inverso de la distancia, determinada por la aceleración crítica de Milgrom, que marca la zona de transición entre los dos ámbitos. Así, a partir de un análisis dimensional y una simple interpolación, calibraron una nueva relación de fuerzas que además coincidió con el movimiento de múltiples sistemas de escalas intermedias, como galaxias elípticas y galaxias enanas esferoidales:
 
g = GM/ R2 — (a0GM)1/2 / R
 
Durante 2011, Xavier Hernández continuó buscando casos que falsearan la hipótesis oscura, como los sistemas de baja masa en donde las teorías de materia oscura no aplican, entre los que se hallan las estrellas binarias abiertas, separadas por distancias entre cien y un millón de veces la distancia de la Tierra al Sol y que giran en torno al centro de masa del par. El equipo de Hernández analizó dos catálogos de este tipo de estrellas con más de 2.5 millones de ejemplares, encontrando que, cuando la separación es mayor a mil unidades astronómicas, es decir diez veces la distancia del Sol al cinturón de Kuiper que rodea el sistema solar, la curva de rotación también se aplana, como si empezaran a sentir de pronto una mayor fuerza de atracción, proporcional no al inverso del cuadrado de la distancia que las separa, sino solamente al inverso de la distancia. Este caso puede verse como un experimento crucial que marca el límite de validez de la ley universal de Newton.

Hernández verificó la nueva relación para la gravedad con múltiples sistemas a diversas distancias y escalas. Tras estos estudios, afirmó que no hay un sólo sistema de alta aceleración que se conozca donde la curva de rotación se aplane, y que no se ha encontrado un sólo sistema de baja aceleración donde la curva de rotación no se aplane. Una excepción a cualquiera de estas dos reglas pondría en jaque la teoría de gravitación extendida, pero esa es una condición deseable para una teoría científica.
Por su parte, Mendoza y su equipo desarrollaron la versión relativista de la teoría siguiendo el camino de Hilbert. La gravedad extendida es una teoría métrica, covariante, del tipo F(R) con un campo tensorial, pero que parte de una expresión más completa de la fuerza de gravedad. Aquí c, g y a0 son constantes, pero surge una nueva relación entre la materia y el espacio, una suerte de densidad superficial con la que es posible caracterizar los distintos ámbitos del cosmos. Los más recientes trabajos de Mendoza, aplicados a problemas cosmológicos, indican que la gravedad extendida podría explicar también el problema de la energía oscura.
 
La gravedad y el modelo cosmológico
 
Las nuevas técnicas de observación astronómica, los megatelescopios y detectores satelitales han permitido ver el espacio más profundo y analizar la luz más antigua. La cosmología del siglo XXI cuenta con evidencias, observaciones y experimentos concretos que las diversas teorías deben reproducir para seguir vivas. Entre las pruebas que cualquier teoría tiene que reproducir está el perfil de cuerpo negro de la radiación de fondo cósmica, la gráfica de formación de estructura y las lentes gravitacionales. En esa dirección van los actuales trabajos de Hernández y Mendoza.

La de gravitación extendida, aunque sea una teoría alterna, no rompe con el paradigma de Newton, de hecho rescata el concepto de fuerza, y tampoco con Einstein, pues mantiene sus principios; en cambio enriquece el entendimiento de la relación materiaespacio. Llegar a ello sí ha requerido un cambio en la forma de pensar el problema y de interpretar los fenómenos, de considerar que la física a grandes escalas puede no ser la misma que a escala del sistema solar, de la misma manera en que la física a escalas muy pequeñas es cuántica y a grandes velocidades es relativista.

Mientras la disputa no se resuelva con resultados y comprobaciones empíricas nos quedaremos lucubrando sobre la naturaleza de la fuerza universal: si su alcance es infinito o no y si existe una quinta fuerza fundamental de mayor magnitud que rige otros ámbitos o simplemente que la fuerza cambia de forma; también pudiera ser que la materia oscura exótica no exista y que por tanto la materia observada represente más de 90% de la existente, lo que nos llevaría a cambiar por completo el modelo cosmológico actual, toda una revolución. El camino por recorrer es aún largo, pues la ciencia no sólo requiere buenas teorías y comprobaciones experimentales, también necesita la prueba del tiempo, convencer a mucha gente para intentar nuevos caminos, modificar programas institucionales y vencer viejos dogmas. En todos estos ámbitos la filosofía de la ciencia puede contribuir con su capacidad para afinar conceptos y análisis.
     
 
Referencias bibliográficas

Hacyan, Shahen. 2009. “What does it mean to modify or test Newton´s second law?”, en The American Journal of Physics, vol. 77, núm. 7.
Hawking, Stephen e Werner Israel. 1987. 300 Years of Gravitation. Cambridge University Press, Cambridge.
Hernández, Xavier. 2012. “A Phase Space Diagram for Gravity”, en Entropy, vol. 14, núm. 5, pp. 848-855.
Hernández, Xavier, M. A Jiménez y C. Allen. 2012. “Wide binaries as a critical test of classical gravity”, en European Physical Journal C, vol. 72, núm. 2.
Mannheim, Philip D. 2005. “Alternatives to Dark Matter and Dark Energy”, en Astrophysics. Julio.
Marquina, José. E. 2005. “La construcción newtoniana de la gravitación universal”, en Revista Mexicana de Física, vol. 51, núm. 1. Junio pp. 45-53.
Mendoza, Sergio, Xavier Hernández, Juan Carlos Hidalgo, Tula Bernal. 2011. “A natural approach to extended Newtonian gravity: tests and predictions across astrophysical scales”, en Monthly notices of the Royal Astronomical Society, vol. 411, núm. 1, pp. 226–234.
Milgrom, Mordehai. 1983. “A Modification of the Newtonian dynamics as a possible alternative to the hidden mass hypothesis”, en Astrophysical Journal, vol. 270.
Moffat, John W. 2008. Reinventing Gravity. Versión de HarperCollins libro electrónico.
Newton, Isaac. 1726. Principios Matemáticos de Filosofía Natural. (Antonio Escohotado, trad.). Tecnos, Madrid. 2011.

     
________________________________________      
Mariana Espinosa Aldama
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.

Es física, fotógrafa y maestra en comunicación de la ciencia. Trabajó durante cinco años al frente del Departamento de Difusión del Instituto de Astronomía de la UNAM. Actualmente estudia el doctorado en filosofía de la ciencia en el Instituto de Investigaciones Filosóficas de la UNAM y se especializa en temas de cosmología.
     
_____________________________________________________
 
como citar este artículo →
     
entrada109A07   menu2
   
   
José Ernesto Marquina y Rosalía Ridaura      
               
               
Entre los muchos y muy diversos fenómenos culturales
que enmarcaron la segunda mitad del siglo XVII europeo hay uno que no se señala frecuentemente a pesar de su evidente importancia hasta nuestros días: la aparición de publicaciones periódicas dedicadas, parcial o totalmente, a cuestiones relativas a la filosofía natural. Dicho acontecimiento está asociado a personajes como Dennis de Sallo, editor del Journal des Scavans, Otto Mencke de las Acta Eruditorum y, en primerísimo lugar, Henry Oldenburg, creador de las Philosophical Transactions of the Royal Society, la primera publicación periódica puramente científica.
 
Henry Oldenburg nació en Bremen, alrededor de 1619. Su padre, también llamado Henry Oldenburg, era profesor de medicina y filosofía y fue su maestro hasta el año de 1633, cuando se matriculó en el Gymnasium Illustre, en el que estudió teología, griego, latín, hebreo, retórica, lógica y matemáticas, lo que le permitió obtener, en 1639, el grado de maestro en teología. Dos años después ingresó en la Universidad de Utrecht (Holanda), en la que pasó algunos años, pero terminó abandonándola debido a razones de índole académica y monetaria.
 
De los siguientes doce años no se conoce con detalle lo que hizo, aunque se sabe que fue preceptor de jóvenes ingleses de la nobleza, con los que viajó por Francia, Italia, Suiza y Alemania —así aprendió francés, italiano e inglés, además de su lengua materna, el alemán—.
 
En 1653 regresa a Bremen, desde donde, por su manejo del inglés, es enviado a Londres como diplomático, con el encargo de conseguir de Oliver Cromwell protección para los intereses marítimos de Bremen en el enfrentamiento entre Inglaterra y Holanda. Al siguiente año, estando aún en Londres, volvió a su papel de diplomático alemán, ahora con la misión de solicitar apoyo a la resistencia de Bremen en contra de Suecia. En su primera tarea diplomática no tuvo mucho éxito, pero en la segunda le fue bastante mejor. Su estancia en Londres le permitió entrar en contacto con los círculos intelectuales y políticos ingleses, relacionándose con personajes cercanos a Oliverio Cromwell tales como Henry Lawrence y el poeta John Milton, así como con Robert Boyle, su hermana Lady Ranelagh, John Drury, Samuel Hartlib y muchos más.
 
En 1656 volvió a su labor de tutor, cuando se convirtió en preceptor de Richard Jones, hijo de Lady Ranelagh, con quien viajó a Oxford, donde posiblemente estableció contacto con John Wilkins y otros miembros de esa universidad que constituían un club filosófico, conocido como “El Colegio Invisible”.
 
Como parte de la educación del joven Jones, en 1657 viajó a Francia, viviendo en el valle del Loira. Entre 1659 y 1660 residieron en París, donde Oldenburg tuvo la oportunidad de entrar en contacto con el medio de los naturalistas franceses que se encontraba en plena ebullición por las discusiones sobre las ideas cartesianas y las novedades que provenían de personajes como Pierre Gassendi.
 
Desde Francia, Oldenburg mantuvo correspondencia sobre temas filosóficos tanto con intelectuales franceses como alemanes y, desde luego, con ingleses, figurando de manera preponderante su correspondencia con Boyle. De las cartas de Oldenburg se desprende su admiración por lo que se hacía en Francia, aunque mostraba su espíritu crítico con respecto de los naturalistas franceses que eran, decía, más discursivos que experimentales.
 
En 1660 regresa a Inglaterra, cuando empieza un nuevo periodo político, el de la restauración de la monarquía, encarnada en Carlos II de la casa Estuardo. Al final de ese año se funda la Royal Society of London for improving Natural Knowledge, que tuvo como semilla el “El Colegio Invisible” de Oxford. Entre los fundadores se encontraba Robert Boyle, Christopher Wren, John Wilkins, su primer presidente, y Robert Moray, que sustituyó a Wilkins como presidente en marzo de 1661, año en que Oldenburg ingresó a la Sociedad debido a su amistad con Boyle y John Wilkins, no obstante que él no se dedicaba a la filosofía natural.
El 15 de julio de 1662 se firmó la cédula real con la que oficialmente nace la Royal Society y en la que Wilkins y Oldenburg son nombrados secretarios y, aunque Oldenburg era el segundo secretario, fue él quien realizó casi por completo el trabajo del secretariado.
 
En sus primeros años como secretario, Oldenburg fue el intermediario en la polémica epistolar que sostuvieron Boyle y Baruch Spinoza sobre los alcances de las pruebas experimentales, defendidas por Boyle frente a las puramente lógicas o racionales esgrimidas por Spinoza.
En lo que a su vida personal se refiere, en 1663 se casó con Dorothy West, la cual murió dos años después. Cinco más tarde, en 1668, se casó con su protegida Katherina Drury (hija de John Drury) quien contaba con sólo 16 años de edad. De este segundo matrimonio, tuvo dos hijos, Rupert y Sophia.
 
Fueron múltiples las tareas a las que se dedicó Oldenburg en la Royal Society. Además de tomar las actas en todas las reuniones que ocurrían semanalmente, llevaba el archivo de las sesiones científicas que se realizaban en cada una de las reuniones, así como de la correspondencia que mantenía con los miembros de la sociedad y con más de treinta científicos de comunidades de otros países, como Francia, Italia y Alemania, para lo cual le fue muy importante su dominio del alemán, inglés, francés, italiano y latín. Esta última tarea la llevó a cabo manteniendo un libro en el cual registraba un extracto de las cartas más importantes que llegaban o salían de la Sociedad, así como los originales de ellas y de los artículos que eran enviados a ésta. El número de cartas que recibía y contestaba era del orden de seis a siete por semana.
 
Una de las acciones más sobresaliente llevada a cabo por Oldenburg en la Royal Society fue la fundación de la revista Philosophical Transactions of the Royal Society, cuyo primer número, aparecido el 6 de marzo de 1665, fue editado, publicado y financiado por el propio Oldenburg. Este primer número, empezaba con “An Account of the improvement of Optick Glasses” de Campani y Cassini, después un reporte de Hooke de una mancha que descubrió en Júpiter y “Efemérides” de Auzot, sobre el último cometa. Además, un artículo de Boyle sobre la historia del color y tres reportes enviados a la Royal Society, uno de un becerro monstruoso, otro sobre un metal encontrado en Alemania y el tercero sobre el uso de relojes de péndulo para determinar la longitud geográfica en el mar.
 
 v0 web
 Henry Oldenburg
 
Las Philosophical Transactions pueden considerarse la primera publicación periódica puramente científica, pues aunque el 5 de enero de 1665 apareció en Francia el primer número del Journal des Scavans, editado por Denis de Sallo, esta publicación se proponía dar a conocer, además de desarrollos científicos, de los cuales se publicaron sólo cuatro en los dos meses transcurridos entre la aparición de una y otra revista, obituarios de personajes famosos, informes legales e historias de la Iglesia.
 
Es de destacar el hecho de que se mantuviera la publicación mensual de las Philosophical Transactions of the Royal Society, dado que, aunque Oldenburg pensaba que la revista podría ser un buen negocio, para diciembre de 1665 únicamente se habían vendido alrededor de trescientos ejemplares, lo que apenas alcanzaba para recuperar los gastos en papel e impresión. De hecho, su publicación sólo se suspendió en dos temporadas, la primera fue la época de la peste en Londres (16651666), durante la cual muchos filósofos abandonaron Londres y, aunque Oldenburg se quedó para solventar cualquier problema que surgiera con la Sociedad, la ciudad no estaba funcionando normalmente, por lo que sólo aparecieron unos pocos números editados en Oxford; la segunda fue durante algunos meses de 1667, ya que Oldenburg fue encarcelado en la Torre de Londres de junio a finales de agosto por razones que no son claras, tal vez por la correspondencia mantenida con filósofos de países extranjeros a quienes se le acusaba de tener “designios y prácticas peligrosas”. Aunque tampoco son claras las causas de su excarcelación, el apoyo de la Royal Society pudo haber sido determinante para que esto ocurriese.
 
Una vez liberado, continuó con su incansable labor en las Philosophical Transactions, que ya para entonces era un referente en áreas tales como la zoología, la botánica, la medicina, la química, la física y la ingeniería y, dado que Oldenburg no era una autoridad científica, utilizó sus muchos contactos con el objeto de que le aconsejaran sobre la aceptación o rechazo de los trabajos a publicar, es decir, Philosophical Transactions, desde su inicio, ha sido y es una revista arbitrada.
 
Entre los filósofos naturales con los que tuvo contacto se encuentran los ingleses John Wallis, John Flamstead, Martin Lister, así como el italiano Marcello Malpighi, a quien Oldenburg invitó a la Royal Society en 1668 y le publicó su Anatomía Plantarum. Malpighi también le envió sus descubrimientos sobre los pulmones, el bazo, testículos y cerebro; el holandés Anton van Leeuwenhoek fue el primero en identificar microorganismos y en describir los glóbulos rojos y el esperma, documentando sus descubrimientos únicamente en cartas enviadas a Oldenburg.
 
Asimismo mantuvo correspondencia con el holandés Christiaan Huygens y con el matemático y filósofo alemán Gottfried Leibniz. Oldenburg no sólo se relacionaba con los grandes hombres de la época, sino que también recibía y atendía correspondencia de algunos personajes peculiares, como Nathaniel Fairfax, que le escribió extraños relatos acerca de hombres que se alimentaban de arañas y sapos.
 
Dado que muchas de las comunicaciones que recibía no estaban escritas en inglés, Oldenburg traducía cartas, críticas y trabajos relacionados con la filosofía natural para que la comunidad inglesa los conociera, publicándolos en las Philosophical Transactions o como libros editados por la Royal Society. Como en esa época el correo era casi inexistente y muy caro, utilizó sus contactos para enviar y recibir, por vía diplomática, mediante una clave para identificarla, su amplia correspondencia.
La responsabilidad de la aparición de Philosophical Transactions es un mérito tan claro de Oldenburg, reconocido además por la Sociedad que, en diciembre de 1666, más de año y medio después de la aparición del primer número, ésta le dio cuarenta libras por su trabajo y en abril de 1668 otras cincuenta. No fue sino hasta el 3 de junio de 1669 que se le asignó un salario regular de cuarenta libras al año. De hecho, sólo él y Hooke, quien recibía un salario desde años antes, eran empleados de la misma.
 
También escribió en la revista artículos para invitar y entusiasmar a los jóvenes a dedicarse a la filosofía natural y tratar de ingresar a la Sociedad, asumiendo el papel de intermediario entre los científicos que enviaban trabajos y aquellos otros que enviaban sus críticas, no siempre halagüeñas, de los mismos. Por ejemplo, un joven que respondió a esta iniciativa, en 1669, fue Isaac Newton, que comunicó a la Royal Society, por medio de Oldenburg, su invento del telescopio de reflexión, debido a lo cual fue invitado a ingresar a la Sociedad. Newton, halagado y animado por los comentarios que le hizo llegar Oldenburg sobre su trabajo, dio a conocer a la Royal Society sus teorías de los colores y la corpuscular de la luz. La aparición de las teorías newtonianas generó un intenso debate entre Newton y diversos miembros de la comunidad, siendo el más destacado de ellos Robert Hooke, que se enfrascó en una agria polémica, en la que, inevitablemente, se vio involucrado Oldenburg por su posición en el secretariado de la Sociedad y su labor en la revista. Esto ha llevado a muchos autores a responsabilizarlo del carácter de la polémica entre Newton y Hooke, y curiosamente fue debido a ella que Oldenburg es mayormente conocido o, cabría decir, mal conocido.
 
El 5 de septiembre de 1677, habiendo trabajado hasta el último momento, Henry Oldenburg muere cerca de Greenwich, en Kent, y allí mismo es enterrado.
 
Desde su fundación hasta su muerte, Oldenburg publicó 136 números de las Philosophical Transactions y fue autor y traductor de 34 artículos.
Oldenburg fue el único secretario de una sociedad científica del siglo XVII que hizo una profesión de la administración de la ciencia. En sus quince años de servicio a la Royal Society creó una correspondencia internacional entre científicos, tradujo al inglés sus trabajos, fundó un sistema completo de archivos y construyó un reporte mensual de los desarrollos científicos. Es decir, Oldenburg fue un promotor, un colector y un publicista de la “nueva ciencia” gracias a su manejo de muchos idiomas, a su enorme número de contactos con científicos y al gran interés que tuvo en esta empresa.
     
Referencias bibliográficas
 
Christianson, Gale E. 1986. Newton. Salvat Editores S. A., Barcelona.
Hall, A. Rupert. y Marie B. Hall. 1962, “Why Blame Oldenburg?”, en Isis, vol. 53, núm. 4, pp. 482-491.
Hall, Marie B. 1965. “Oldenburg and the art of Scientific Communication”, en The British Journal for the History of Science, vol. 2, núm. 4, pp. 277-290.
Stimson, D. 1940. “Hartlib, Haak and Oldenburg: Intelligencers”, en Isis, vol. 31, núm. 2, pp. 309-326
     
En la red
 
Colección completa de los primeros doscientos años de la revista en: rstl.royalsocietypublishing.org
     
____________________________________________________________      
José Ernesto Marquina
Facultad de Ciencias,

Universidad Nacional Autónoma de México.
 
Es doctor por la Universidad Autónoma Metropolitana y actualmente es profesor en la Facultad de Ciencias de la UNAM. Sus áreas de interés son la historia y la filosofía de la física.
 
Rosalía Ridaura Sanz
Facultad de Ciencias,

Universidad Nacional Autónoma de México.
 
Estudió la licenciatura en física en la Facultad de Ciencias de la unam y es doctora por la Universidad de Washington. Actualmente imparte cursos sobre biofísica y física médica en la Facultad de Ciencias de la UNAM.
     
_____________________________________________________
como citar este artículo 
 
     
entrada109A05   menu2
   
   
Juan Carlos Zavala Olalde
     
               
               
A la par del desarrollo de la teoría evolutiva se han sugerido distintas hipótesis acerca de la evolución del lenguaje humano; incluso éstas preceden a la teoría evolutiva al punto que, en 1866, se eliminó de la discusión académica al interior de la Société de Linguistique de Paris debido, según se argumentó, al alto grado hipotético y la poca aportación teórica que existía al respecto. No obstante, en biología evolutiva nunca ha dejado de ser un tema relevante y se ha planteado que la aparición de Homo sapiens está ligada a la del lenguaje.
La primera filogenia propuesta que da importancia al lenguaje se debe a Ernst Haeckel, quien planteó que debió existir un “hombre mono” carente de lenguaje como un paso previo en la evolución gradual de nuestra especie a partir de ancestros similares a los actuales chimpancés. Al que llamó Pithecanthropus alalus habría sido nuestro último ancestro común, seguramente con los neandertales.
Cuando se aborda el origen y la evolución del lenguaje se parte de que éste es un sistema de signos cuya función es comunicativa. La caracterización del lenguaje en esos términos permite realizar experimentos computacionales, ecuaciones matemáticas y sugerencias sobre el proceso que llevó de signos zoosemióticos a una semiosis humana, es decir, la producción de signos que efectúan los animales y les sirven como medio comunicativo y la producción de signos en nuestra especie con dicha función.
El lenguaje humano posee una serie de propiedades: la productividad, el desplazamiento, la arbitrariedad y la doble articulación. La productividad del lenguaje se refiere a la capacidad de agregar más información a cualquier mensaje que se produzca, por lo cual un mensaje se puede hacer cada vez más complejo y su único límite es la capacidad humana de producirlo y comprenderlo. El desplazamiento es la opción que el lenguaje proporciona para comunicar acerca de lo que no está presente o no requiere estarlo para ser objeto de la comunicación; por ello es posible la comunicación de conceptos abstractos, la poesía, la literatura y la ciencia.
La arbitrariedad es una característica del lenguaje, ya que la producción de signos y los significados que transmiten son producto de una convención social, esto es, no hay una correspondencia entre los sonidos que nombran una cosa o fenómeno y ésta y el fenómeno. Así que la materialidad del signo “ár
bol” no tiene sino una relación arbitraria con el organismo, por ello podemos nombrarlo cuanhuitl (en náhuatl), agac (en turco) o arbre (en catalán). No obstante, sí hay una relación, necesaria, entre el significante (el sonido) y el significado (el concepto), pues ambos constituyen el signo, y es esto el carácter necesario de esta relación, es decir, la manera como juntos forman el signo comunicativo. En la analogía de Saussure, el significante y el significado son las dos caras de una misma moneda que es el signo.
Así, la primera articulación en este proceso corresponde al establecimiento de secuencias de sonidos, vocales y consonantes, en palabras que posean significado; la segunda hace, de series de palabras, frases. Tales son las características del lenguaje en nuestra especie y que, como se ve, éste no se reduce a los sistemas de comunicación animal.
El lenguaje está constituido por un número preciso de sistemas que suelen ordenarse jerárquicamente, de lo aparentemente más simple a lo más complejo. Como hemos mencionado, el signo está constituido de significado y significante, jerarquía que siempre es dual, y como el significado conforma el ámbito semántico, en cada nivel existe un uso del campo semántico como la otra cara de la moneda. En ésta se presentan, sucesivamente, el sistema fonológico (cómo los sonidos funcionan en un nivel abstracto o mental), el sistema morfológico (nivel de la palabra, cómo se estructura y se genera), el sistema sintáctico (sistema de reglas combinatorias para la formación de sintagmas y oraciones, que constituye la parte de la gramática encargada de establecer las leyes y los principios en el uso de la lengua) y el sistema pragmático (el modo en el cual el contexto influye en la interpretación del significado). Así el lenguaje, en tanto que facultad humana, posee una serie de características que en niveles relacionados ordenadamente estructuran el sistema de comunicación. La manifestación del lenguaje en los individuos se conoce como el habla y cada individuo habla una lengua propia de su grupo cultural.
Noam Chomsky ha propuesto que los seres humanos poseemos un módulo para la adquisición del lenguaje que es innato (Language Acquisition Device), con lo cual ha dejado zanjada la discusión entre el carácter cultural o biológico del lenguaje en lo que a su adquisición se refiere y permite que se estudie como un rasgo que posee una base hereditaria. Lo que constituye dicho módulo es una serie de principios que permiten construir sintagmas que son parametrizados de acuerdo con el desarrollo cultural de los infantes; así que la facultad hereditaria está limitada a la capacidad de construcción de palabras y enunciados con una función comunicativa. Las características propias de cada lengua son aquellas que se estructuran mediante los parámetros que modifican los principios del sistema comunicativo. Es de suponer que parte del módulo incluye la capacidad de los infantes para distinguir los sonidos propios de la lengua y su función comunicativa.
El ser humano posee así, desde su origen, un lenguaje y se supone que algún ancestro anterior careció de éste, pero la pregunta permanece en pie. Fue Phillip V. Tobias quien, desde 1973, propuso que el primer homínido que pudo hablar fue Homo habilis (que vivió hace 2.5 millones de años) y mediante el estudio de moldes endocraneales pudo distinguir el desarrollo de las área de Broca y de Wernicke encargadas de la comprensión y la producción del lenguaje. Tobias acepta que el lenguaje de H. habilis pudo ser más sencillo en cuanto a fonemas, reglas, aspectos sintácticos y gramaticales, que fue un rasgo obligado derivado de otro anterior, esto es, una apomorfía. Sugirió entonces que en Australopithecus podría encontrarse el estado ancestral e hizo que algunos propusieran que en ellos existiría un lenguaje gestual y de señas, salvo en los australopitécidos ancestrales. Tobias asoció así a los descendientes del género, A. rubustus y A. boisei, con el carácter facultativo del lenguaje, en lo que varios autores lo apoyaron, entre ellos Falk, Eccles, Creutzfelt, Laitman, Andrews y Stringer, Deacon, y Wilkins y Wakefield.
Las áreas de Wernicke y Broca son importantes pues a partir de ellas se puede percibir, interpretar y producir el lenguaje, esto es, que el lenguaje se produce en el cerebro pero, agregaría, su única realidad se hace patente al funcionar en la comunicación. Se sabe que algunas personas son sordas a los sonidos de la lengua aunque sus oídos pueden encontrase en óptimas condiciones, lo cual se debe a que los sonidos lingüísticos se perciben en el giro de Heschl, en la corteza cerebral de los hemisferios derecho e izquierdo; la información recibida se transmite al área de Wernicke y al lóbulo parietal inferior, ambos en el hemisferio izquierdo, a fin de que se reconozca la segmentación fonética de lo escuchado. Ambas zonas, junto con la corteza prefrontal, interpretan los sonidos y el significado de la información recibida se establece en contraste con la información contenida en el lóbulo temporal. La interpretación completa de los sonidos significa que se pueda generar una respuesta, y en dicho proceso interviene la región de Broca que se encarga de accionar los músculos fonadores para la producción de ésta, es la forma en la cual se produce el lenguaje en el cerebro. Por lo tanto, las observaciones de Tobias en cuanto al desarrollo de las zonas encargadas de la producción del lenguaje en el cerebro confirman la hipótesis de que H. habilis podía hablar.
En la evolución del lenguaje participan tres elementos que se proponen como un sistema cuya interacción es adaptativa: el aprendizaje individual, la transmisión cultural y la evolución biológica. El proceso evolutivo del lenguaje corresponde a su interacción, al patrón de relaciones que los une y determina, y al resultado con un valor para la supervivencia e incluye, por lo tanto, la asignación de las características de cada una de las partes y la forma cómo interactúan.
Comenzaremos con el aspecto de la transmisión, pues en la cultura es donde se incluye el lenguaje, por lo que ésta es una premisa necesaria, una característica que se observa siempre en ella. Si la transmisión cultural del lenguaje provee de una ventaja adaptativa, entonces se convierte en un elemento causal de la evolución biológica de nuestra especie; y si al mismo tiempo, en el proceso evolutivo, por ejemplo, con el incremento en el tamaño cerebral éste determina la evolución de mecanismos de aprendizaje, entonces los individuos podrán aprender un lenguaje que hipotéticamente se está desarrollando (ontogenética y evolutivamente) en el módulo de adquisición del lenguaje, lo cual hace posible el desarrollo cultural de nuestra especie en cuanto al origen y evolución del lenguaje se refiere.
Este sistema de interacción debió ocurrir en H. Habilis se
gún la propuesta de Tobias pero, ¿cuáles fueron las características de los australopitécidos que hicieron posible el origen del lenguaje? Para hablar de ello debemos volver a la noción según la cual el lenguaje es un sistema de signos con valor comunicativo. Aquí tenemos que decir que un signo es algo, una cosa, que es puesta en lugar de otra a la cual hace referencia, de lo cual se sugiere que el origen del lenguaje procedería por la capacidad de relacionar signos con cosas o fenómenos del mundo, signos del tipo de los símbolos que hacen referencia a esas cosas de manera totalmente arbitraria. Un sistema de signos simbólicos que tuviera una función comunicativa nos señalaría el posible origen del lenguaje.
 
Esta capacidad de utilizar signos del tipo simbólico se ha observado en varios primates no humanos, como chimpancés, bonobos y gorilas, y puede indicar que el estado ancestral, el carácter plesiomórfico o uno muy similar, se caracteriza por poder utilizar símbolos. El uso funcional comunicativo podría ser el carácter apomórfico (derivado) o lo es sin duda la posibilidad de realizar construcciones sintácticas. Así, siguiendo a Stephen Jay Gould, diríamos que el ancestro común de Pan (los chimpancés) y Homo (nosotros) poseía la capacidad de percibir, interpretar y reaccionar ante símbolos, y su función biológica no tendría que ser la de comunicar, podría incluso ser un producto necesario del desarrollo cerebral para otras funciones cognitivas del cerebro no relativas a la comunicación que, posteriormente, habría sido cooptado para un nuevo uso en Homo: la comunicación por medio de construcciones sintácticas. Éstas serían los principios que propone Chomsky como constituyentes de una “gramática universal” propia de nuestra especie, y su valor para el éxito reproductivo hizo que se mantuviera en nuestra especie como una nueva adaptación.
El valor adaptativo del lenguaje es el tema que surge como consecuencia de los argumentos esgrimidos hasta ahora. Se ha propuesto que sí lo posee, ya que permite una especialización innata que puede codificar cada vez más información acerca de quién hizo qué, para qué, dónde y por qué, información con un alto valor por su importancia en la cohesión social, ya que la sociabilidad permite un mayor éxito reproductivo. La otra propuesta es que la transmisión cultural, a lo largo de cientos o miles de generaciones, hizo posible el desarrollo del sistema del lenguaje en los infantes por los mecanismos de aprendizaje que evolutivamente se iban desarrollando en ellos. En ambos casos se sugiere que la importancia social de la comunicación radica en el valor adaptativo que el lenguaje provee.
La segunda propuesta nos permite sugerir un mecanismo evolutivo propio de la macroevolución, la influencia que en la filogenia tiene la ontogenia, esto es, que el desarrollo infantil guiaría la posibilidad del desarrollo de la “gramática universal” en la evolución del módulo de adquisición del lenguaje. Se puede proponer, de acuerdo con la biología evolutiva del desarrollo, que durante la ontogenia se forma la capacidad de utilizar signos con valor simbólico, es decir, la facultad básica del lenguaje como un módulo para el aprendizaje, por lo que la interacción social sería un producto necesario. Dicho proceso ocurriría dentro y fuera de la madre, por lo cual los infantes habrían sido seleccionados de acuerdo con características que poseen un valor comunicativo a lo largo de esta etapa de su vida, en la cual son aún cuidados para su supervivencia, para que lleguen a la edad adulta, y se evita ponerlos en riesgo mientras se propicia el desarrollo de una nueva facultad en ellos. Tales características, que tienen un fundamento genético, habrían sido transmitidas al paso del tiempo, de una generación a otra, haciendo posible la evolución de la facultad comunicativa por medio de símbolos.
Lo dicho hasta ahora sólo coincide con la idea de Tobias según la cual se habla con el cerebro; sin embargo, es necesario afirmar que no es suficiente y no debe ignorarse la importancia del sistema fonoarticulador, el cual está constituido por los pulmones, las cuerdas vocales, la laringe, el paladar, la cavidad bu
cal, la nariz, los dientes, la lengua y los labios. Los sonidos que constituyen el lenguaje son las vocales y las consonantes; las primeras son aquellas en que el aire sale sin obstrucción, en cambio las segundas se generan gracias a una obstrucción en algún punto del tracto vocal.
Lieberman y Laitman han puesto en la palestra de discusión una nueva evidencia importante para la evolución del lenguaje: sólo una morfología baja de la laringe permite vocalizar. Según estos autores, la explicación por la cual nuestros parientes primates no vocalizan es porque su laringe está elevada, y los infantes humanos poseen una laringe elevada que desciende cerca de los dos años, cuando comienzan a producir palabras. Evolutivamente es significativo, pues las reconstrucciones del aparato fonoarticulador sugieren que el descenso de la laringe comenzó en Homo erectus (de 1.8 millones a 600 000 años atrás), por lo tanto tendríamos que decir que la evolución de la capacidad lingüística de H. habilis se comenzó a constituir con el habla en H. erectus. Lieberman ha planteado que los neandertales también poseían una laringe baja, por lo cual no tendrían la capacidad de producir sonidos vocales como los de nuestra a, i y u. No obstante, el descubrimiento de restos neandertales en Kebara (de hace 25 000 años) en los cuales se pudo encontrar el hueso hioides, sugieren que el aparato fonoarticluador de los neandertales podría ser similar al nuestro y por lo tanto su capacidad para la producción lingüística no sería distinta.
Incluso se ha propuesto que el descenso de la laringe podría haber ocurrido hace 40 000 años, lo cual coincide con las observaciones arqueológicas de una “explosión cultural” que nuestra especie muestra a partir de esa época. Según dicha propuesta, es hasta entonces que podemos encontrar el lenguaje con todas las características y estructura como sistema de comunicación que mencionamos al principio. El lenguaje humano es, desde luego, uno de los posibles elementos detonadores de novedad cultural en nuestra especie, por lo que la afirmación de una evolución reciente del lenguaje requiere proponer que alguna mutación en nuestra especie conduciría al desarrollo de las características propias de Homo sapiens moderno.
La hipótesis propuesta ha buscado apoyo en un gen que está relacionado con la capacidad de realizar movimientos rápidos y sutiles necesarios para el lenguaje: el gen FoxP2 (forkhead box P2), ampliamente conservado entre los mamíferos, pero con dos modificaciones, una de ellas con consecuencias funcionales. Se estima que éstas ocurrieron en la historia evolutiva de nuestra especie entre 200 000 y 120 000 años atrás, de esta manera encontraría apoyo la idea de una aparición reciente, sólo en nuestra especie, del lenguaje. Y en 2007 se secuenció el gen FoxP2 en neandertales, que poseyeron la versión moderna del gen, lo cual apoyaría la propuesta de que fueron capaces de hablar.
Como se puede ver, y es algo que sucede comunmente en los estudios sobre la evolución humana, no hay un punto concluyente absoluto. La capacidad cognitiva para el lenguaje pudo tener su origen en Homo habilis, pero el aparato fonoarticulador haría posible un habla propiamente hasta la llegada de Homo erectus, y si el lenguaje es producto de nuevas mutaciones que sólo han ocurrido en la historia evolutiva de nuestra especie, podría haber aparecido hasta hace muy poco tiempo en nuestra especie y la especie hermana a la nuestra, los neandertales.
Actualmente se ha generado una gran cantidad de propuestas para explicar el origen y evolución del lenguaje, pero la discusión y la pregunta siguen en pie: ¿cuándo se originó el lenguaje y cuál ha sido su proceso evolutivo?
articulos
Referencias bibliográficas
Arsuaga, Juan L. 2001. El enigma de la esfinge. Areté, Barcelona.
Chomsky, Noam. 1998. Nuestro conocimiento del lenguaje humano: perspectivas actuales con un desarrollo minimalista. Universidad de Concepción y Bravo y Allende Editores, Concepción.
Rensch, Bernhard. 1972. Homo sapiens, from man to demigod. Columbia University Press, Nueva York.
Tattersall, Ian. 2009. The Fossil Trail: How We Know What We Think We Know about Human Evolution. Oxford University Press, Nueva York.
Tobias, Phillip. 1971. The brain in hominid evolution. Columbia University Press, Nueva York.
     
____________________________________________________________
     
Juan Carlos Zavala Olalde
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Juan Carlos Zavala Olalde estudió biólogía en la Facultad de Ciencia de la unam, es maestro y doctor en antropología por la Facultad de Filosofía y Letras de la misma institución. Su libro más reciente se titula “Ontogenia y teoría biocultural” publicado por CopIt arXives.
     
_____________________________________________________
como citar este artículo
 
     

 

 

 

 

de la solapa
       
 
  menu2
           
Entrd109B11 
La historia de las cosas

Annie Leonard
Fondo de Cultura Económica
Buenos Aires, 2010. 390 p.
   
   
     
                     
El viaje por la historia de las cosas me llevó por todo el mundo
−en misiones de investigación y organización comunitaria para organizaciones ambientalistas como Greenpeace, Essential Action y la Alianza Global por Alternativas a la Incineración [Global Alliance for Incinerator Alternatives, gaia]−, no sólo para ver más basurales, sino también para visitar minas, fábricas, hospitales, embajadas, universidades, establecimientos agrícolas, oficinas del Banco Mundial y pasillos gubernamentales. Conviví con familias en aldeas indígenas tan aisladas que a mi llegada corrían a mi encuentro madres y padres desesperados en la creencia de que por fin había arribado la médica internacional −en su visita anual− que venía a curar a su hijo. Conocí a familias enteras que habitaban en basurales de las Filipinas, Guatemala y Bangladesh, alimentándose de las sobras y viviendo de los materiales que extraían de las colinas humeantes y fétidas. Visité paseos de compras en Tokio, Bangkok y Las Vegas... tan grandes, brillantes y plásticos que me hacían sentir como un personaje de Los Supersónicos o Futurama.

En todas partes me hice una y otra vez la misma pregunta: “¿Por qué?”. En todas partes indagué sin pausa, cada vez a mayor profundidad. ¿Por qué los basurales son tan peligrosos? Por las sustancias tóxicas que hay en la basura. Entonces, la primera pregunta es: ¿por qué hay sustancias tóxicas en los productos que llegan a la basura? Para responder a esta pregunta tuve que aprender sobre sustancias tóxicas, química y salud ambiental. ¿Por qué la mayoría de los basurales están situados en comunidades de bajos ingresos, donde vive y trabaja mucha gente de color? Esta pregunta me llevó a aprender sobre racismo ambiental.

Además, ¿por qué es tan rentable trasladar fábricas enteras a otros países? ¿Cómo es posible vender por un par de dólares un producto que recorre distancias tan grandes? De repente me vi en la necesidad de zambullirme en la lectura de los tratados internacionales de comercio y analizar la influencia de las corporaciones en las regularizaciones gubernamentales.

Y aún quedaba otra pregunta: ¿por qué los artículos electrónicos se rompen tan pronto y por qué es más barato reemplazarlos que repararlos? Entonces aprendí sobre obsolescencia planificada, publicidad y otros instrumentos que se usan para promover el consumismo. A primera vista, cada uno de estos temas parecía separado del siguiente, desligado de los demás, a gran distancia de aquellas pilas de basura acumulada en las calles neoyorquinas, y más lejos aún de los bosques de mi infancia. Sin embargo, al indagar se descubre que todo está vinculado.

El viaje me convirtió en una “pensadora sistemática”; es decir, comencé a creer que todo existe como parte de un sistema más abarcador y debe entenderse en relación con las otras partes. No se trata de un marco singular. ¿Recuerdan los lectores la última vez que tuvieron fiebre? Probablemente se habrán preguntado si el origen de la fiebre era una bacteria o un virus. La fiebre es una respuesta a un elemento extraño que se introduce en el sistema del cuerpo. Si no creyéramos que nuestro cuerpo es un sistema, tendríamos que buscar una fuente de calor bajo la frente recalentada o algún interruptor que se giró accidentalmente y le subió la temperatura. En biología aceptamos con facilidad la idea de sistemas múltiples (como el circulatorio, el digestivo, el nervioso) compuestos de partes (como las células o los órganos), así como el hecho de que esos sistemas interactúan unos con otros en el interior del cuerpo.
Todos aprendimos en la escuela cómo funciona el ciclo del agua, es decir, el sistema que transporta el agua, a través de sus diferentes estados −líquido, vapor y hielo sólido−, por toda la Tierra. Y también aprendimos qué es la cadena alimentaria, es decir, el sistema en el cual, por dar un ejemplo sencillo, el plancton es alimento del pez pequeño, que a su vez es alimento del pez más grande, que a su vez es alimento del ser humano. Entre esos dos sistemas, el del ciclo del agua y el de la cadena alimentaria −aunque uno sea inanimado y el otro esté formado por seres vivos−, se produce una interacción importante, porque los ríos y océanos del primero proporcionan el hábitat para las criaturas del segundo. Esto nos lleva al ecosistema, compuesto de partes y subsistemas físicos inanimados, como la roca y el agua, y partes vivas, como las plantas y los animales. La biósfera de la Tierra −otro nombre del ecosistema entero del planeta− es un sistema que existe dentro de algo mucho más grande, que llamamos sistema solar.

La economía también funciona como un sistema, y es por eso que puede producirse un efecto dominó en su interior, como ocurre cuando muchos se quedan sin trabajo y, por lo tanto, reducen sus gastos, lo cual implica que las fábricas no pueden vender tantas COSAS, y en consecuencia se producen más despidos... que es exactamente lo que ocurrió en 2008 y 2009. El pensamiento sistemático en relación con la economía también explica una teoría como la del “goteo”, según la cual se otorgan diversos beneficios −como la reducción de impuestos− a los ricos para que inviertan más en sus negocios y empresas, lo cual a su vez, hipotéticamente, crea más empleos para las clases medias y bajas. Si esas partes (el dinero, los empleos, las personas de distintas clases sociales) no funcionaran dentro de un sistema, no habría fundamento para la teoría del goteo ni para las creencias sobre la interacción entre la oferta y la demanda. En todos estos ejemplos se presupone un sistema abarcador con partes interrelacionadas.

Otra manera de decir que todo existe como parte de un sistema que lo abarca (incluidos los propios sistemas) es decir que todo está interrelacionado [...] Y así pasé de husmear en bolsas de basura a examinar los sistemas globales de producción y consumo de bienes manufacturados, o bien lo que los académicos llaman economía de los materiales. Comencé a trabajar cruzando la frontera entre dos disciplinas que para el mundo moderno no sólo están nítidamente separadas, sino también mal avenidas: el medio ambiente (o la ecología) y la economía. Pero los lectores ya habrán adivinado: no sólo se trata de dos sistemas interrelacionados, sino que uno es un subsistema del otro, así como el ecosistema terrestre es un subsistema del sistema solar.

El problema es que muchos ecologistas en realidad no quieren ocuparse de la economía. Los ecologistas tradicionales se dedican de lleno al adorable oso que está en peligro de extinción y los lugares prístinos tienen nada que ver con las estructuras de fijación de precios o los subsidios gubernamentales para la minería o los acuerdos de comercio internacional, ¿verdad? (¿Cómo? ¿Qué tienen mucho que ver?) Por otra parte, los economistas clásicos sólo ven en el medio ambiente un conjunto ilimitado de materias primas baratas o gratuitas que sirven para abastecer el crecimiento de la economía. Ah, y también un lugar donde de vez en cuando aparecen latosos activistas que cuestionan la instalación de una nueva fábrica porque se les ocurrió proteger el hábitat de la musaraña del bosque.

Sin embargo, la economía es en realidad un subsistema del ecosistema terrestre, su biosfera. Es sencillo: todos los sistemas económicos −el trueque, la esclavitud, el feudalismo, el socialismo y el capitalismo− son invenciones humanas. Como los seres humanos apenas somos una de las numerosas especies que habitan la Tierra (una especie poderosa, es cierto, dotada de escritura y de armas), cualquier invención nuestra es un subsistema del ecosistema terrestre. Una vez que entendemos esta cuestión (que no es opinión mía, sino un hecho liso y llano), accedemos a nuevas percepciones. Dos investigadoras estadounidenses han publicado en la revista
articulos
_____________________________________________________________
     
Fragmentos del libro
     
_____________________________________________________________
     
como citar este artículo
[En línea]
     

 

 

 

del herbario
       
 
  menu2
           
Entrd109B10 
La relación
entre amarantos,
cactus y plantas carnívoras
Ivonne Sánchez del Pino Coppens
   
   
     
                     
La extrema variación morfológica de algunos grupos de
plantas nos cuenta una historia de relación o parentesco tan intrincada que tal vez nos sería difícil sospechar lo cercanamente relacionadas que se encuentran algunos de ellos. Por ejemplo, una hierba de amaranto (Amaranthus), mejor conocida como alegría, huauhtli o bledo, con flores diminutas de alrededor de siete milímetros de largo es a primera vista contrastante si se compara con los cactus de tallos planos como los nopales (Opuntia) o cilíndricos como las biznagas (Echinocactus, Ferocactus o Melocactus) de frutos y flores atractivas, que a su vez también son muy diferentes de las plantas carnívoras, las cuales presentan modificaciones morfológicas asociadas a la atracción, retención, captura, muerte y digestión de animales (principalmente insectos) para la absorción de sus nutrimentos.

En las plantas carnívoras las variaciones incluyen hojas extremadamente modificadas, en forma de jarra, en donde se localizan nectarios para atraer a los insectos y glándulas que secretan, entre otras sustancias y moléculas, enzimas digestivas, como es el caso de las plantas jarro o copas de mono (Nephentes) o bien con hojas tentaculares que tienen glándulas de dos tipos: unas que secretan sustancias viscosas para atrapar insectos y otras digestivas (Drosera), todas ellas pertenecientes a un grupo de plantas llamadas Caryophyllales, anteriormente conocidas como Centrospermales.

Dicho grupo conforma un orden con algunos miembros que presentan fascinantes modificaciones evolutivas que les permite su supervivencia en ambientes hostiles, como las adaptaciones morfológicas que han ido generando al desarrollarse en ambientes áridos, de temperaturas elevadas y suelos con alta concentración en sales. Tales adaptaciones incluyen suculencia de hojas y tallos, tipo de fotosíntesis (C4, CAM o ambos), presencia de espinas y sistema de raíces largas, entre otros rasgos.

Las Caryophyllales incluyen 29 familias, según la publicación más reciente propuesta por un grupo de botánicos que se nombra el Grupo para la filogenia de las angiospermas (en inglés The Angiosperm Phylogeny Group, APG), que se ha unido para un fin común: proponer una clasificación o agrupación de las plantas vasculares conforme a un sistema natural (es decir, reconocer grupos monofiléticos o grupos en los que todos los descendientes comparten un mismo ancestro) fundamentado en bases filogenéticas en vez de autoritarismos como había ocurrido en el pasado. Las propuestas del APG datan de 1998, luego de 2003, hasta llegar a la más reciente, en 2009. De hecho, existe un sitio en internet conocido como APweb, hospedado por el Jardín Botánico de Missouri, donde regularmente se actualizan los datos obtenidos por las más recientes investigaciones que se apegan al enfoque del APG, y que reportan una diversidad de 35 familias para las Caryophyllales, con 811 géneros y 11 510 especies (tabla 1).
 
 
 TablaB011109
Tabla 1. Nombres de las familias incluidas en el orden Caryophyllales por autores recientes. En gris se indican los nombres de las familias que han sido consideradas como núcleo de las Caryophyllales.
 

En las Caryophyllales se ubican la familia del amaranto (Amaranthaceae), la de la bugambilia (Bougainvillea; Nyctaginaceae), algunas de plantas carnívoras (Droseraceae, Drosophyllaceae y Nepenthaceae), la de los nopales y cactus (Cactaceae), la de las verdolagas (Portulacaceae), la de las plantas piedra (Aizoaceae), la de la jojoba (Simmondsiaceae) e incluso la del clavel (Cariophyllaceae) por citar algunas de las más conocidas.

En diez de las 35 familias que las integran se han encontrado betalainas, que son un grupo de pigmentos naturales fácilmente observables en colores rojizos, púrpuras o amarillentos que caracterizan a algunas hojas, brácteas, flores y tallos de estos grupos. Para tener una idea de la importancia de dicho colorante cabe mencionar el uso que se le ha dado en algunos lugares y culturas a ciertas plantas de amaranto de tonos rojos para ritos ceremoniales, mágicos y ornamentales.

La mayoría de las características que permiten distinguir a las Caryophyllales son únicamente perceptibles con ayuda de un microscopio y derivadas de diferentes áreas de estudio. Curiosamente, los caracteres diminutos son los más importantes, ya que a partir de ellos se logran establecer las relaciones que hay al interior de toda esta gran diversidad de plantas y, en gran parte, son de tipo embriológico (tapete glandular, granos de polen trinucleados, óvulos campilotropos, presencia de perispermo, saco embrionario con ocho núcleos, embrión largo y curvado, etcétera), anatómico (plástidos tipo P, crecimiento secundario anómalo del tallo) y palinológico (polen pantoporado o colpado). El carácter embriológico del tipo de placentación libre central o basal que presentan algunos miembros es la característica más importante de este grupo, razón por la que se les denominaba Centrospermales (semillas que crecen de una columna central). Si bien varios de estos caracteres empleados para su descripción han cambiado en importancia para definirlas, los actuales hallazgos moleculares en el cloroplasto (atpB, matK, rbcL) y el núcleo (18S rADN) han corroborado que el grupo es natural y que dentro de él se encuentran dos grupos que, dependiendo del autor y el año de publicación de los trabajos, varía el número de familias. Actualmente, un grupo es llamado “el núcleo de las Caryophyllales” (en inglés Core Caryophyllaes) o Centrospermales, cuya diversidad biológica es de quince a veinte familias, y el otro, con once o trece familias, como “el no núcleo de las Caryophyllales” (NonCore Cariophyllales).

El poder notar cómo grupos que jamás hubiéramos sospechado relacionados resulten serlo se debe al trabajo de varios taxónomos y la forma empleada para describir la diversidad biológica, de obtener y organizar la información, pasando de los enfoques intuitivos que se usaban en un principio, al desarrollo de métodos y filosofías mejor fundamentados.

El punto primordial en la actualidad es que todas las relaciones de parentesco entre diversos organismos son hipótesis, por lo tanto están sujetas a cambios. Antes se consideraba la opinión de ciertas autoridades para clasificar los grupos de acuerdo con lo que consideraban evolucionado o primitivo; por ejemplo, se creía que aquellas plantas con grandes hojas y muchas estructuras florales eran primitivas mientras que aquellas con hojas reducidas y tamaños pequeños eran avanzadas.

Actualmente, la forma de organizar y clasificar a los organismos (sistemática o taxonomía) se ha modernizado gracias a tres grandes avances: 1) el uso de computadoras cada vez más veloces en su capacidad de procesamiento y manejo masivo de gran cantidad de datos así como la elaboración de software especializado; 2) la obtención y desarrollo de nuevos datos específicamente derivados de varias formas de análisis del ADN; y 3) el uso de filogenias, que son hipótesis integrales para responder preguntas evolutivas y hacer posible la biología comparada por medio de un método reproducible y refutable. Con ello, las hipótesis de relación se han puesto a prueba para confirmar aquellas hipótesis generadas en el pasado. El resultado ha sido lo que ahora conocemos como un sistema de clasificación según APG que ha usado estos tres elementos para brindarnos un sistema novedoso de la clasificación de las plantas vasculares.

Con este ejemplo se pretende indicar la importancia de la utilización de herramientas novedosas para pasar de una taxonomía puramente descriptiva, considerada falta de un método y no científica, a una fundamentación de las hipótesis con métodos explícitos, alejadas de ideas a priori. El caso de las Caryophyllales, un grupo con grados de diversidad tan considerables y, sin embargo, monofilético, y reconocido como un orden en las plantas con flores, nos muestra el potencial que encierran estas herramientas formuladas.
     

Referencias bibliográficas

Chase, Mark y James L. Reveal. 2009. “A phylogenetic classification of the land plants to accompany apg iii”, en Botanical Journal of the Linnean Society, vol. 161, núm. 2, pp. 122-127.
Cronquist, Arthur. 1988. The evolution and classification of flowering plants. Allen Press, Nueva York.
Cuénoud, Philippe, et al. 2002. “Molecular phylogenetics of Caryophyllales based on nuclear 18S rdna and plastid rbcL, atpB, and matK dna sequences”, en American Journal of Botany, vol. 89, núm. 1, pp. 132-144.
Sauer, Jonathan D. 1967. “The grain amaranths and their relatives: a revised taxonomic and geographic survey”, en Annals of the Missouri Botanical Garden, vol. 54, pp. 103-137
Simpson, Michael G. 2006. Plant Systematics. Elsevier Academic Press, Burlington.
Stevens, Peter F. 2000. “Botanical systematics 1950-2000: change, progress, or both?”, en Taxon, vol. 49, núm. 4, pp. 635-658.

     
_____________________________________________________________      
Ivonne Sánchez del Pino
Centro de Investigación Científica de Yucatán, A. C.
     
_____________________________________________________________
     
como citar este artículo
 [En línea]
     

 

 

 

Entrada109A11   menu2
   
   
Juan Carlos Martínez García      
               
               
Durante miles de años la humanidad ha logrado avanzar
A mediados de los años setentas del siglo pasado, la empresa televisiva estadounidense CBS adaptó para la televisión la exitosa película El Planeta de los Simios, basada en la novela homónima de ciencia ficción del francés Pierre Boulle, que había sido protagonizada por Charlton Heston y Rody McDowall en 1968 bajo la dirección de Franklin J. Schaffner. En el décimo episodio intitulado “El interrogatorio”, una doctora chimpancé le dice al general gorila Urko que le va a lavar el cerebro al recién capturado astronauta humano Burke, personaje principal de la serie, y le pregunta si sabía de qué se trata el lavado de cerebro; el general le responde afirmativamente, diciendo que se trata de sacarle el cerebro a la persona, lavarlo con agua fría y finalmente volvérselo a poner en la cabeza. Por cierto, la doctora pretendía controlar la mente del prisionero a fin de convencerlo para que se enamorara de ella, a quien él, en su delirio inducido, ve como una humana bellísima, consiguiendo así su confianza absoluta y su colaboración en la guerra que libraban los simios contra los humanos por el control del mundo.
Este ejemplo ilustrativo, no muy distinto en esencia a los que utilizan George Orwell en su clásica novela 1984 o Antony Burgess en la celebre Naranja Mecánica (llevada al cine por Stanley Kubrick en 1971), muestra de manera por demás irrisoria el aspecto más importante de lo que se entiende en la cultura popular por lavado de cerebro: la intención perversa de controlar el alma humana mediante la construcción en la víctima de una realidad impuesta bajo coerción.

Evidentemente no se trata de utilizar agua fría para quitarle suciedad al cerebro, sino de un proceso complejo de manipulación del comportamiento y el pensamiento. Un poco de historia nos aclarará el panorama. En el contexto de la Guerra Fría en la que se enfrascaron los Estados Unidos y la ya desaparecida Unión Soviética en los años que siguieron a la Segunda Guerra Mundial (1939-1945), tuvieron lugar numerosos conflictos regionales en los que ambas superpotencias se enfrentaron por vía subsidiaria (las denominadas “guerras por proxy”).
Uno de los conflictos más mortíferos fue la guerra de Corea que inició en 1950 y hasta la fecha no ha terminado oficialmente, manteniéndose la península coreana dividida en dos estados con sistemas económicos y políticos distintos. Además de los coreanos, en dicha guerra participaron, soldados de diversas nacionalidades en ambos bandos, formando los estadounidenses el grueso de las tropas de las Naciones Unidas que combatían a las fuerzas comunistas que invadieron el sur de la península en un intento por unificar el país tras la ocupación japonesa que tuvo lugar durante la Segunda Guerra Mundial. Por el lado comunista combatieron numerosos soldados de la entonces recién creada República Popular de China (hasta la fecha principal aliada del régimen dictatorial dinástico vigente en la República Popular de Corea) y es en ese país en el que se le dio nombre de lavado de cerebro (x n o, en chino mandarín) a cierto conjunto de metodologías de persuasión coercitiva desarrolladas en la China revolucionaria para “reconstruir” el patrón de pensamiento “feudal” de los ciudadanos chinos educados bajo gobiernos prerrevolucionarios; la reconstrucción de la mente concebida por el régimen maoísta tenía como finalidad adecuar a los ciudadanos chinos a los nuevos tiempos revolucionarios.

Durante la guerra de Corea los comunistas chinos utilizaron las metodologías del lavado de cerebro, practicadas primero en su propia población, con la finalidad de producir cambios profundos y permanentes en el comportamiento y en los esquemas mentales de los prisioneros de guerra de las Naciones Unidas. El tratamiento tuvo como finalidad principal eliminar la capacidad de los prisioneros de organizarse y resistir de manera activa a su cautiverio. Un porcentaje importante de soldados estadounidenses capturados por los comunistas se unieron a éstos y fue en un intento por entender ese fenómeno asombroso e inquietante que el término brainwashing (lavado de cerebro en inglés, acuñado en 1950 por el agente de la CIA Edward Hunter) hizo su aparición en la literatura anglosajona.

De los métodos utilizados por los chinos se sabe que en un principio se basaron en la eliminación del sueño en los prisioneros, combinada con la aplicación de técnicas de manipulación psicológica dirigidas a romper la autonomía de los individuos (el cineasta sueco Ingmar Bergman ilustra este proceso en su película de 1977 El huevo de la serpiente). El fenómeno llamó poderosamente la atención debido a que algunos de los prisioneros afectados, ya liberados y de regreso a su país, siguieron manifestando su alineamiento a la ideología del enemigo al que habían combatido. Al parecer una vez libres del control rígido de la información y sin obstáculos para ejercer sus mecanismos naturales de aprehensión de la realidad, los antiguos prisioneros vieron atenuados rápidamente los valores superpuestos y los juicios adquiridos durante su cautiverio. La utilización de las técnicas del lavado de cerebro permitió a los chinos obtener ciertos beneficios propagandísticos, así como la minimización del número de guardias necesarios para encargarse de los prisioneros, consiguiendo entonces que más soldados chinos participaran en las batallas.

Dado que en la historia siempre han existido seres humanos que han intentado controlar los pensamientos de otros, es evidente que el lavado de cerebro posee una larga historia que va más allá de lo que surgió en el proceso de gestación de la China revolucionaria en el siglo XX.
Sin embargo, en su expresión contemporánea, el lavado de cerebro es producto del pensamiento totalitario que cobró auge a lo largo del siglo pasado, no sólo en lo que concierne a la política o a la economía, sino también en la constitución de modos de relación interpersonal.

En la actualidad el término es parte de la cultura popular y se ha utilizado extensamente para explicar el éxito de ciertas cultos religiosos en la conversión de individuos a nuevos credos eliminando, claro está, las creencias previas. Es también común decir que a una persona se le ha lavado el cerebro para denostar sus pensamientos y se suele también decir que la publicidad le lava el cerebro a los consumidores para hacerlos adictos a los productos publicitados. Aunque en la cultura popular se ve el lavado de cerebro desde una perspectiva psicológica, la psicología contemporánea evita el término fundamentalmente por su vaguedad y por las asociaciones que éste tiene con la propaganda política y con los temores de ciertos individuos a ser controlados por ideologías “ajenas y malevolentes” (el Islam, por ejemplo, es acusado frecuentemente de manera infame por extremistas estadounidenses de derecha de practicar el lavado de cerebro para adoctrinar con fines aviesos a niños estadounidenses).En la jerga de la psiquiatría contemporánea se prefiere utilizar el término “control mental” o bien “persuasión coercitiva”.

Más allá del interés puramente intelectual, en nuestros días el lavado de cerebro se ha convertido en motivo de estudio de las ciencias cognitivas, esto es, las ciencias dedicadas al entendimiento de los mecanismos de la mente y, más específicamente, los especialistas en neurociencias y en psicología social abordan el estudio de las técnicas de lavado de cerebro con la finalidad de comprender sus consecuencias sobre el comportamiento de los seres humanos en el contexto social, así como los procesos mentales que distinguen a los individuos sometidos al lavado.
 
El control del alma
 
Es tiempo ahora de hablar del alma y del lavado de cerebro como control de ésta. En el ámbito científico, hablar del alma causa escozor por las obvias connotaciones religiosas que inmediatamente trae el término a nuestra mente. Sin embargo, hay quienes incluso en el medio científico conciben el cuerpo humano como un lugar biológico animado por un principio de vida que posee una propiedad específica denominada psíquica y designada históricamente por medio de la noción de alma. Desde esta perspectiva, el alma no es una entidad inmaterial como pretende el pensamiento religioso, o abstracta como se comprende desde el pensamiento filosófico y el poético, sumergida en lo profundo del cuerpo, sino que define a ésta en sus propiedades psíquicas. Dichas propiedades poseen un contenido informacional que permite a la vida organizarse y desarrollarse por medio de interacciones que involucran fundamentalmente flujos de información.

En consecuencia, el cuerpo humano se presenta como un lugar único sobre el cual se escribe y en el cual se inscribe toda experiencia de vida; los procesos biológicos que se manifiestan en el cuerpo no son entonces otra cosa que las expresiones tangibles de una estructura informacional que produce mensajes y que, en la mente humana, alcanza niveles de complejidad tales que potencian la emergencia de fenómenos tan complejos como la misma conciencia.

Desde la perspectiva del concepto de alma aquí utilizado (elaborado básicamente por la comunidad psiquiátrica involucrada en la aplicación de las técnicas cognitivo-conductuales para el tratamiento de desordenes mentales asociados al abuso sexual en la infancia), el lavado de cerebro consiste fundamentalmente en la manipulación del alma de un ser humano con la finalidad de que éste no sólo se comporte en la manera deseada por el manipulador, sino que también piense y sienta lo que éste le impone. Lavarle entonces el cerebro a alguien significa darle forma, moldear, los flujos de información que lo definen en los planos interno y externo, eliminándole la libertad de controlar tales flujos en función de sus propias conveniencias e intereses.

Siguiendo la propuesta de los bucles extraños de Douglas Hofstadter, el lavado de cerebro persigue entonces cortar el lazo de retroalimentación paradójica que constituye el alma, eliminando de esta manera su autonomía, reduciendo en consecuencia su complejidad al mínimo necesario para asegurar los objetivos de control por parte del manipulador. En términos de la teoría de los sistemas dinámicos, el lavado de cerebro pretende cambiar la situación de equilibrio que en una persona sana codifica su libertad individual a una nueva situación de equilibrio en la que la libertad se transforma en obediencia dócil y además comprometida.

Es obvio que tal proceso de transformación radical y extrema, que implica la destrucción de la identidad individual, sólo puede realizarse bajo coerción, pues difícilmente una persona permite que se le manipule a un nivel tal que sus esquemas de pensamiento racional y sus reacciones emocionales le sean dictados desde el exterior. Parafraseando al escritor soviético de origen judío Vasili Grossman en su novela Vida y destino: si la vida y la libertad son sinónimos, no es posible imaginarse a un ser humano, vivo por definición, sin ser libre, lo cual nos lleva a concluir que la resistencia a la sumisión absoluta, al control del alma, está inscrita por necesidad en la esencia humana. La coerción entonces es un prerrequisito indispensable en la práctica del lavado de cerebro.
 
Un proceso coercitivo
 
En cuanto a la instrumentación del lavado de cerebro, la coerción puede ser de naturaleza física o psicológica, o bien una combinación de ambas. El lavado es un proceso social y como tal implica la interacción (íntima) de dos clases de personas: de agentes manipuladores y de víctimas (los primeros llevan a cabo el proceso de lavado, mientras que las segundas lo sufren). La coerción exige entonces la presencia de un desequilibrio estable en las relaciones humanas más intimas. La impotencia de la víctima y el poder absoluto del agente manipulador es un requisito indispensable para el ejercicio del lavado de cerebro. Conviene hacer aquí algunos comentarios sobre la naturaleza particular de este proceso en comparación con otros medios de manipulación del comportamiento y del pensamiento de los seres humanos.

Existen, en esencia, cuatro mecanismos por medio de los cuales se puede inducir en una persona dada cambios radicales en su comportamiento y en su pensamiento: la sugestión, la persuasión racional, la tortura y el lavado de cerebro. En el caso de la sugestión, el agente inductor del cambio trata de convencer de las ventajas básicamente sociales que éste puede acarrear en la persona que recibe las sugerencias y ésta es libre de aceptarlas o no; la persuasión racional se basa por su lado en la exposición de las consecuencias negativas que resultarán en caso de no cambiar y generalmente el agente que intenta la persuasión puede ejercer represalias contra aquel que la rechaza.

En lo que respecta a la tortura, el agente utiliza violencia física y psicológica para inducir el cambio en la víctima impotente ante el maltrato. El lavado de cerebro tiene semejanzas con la tortura, aunque sus diferencias son muy importantes, esto debido a las metas intrínsecas que caracterizan a cada uno de estos mecanismos. La tortura, al igual que el lavado de cerebro, sólo es posible cuando la víctima ha perdido su identidad independiente y autónoma, esto es cuando se encuentra impotente bajo el control del agente, cuando éste puede ejercer la coerción sin obstáculos. En el caso del agente torturador, éste suele ser indiferente al estado de bienestar de su víctima y puede no estar interesado en lo absoluto en moldearle comportamientos sociales, esquemas de pensamientos o reacciones emocionales, mientras que moldear es lo que caracteriza al lavado de cerebro, que suele servirse de la tortura como una de sus técnicas principales.

El proceso de lavado exige el control de las víctimas por parte de los agentes y esto sólo es posible bajo circunstancias muy especiales, tales como las que se presentan cuando una sociedad está sometida a un régimen político totalitario o bien en el marco de relaciones humanas abusivas, como las que suelen presentarse con frecuencia en familias disfuncionales. Un sistema político totalitario y la estructura de una relación padre-hijo caracterizada por el abuso sexual en la infancia tienen mucho en común. En ambos casos una entidad coercitiva fija la naturaleza de las interacciones sociales y la coerción es tal, que la resistencia es difícil y muchas veces imposible. Para el agente coercitivo no es suficiente la colaboración de sus víctimas, ya que sólo la sujeción total de éstas le permite alcanzar sus objetivos últimos de control. En el caso de un sistema político autoritario los objetivos del proceso de lavado persiguen una lealtad irrestricta de la población sometida para asegurar la sobrevivencia del régimen, mientras que en el caso de una relación familiar abusiva, es el placer perverso que el abusador obtiene al ejercer el poder sin cortapisas lo que éste desea preservar a costa de la integridad física y mental de su víctima.

Es importante mencionar que las víctimas de un proceso de lavado de cerebro no son necesariamente conscientes de su papel en tanto que víctimas y frecuentemente ven a los agentes como autoridades benévolas. Esto es particularmente cierto en el caso de sectas religiosas que hacen del lavado un aspecto fundamental de la integración de nuevos adeptos.
 
¿Cómo se lava un cerebro humano?
 
Teniendo en mente la definición precedente del alma, el proceso de lavado de cerebro se sirve básicamente de los siguientes métodos: el control total de la comunicación del individuo con el mundo externo (esto implica en la víctima la desintegración de su percepción independiente de la realidad); la inducción en la víctima de patrones de comportamiento y emociones por medio de la tortura, esto es, la imposición de castigos extremos como consecuencia de la desobediencia; el uso e insistencia de la confesión para minimizar la privacía individual; la inducción en la víctima, mediante la mecánica de la recompensa, de la creencia de que su interacción privilegiada con el agente la protege contra un entorno social que se le presenta como nocivo e incluso peligroso; el establecimiento de los dogmas básicos de la ideología del agente como ajenos al desafío y como racionalmente exactos; el desarrollo en la víctima de mecanismos de comprensión de ideas complejas por medio de frases simplistas con la finalidad de eliminarle la introspección y el análisis critico de sus vivencias; la imposición, por parte del agente, de la idea de que un dogma es más verdadero y real que cualquier cosa que experimente un ser humano individual; la imposición por parte del agente del derecho de controlar la calidad de vida y el destino último de la víctima.

Éstos son los procedimientos básicos del lavado de cerebro que, como puede verse, explotan la predisposición humana a perseguir la estabilidad del mundo social (aceptando la vigencia del principio de autoridad y la legitimidad del poder carismático) y a aceptar, en consecuencia, ciertos niveles de pérdida de la libertad individual como necesarios para la existencia de la seguridad, aunque en este caso el lavado de cerebro exige la destrucción total de la libertad del individuo y no resulta de una negociación. Puede decirse entonces que el lavado de cerebro es básicamente una violación brutal y unilateral del contrato social como lo entendía Rousseau.

Todos los métodos precedentes requieren la coerción (con diversos grados de brutalidad y arbitrariedad), ya que una persona no se somete en general a su aplicación de manera voluntaria. Existen mecanismos cognitivos en el ser humano (proyectados en la sociedad a la que pertenece) que lo llevan a resistir la imposición de cambios radicales en sus esquemas de comportamiento y pensamiento. La existencia de la memoria como soporte fundamental de la conciencia, la construcción gradual de la autodefinición, así como la adaptación incesante de la conciencia a cambios en el entorno, hacen difícil el lavado de cerebro. Es por eso que, los métodos de manipulación se apoyan en la inducción de emociones fuertes en la víctima como medio para romper sus resistencias, así como la inducción de niveles elevados de estrés que anulan en el cerebro humano la capacidad de resistir cambios abruptos en el entorno. Además, el agente induce a la víctima a aceptar que lo que se piensa es lo que se debe de sentir.

Se puede entonces interpretar el lavado de cerebro como un proceso de ingeniería de las emociones. Conviene aquí un ejemplo ilustrativo de lo que viene de exponerse: una mujer sometida al abuso de su pareja es inducida por ésta a pensar que no existe el abuso, sino que sólo es castigada por su mal comportamiento, pero que bajo ninguna circunstancia debe dudar del amor que se le profesa y en el derecho que tiene su pareja a establecer los castigos y las recompensas. Para la mujer sometida al abuso, ella es la única responsable de su sufrimiento y la necesidad de demostrar su compromiso con el destino de la pareja la lleva a hacer concesiones permanentemente. La eliminación de la soberanía corporal y emocional de la mujer abusada es buscada en todo momento por el abusador, que suele verse a si mismo como autoridad legitima e incluso benévola. La violencia física y verbal, así como la humillación sistemática mantienen a la mujer en estrés permanente, eliminando su capacidad de resistirse al abuso.
 
¿Qué tan común es?
 
Esta interrogante es difícil de responder, pues dicho proceso se encuentra en las regiones más oscuras de la dinámica social. Sin embargo, es conocida la práctica de algunas de sus técnicas más extremas por parte de sectas religiosas, ejércitos regulares e irregulares y en el contexto de relaciones familiares caracterizadas por el abuso. En sus versiones menos extremas, algunas técnicas del lavado de cerebro son ampliamente utilizadas en la actualidad por la mercadotecnia y la propaganda política (particularmente en los países en los que reina la economía neoliberal) las cuales, mediante el control de los medios de comunicación masiva, manipulan la mente social para imponer una realidad conveniente a los poderes corporativos dominantes.

Por otro lado, la práctica sistemática de la violación sexual en conflictos bélicos como medio para inducir en la población el sentimiento de indefensión y de la inutilidad de la resistencia (así como para promover la cohesión de grupo de los combatientes que violan), se inscribe en los anales del lavado de cerebro aplicado a la escala de poblaciones. Existen evidencias creíbles de que técnicas de lavado de cerebro han sido utilizadas para someter a los prisioneros que el gobierno estadounidense mantiene en la bahía de Guantánamo en Cuba, y estudios realizados en niños soldados participantes en los recientes conflictos de la región africana del Congo han puesto en evidencia la práctica de técnicas de lavado de cerebro; entre ellas se encuentra el abuso sexual sistemático e incluso la inducción del canibalismo como medios extremos para despersonalizar a los niños y garantizar su lealtad al ejército al que pertenecen.
 
Su futuro
 
La evolución constante de la tecnología de monitoreo de los procesos mentales ha llevado al desarrollo de medios de visualización de éstos, tales como la electroencefalografía, la resonancia magnética nuclear funcional y la tomografía por emisión de positrones, que permiten localizar regiones del cerebro implicadas en procesamientos mentales específicos. Los progresos en este campo son notables, y en la actualidad es posible incluso determinar con precisión la ubicación espacial de regiones del cerebro relacionadas con la intencionalidad del lenguaje y la interpretación del contenido simbólico de la experiencia visual, por ejemplo.

Sin embargo, si bien es poco probable que la tecnología de visualización permita algún día leer la mente de una persona dada la complejidad de los procesos mentales y la ignorancia abrumadora que rige aún en las ciencias cognitivas en lo que respecta a la naturaleza profunda de la conciencia humana, por otra parte, la información cada vez más precisa de los mecanismos de aprendizaje neuronal posibilita el desarrollo de productos químicos que inhiben o hacen posible ciertos procesamientos mentales. Además, en los últimos años han surgido tecnologías de manipulación de la actividad neuronal basadas en la aplicación de pulsos electromagnéticos en regiones específicas del cerebro.

Toda esta tecnología podría servir para mejorar la calidad de vida de las personas al proveer a los especialistas del comportamiento humano herramientas que coadyuven al tratamiento de desordenes mentales; por ejemplo, la estimulación magnética transcraneal aunada a técnicas de neurorretroalimentación es investigada como un medio posible de inhibición de procesos depresivos (borrando del tejido neuronal recuerdos nocivos que le dan sustento a la depresión) y algunos laboratorios importantes trabajan desde esta perspectiva en la producción de fármacos capaces de reducir la adicción a ciertas clases de drogas.

Es claro que la tecnología de visualización y manipulación de procesos mentales puede ser utilizada por aquellos interesados en moldear la mente humana de las personas con finalidades para nada altruistas, sino abusivas. Sólo una sociedad educada en valores de libertad puede ser consciente de los peligros de la tecnología y únicamente el ejercicio de la libertad responsable puede limitar sus aplicaciones nocivas. El abuso es un compañero de viaje de la ignorancia. El lavado de cerebro, por sus implicaciones perversas, es una de esas prácticas sociales en las que la ignorancia tiene una de sus más trágicas consecuencias. Quienes sueñan con el control total de una mente humana ajena no suelen pedir permiso para realizar su sueño y la negligencia de una sociedad ignorante es su principal aliado.
articulos
Referencias bibliográficas
 
Hofstadter, Douglas. 1987. Gödel, Escher, Bach: un Eterno y Grácil Bucle. Conacyt y Tusquets, Barcelona.
Miller, John H., Scott E. Page. 2007. Complex Adaptive Systems: An Introduction to Computational Models of Social Life. Princeton University Press, Princeton.
Pollock, Philip y Susan P. Llewelyn. 2001. Cognitive analytic therapy for adult survivors of childhood abuse: approaches to treatment and case management. Johh Wiley & Sons, Nueva York.
Ramonet, Ignacio. 2000. La Golosina Visual. Debate, Madrid.
Taylor, Kathleen. 2006. Brainwashing: The Science of Thought Control. Oxford University Press, Oxford.
Wassermann, Eric, Charles Epstein y Ulf Ziemann (eds.). 2008. Oxford Handbook of Transcranial Stimulation. Oxford University Press, Oxford.
Imágenes
José Guadalupe Posada, pp. 132-133: Mitin de estudiantes, 1892; p. 134: El nuevo Señor Don Simón, 1895; p. 136: Alarmante manifestación anticlerical, 1901; p. 137: El lego sabio; p. 138: Juan A. Mateos en la tribuna, Gil Blas, 1894; Tierno despedimiento al Señor del Sacro Monte; p. 139: Aparición de un nuevo cristo o mesías, ca. 1912; p. 140: Detalles de las fiestas del 16, La Patria Ilustrada, 1889; p. 141: Fin, Almanaque del Padre Cobos para 1893. P. 135 y 140: Ignacio Cumplido, Libro de muestras, 1871. Pp. 136, 138 y 140: Manuel Manilla, ca. 1882-1992.

     
____________________________________________________________      
Juan Carlos Martínez García
Departamento de Control Automático del Centro de Investigaciones y Estudios Avanzados, ipn; Centro de Ciencias de la Complejidad, Universidad Nacional Autónoma de México.
 
Es doctor en teoría matemática del control automático por la Escuela Central de Nantes, Francia. Pertenece al Departamento de Control Automático del Centro de Investigaciones y de Estudios Avanzados del IPN y al Centro de Ciencias de la Complejidad de la UNAM. Hace investigación sobre aspectos teóricos del control de sistemas dinámicos abstractos y de los automatismos que rigen la dinámica de los sistemas biológicos naturales y los sistemas artificiales, incluyendo los socioculturales
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
del tintero
       
 
  menu2
           
Entrada109B08 
Manifiesto
Nicanor Parra
   
   
     
                     
Señoras y señores
Esta es nuestra última palabra.
—Nuestra primera y última palabra—:
Los poetas bajaron del Olimpo.
 
Para nuestros mayores
La poesía fue un objeto de lujo
Pero para nosotros
Es un artículo de primera necesidad:
No podemos vivir sin poesía.
 
A diferencia de nuestros mayores
—Y esto lo digo con todo respeto—
Nosotros sostenemos
Que el poeta no es un alquimista
El poeta es un hombre como todos
Un albañil que construye su muro:
Un constructor de puertas y ventanas.
 
Nosotros conversamos
En el lenguaje de todos los días
No creemos en signos cabalísticos.
 
Además una cosa:
El poeta está ahí
Para que el árbol no crezca torcido.
Éste es nuestro mensaje.

Nosotros denunciamos al poeta demiurgo
Al poeta Barata
Al poeta Ratón de Biblioteca.
 
Todos estos señores
—Y esto lo digo con mucho respeto—
Deben ser procesados y juzgados
Por construir castillos en el aire
Por malgastar el espacio y el tiempo
Redactando sonetos a la luna
Por agrupar palabras al azar
A la última moda de París.

Para nosotros no:
El pensamiento no nace en la boca
Nace en el corazón del corazón.
 
Nosotros repudiamos
La poesía de gafas oscuras
La poesía de capa y espada
La poesía de sombrero alón.

Propiciamos en cambio
La poesía a ojo desnudo
La poesía a pecho descubierto
La poesía a cabeza desnuda.
 
No creemos en ninfas ni tritones.
La poesía tiene que ser esto:
Una muchacha rodeada de espigas
O no ser absolutamente nada.
 
Ahora bien, en el plano político
Ellos, nuestros abuelos inmediatos
¡Nuestros buenos abuelos inmediatos!
Se refractaron y se dispersaron
Al pasar por el prisma de cristal.
Unos pocos se hicieron comunistas.
Yo no sé si lo fueron realmente.
Supongamos que fueron comunistas,
Lo que sé es otra cosa:
Que no fueron poetas populares,
Fueron unos reverendos poetas burgueses.
 
Hay que decir las cosas como son:
Sólo uno que otro
Supo llegar al corazón del pueblo.
Cada vez que pudieron
Se declararon de palabra y de hecho
Contra la poesía dirigida
Contra la poesía del presente
Contra la poesía proletaria.
 
Aceptemos que fueron comunistas
Pero la poesía fue un desastre
Surrealismo de segunda mano
Decadentismo de tercera mano
Tablas viejas devueltas por el mar.
Poesía adjetiva
Poesía nasal y gutural
Poesía arbitraria
Poesía copiada de los libros
Poesía basada
En la revolución de la palabra
En circunstancias de que debe fundarse
En la revolución de las ideas.
Poesía de círculo vicioso
Para media docena de elegidos:
«Libertad absoluta de expresión».
 
Hoy nos hacemos cruces preguntando
Para qué escribían esas cosas
¿Para asustar al pequeño burgués?
¡Tiempo perdido miserablemente!
El pequeño burgués no reacciona
Sino cuando se trata del estómago.
 
¡Qué lo van a asustar con poesías!
La situación es ésta:
Mientras ellos estaban
Por una poesía del crepúsculo
Por una poesía de la noche
Nosotros propugnamos
La poesía del amanecer.
Éste es nuestro mensaje
Los resplandores de la poesía
Deben llegar a todos por igual
La poesía alcanza para todos.
 
Nada más, compañeros
Nosotros condenamos
—Y esto sí que lo digo con respeto—
La poesía de pequeño dios
La poesía de vaca sagrada
La poesía de toro furioso.
 
Contra la poesía de las nubes
Nosotros oponemos
La poesía de la tierra firme
—Cabeza fría, corazón caliente
Somos tierrafirmistas decididos—
Contra la poesía de café
La poesía de la naturaleza
Contra la poesía de salón
La poesía de la plaza pública
La poesía de protesta social.

Los poetas bajaron del Olimpo.

  articulos

(1963)

     
_____________________________________________________________
     
Nicanor Parra
Físico y poeta chileno.
     
_____________________________________________________________
     
como citar este artículo
. [En línea]
     

 

 

del bestiario
       
 
  menu2
           
Entrd109B07 
Murciélagos:
desconocidos visitantes
nocturnos de las flores
Pedro Adrián Aguilar Rodríguez
   
   
     
                     
Los murciélagos o quirópteros (Chiroptera, “mano alada”
en latín) son los únicos mamíferos capaces de volar y forman uno de los grupos animales más diverso y numeroso en especies —el segundo más grande, con casi 1 230, sólo precedido por los roedores. Contradictoriamente, no sabemos mucho sobre ellos y, en general, muy pocos conocen las funciones que desempeñan en el ambiente, sus características y su variada dieta.

Existen murciélagos que consumen insectos (insectívoros), frutos y a veces hojas (frugívoros), pequeños animales (carnívoros), peces (piscívoros), los que se alimentan de sangre (hematófagos) —y que en mucho colaboran a la mala fama en general de los murciélagos—, y aquellos que integran su dieta de esa agua azucarada que secretan las flores, el néctar (nectarívoros), aunque también pueden consumir el polen que hay en las flores.

En América, a los nectarívoros se les denominan murciélagos glosofaginos, y son nombrados así por Glossophaga —en latín, “que se alimenta con la lengua”—, el nombre científico de un género con muchas especies, muy comunes en Centro y Sudamérica, incluyendo México, cuyas características más notorias son el hocico, la lengua y la manera de volar, que en conjunto no sólo determinan su forma de alimentarse, sino también las relaciones que establecen con las plantas de las que extraen el néctar.

Los murciélagos tienen un hocico diferente según el alimento que consumen, y en el caso de los nectarívoros es alargado y delgado, el equivalente al pico de un colibrí; les es útil para poder hacerle camino a su cabeza al interior de la corola de la flor y así llegar al néctar que generalmente se encuentra en lo profundo, y tiene muy pocos dientes, lo que da cabida a una gran lengua, tanto que puede llegar a tener el tamaño del cuerpo del murciélago y, según Muchhala, hay una especie que la tiene tan larga (85 milímetros, 150% el largo del cuerpo) que parte de la misma se guarda en una clase de “forro” de tejido blando dentro de su pecho. En su punta se encuentran algunas papilas (como las que al humano le permiten saborear) en forma de vellos, que le ayudan a absorber el néctar cual esponja en cada movimiento de la lengua.

Haciendo una analogía, el hocico de los glosofaginos funcionaría como un popote que los deja alcanzar el fondo de un vaso largo en donde se encuentra el néctar; en medio del popote la lengua serviría como una tira elástica que baja por dentro rápidamente, con una esponja que se impregna del líquido antes de volver a subir.

En el colibrí el pico sería el popote, y dicha “similitud” se puede interpretar como producto de una “evolución convergente”, esto es, dos especies que poco tienen que ver, pero poseen características similares para resolver necesidades afines.
 
Para encontrar una flor de la cual alimentarse, los glosofaginos usan su visión nocturna —que, por cierto, es muy buena—, su olfato y su ecolocación, pero también pueden hallarlas usando señales visuales en el espectro ultravioleta y, de acuerdo con von Helversen y Winter, utilizan su ecolocación para distinguir cuando una flor tiene néctar (sería parecido a determinar si un vaso está vacío sólo con el eco que refleja al hablar cerca de él).

Una vez frente a la flor, los murciélagos pueden quedar suspendidos en el aire mientras se alimentan, al igual que los colibríes, lamiendo con su lengua el néctar muy rápidamente, demorando en cada visita menos de un segundo antes de pasar a otra flor —poco más de 300 milisegundos, según Tschapka y von Helversen.

Los glosofaginos tienen muy buena memoria y pueden recordar dónde se encuentra una determinada planta en floración y regresar a la misma en noches consecutivas, reconociendo el camino hacia la siguiente y así en sucesión, por grandes distancias en una sola noche (hasta cien kilómetros, de acuerdo con Horner y colaboradores). Esto origina frecuencias y patrones de visita a las flores muy reconocibles, que son “explotables” por las plantas para que los murciélagos polinicen varias de ellas, incluso si están muy separadas entre sí, lo cual constituye un factor clave en el ciclo de vida de las plantas que reciben la visita de los murciélagos.

Existen glosofaginos que pueden migrar grandes distancias en busca de sitios donde pasar los meses secos y fríos del año y en los cuales puedan tener a sus crías (las especies del género Leptonycteris viajan entre el desierto del norte y centro de México —en donde residen en otoño e invierno— y el sur de Estados Unidos). Para migrar siguen la floración de las especies que consumen en un área mayor (en el caso mencionado, los cactus columnares y los agaves), desplazamiento que beneficia el transporte de polen de las plantas en zonas donde las condiciones del ambiente son adversas y los polinizadores no son tan abundantes.

Estos murciélagos también se destacan por su poco peso (la mayoría no llega a treinta gramos, menos que algunos ratones), lo cual se piensa está asociado a sus necesidades energéticas; aun con ese peso, Voigt y colaboradores mencionan que tienen que consumir más de 150% de su peso en néctar por noche para mantener su calor corporal y sus funciones vitales. Sus necesidades de energía sobrepasan hasta en 60% las que tendría otro mamífero de un tamaño similar, y a la vez, es su talla la que propicia que tengan menor distribución que otros murciélagos, pues no pueden volar grandes distancias sin estar cerca de flores con néctar que consumir, por lo que, en su entorno tiene que haberlas en número considerable —característica que tiene implicaciones importantes en su conservación.
Las plantas “afines”
Las flores de las plantas que reciben a los murciélagos tienen una serie de estrategias para atraerlos: se abren de noche, los pétalos tienen colores claros que contrastan con el cielo nocturno, su olor es un tanto almizclado (con compuestos de azufre), están al alcance de un animal que vuela (alejadas del follaje o de espinas y ramas) y, por supuesto, tienen mucho néctar (diluido y rico en azúcares llamadas hexosas).

A una planta con flores con dichas características se le considera con un síndrome floral para murciélagos llamado “quiropterofilia” (con afinidad a los murciélagos). Los síndromes florales son el conjunto de características que nos indican qué tipo de animal es el que poliniza a tal planta y es una guía útil para las investigaciones científicas sobre la polinización.

Las plantas necesitan la visita de los murciélagos para llevar a cabo la polinización y éstos son eficientes por acarrear el polen en su pelo a grandes distancias (lo hacen mejor que los colibríes en ese sentido). Esto ha ocasionado que a lo largo de muchas generaciones las plantas conserven las características que los atraen y, a su vez, que los glosofaginos se vuelvan más hábiles encontrando y cubriendo con estas plantas sus necesidades alimenticias, como es el caso de los murciélagos que migran siguiendo la floración de los cactus columnares y los agaves.

La polinización por murciélagos parece ser tan buena para las plantas que, según Fleming y colaboradores, en América cerca de 44 familias de plantas tienen especies polinizadas por éstos y la lista sigue creciendo al incrementarse los estudios en el tema.
Especies en peligro
En el Neotrópico (región biogeográfica donde se encuentra México), von Helversen y Winter indican que los murciélagos polinizan entre 800 y 1 000 especies de plantas. Muchas de éstas tienen importancia para el ser humano, como los cactus y agaves; en todo el mundo se conocen aproximadamente 450 plantas económicamente importantes que dependen de los murciélagos para reproducirse o dispersar sus semillas.

En México se encuentran doce especies de murciélagos nectarívoros y entre ellas algunas son endémicas, esto es, que sólo las hay en el país (como Glossophaga morenoi y Musonycteris harrisoni) y otras migratorias (como Leptonycteris nivalis y L. yerbabuenae).
 
Desafortunadamente, debido a que tienen una distribución restringida, con bajas poblaciones en algunos sitios, además de la pérdida de su hábitat y de las plantas de las que dependen para alimentarse, en la actualidad hay cuatro especies amenazadas o en peligro de extinción en la lista mexicana de especies en riesgo (NOM059SEMARNAT2010).

Gran parte de los problemas que tienen éstos y otros murciélagos es que los lugares donde habitan son transformados, de zonas arboladas naturales, a terrenos cultivados, perdiéndose importantes sitios de descanso y fuentes de alimento para ellos, además de que las cuevas donde duermen durante el día son perturbadas, sufren de vandalismo y se ven llenas de basura.

Lamentablemente, las personas tienden a confundir a todos los murciélagos con “vampiros” dañinos para el ganado y transmisores de enfermedades, diezmándolos cuando son benéficos para el hombre y el ambiente, como es el caso de los glosofaginos, e incluso de los verdaderos vampiros, que tienen una función ecológica —hoy día hay formas más efectivas, diseñadas por investigadores, para controlarlos.

Para protegerlos, posiblemente la acción más efectiva sea educar a las personas mediante la divulgación acerca de la existencia y la importancia de estos murciélagos glosofaginos, las diferencias con el resto de los murciélagos, y que esto conlleve a que la gente respete las cuevas y árboles en donde descansan durante el día y protejan los hábitats de estos animales y de las plantas que visitan.

Mucho queda por decir sobre éstos y los demás murciélagos que habitan en los distintos ambientes de la Tierra —la Antártida es el único continente sin ellos. Cada grupo tiene sus características propias que los hace valiosos para el ambiente y, potencialmente, para nosotros.

Aún se desconoce la importancia real que tienen los glosofaginos en nuestros procesos productivos (en qué medida su presencia en un lugar impacta la producción de nuestros cultivos) o la forma en que interactúan con el resto de plantas y animales en el ambiente. Ignoramos las repercusiones que traería para el medio natural la desaparición de ellos, y no podemos sino estimar que la cantidad de especies que se verían afectadas o desaparecerían por la ausencia de estos importantes animales serían muchas.

Los glosofaginos pueden servir de ejemplo para que nos cuestionemos todas las malas concepciones que tenemos sobre los murciélagos, el por qué de protegerlos, que logremos modificar nuestra visión de un grupo tan importante. No sólo las plantas pueden ser “quiropterófilas”, también nosotros.
  articulos

Referencias bibliográficas

Altringham, John. 1996. Bats: Biology and Behaviour. Oxford University Press, Nueva York.
Fleming, Theodore, Cullen Geiselman y W. John Kress. 2009. “The evolution of bat pollination: a phylogenetic perspective”, en Annals of Botany, vol. 104, núm. 6. pp. 1017-1043.
Horner, M. A., T. H. Fleming y C. T Sahey,. 1998. “Foraging behavior and energetics of a nectar-feeding bat, Leptonycteris curasoae (Chiroptera: Phyllostomidae)”, en Journal of Zoology, vol. 244, núm. 4, pp. 575-586.
Muchhala, Nathan. 2006. “Nectar bat stows huge tongue in its rib cage”, en Nature, vol. 444, núm. 7. pp. 701-702.
Tschapka, Marco y Otto von Helversen. 2007. “Phenology, nectar production and visitation behaviour of bats on the flowers of the bromeliad Werauhia gladioliflora in a Costa Rican lowland rain forest”, en Journal of Tropical Ecology, vol. 23, núm. 4. pp. 385-395.
Voigt, Christian, Detlev Kelm y G. Henk Visser. 2006. “Field metabolic rates of phytophagous bats: do pollinator strategies of plants make of nectar- feeders spin faster?”, en Journal of Comparative Physiology B, vol. 176, núm. 3. pp. 213-222.
Von Helversen, Otto y Y. Winter. 2003. “8. Glossophagine Bats and Their Flowers: Costs and Benefits for Plants and Pollinators”, en Kunz, Thomas H. y M. Brock Fenton (eds.), Bat Ecology. The University of Chicago Press, Chicago.
Wilson, Don E. 2002. Murciélagos: Respuestas al Vuelo. (J. Galindo-González, trad.). Universidad Veracruzana, Xalapa.

     
_____________________________________________________________
     
Pedro Adrián Aguilar Rodríguez
Centro de Investigaciones Tropicales,
Universidad Veracruzana.
     
_____________________________________________________________
     
como citar este artículo
5. [En línea]
     

 

 

Entrada109A06   menu2
   
   
Miguel Ariza      
               
               
En 1977, el semiólogo Roland Barthes, en su lección inaugural de la Cátedra de Semiología Literaria en el Colegio de Francia, proponía reconocer tres “fuerzas” en la literatura, que denominó y distinguió con nombres griegos a los que recurría permanentemente: Mathesis, Mimesis, Semiosis. Ante la imposibilidad y el vacío de un metalenguaje que fundamentara teóricamente el sustrato sígnico de carácter narrativo y la imposibilidad de construir universales de significación sobre los más variados contenidos del saber, la Mathesis para Barthes se manifiesta no sólo como un conjunto de ordenamientos, sino como un régimen característico de la Mimesis, es decir: “como representación, que disipa su voluntad de verdad sin renunciar a su poder de evocación”.
 
Así, Roland Barthes indagaba sobre la posibilidad de concebir una ciencia de lo único y de lo irrepetible: ¿por qué no podría haber, de cierta manera, una nueva ciencia para cada objeto? ¿Una Mathesis singularis (y ya no universalis)?

Italo Calvino, en su serie de ensayos Seis propuestas para el próximo milenio recoge esta formulación y la equipara, en el capítulo “Exactitud”, a la solución dada por Robert Musil al dilema entre exactitud e indeterminación contenido en la formulación de todo tipo de saber, quien completa tal aseveración diciendo que existen “problemas matemáticos que no consienten una solución general, sino más bien soluciones particulares cuya combinación permite aproximarse a una solución general”.

Calvino, al igual que Barthes y Musil, compartía esta visualización de lo aparentemente paradójico y a la vez indiviso, esta ciencia de la unicidad de cada objeto que oscila continuamente entre los instrumentos de la generalización científica y al mismo tiempo con la sensibilidad subjetiva dirigida a la definición de lo singular y de lo irrepetible. Incansable lector de todo tipo de relatos y tratados científicos, siempre tuvo en cuenta este vaivén pendular existente entre literatura y ciencia, entre la vivencia matemática y la vivencia creativa del artista, entre el pensamiento abstracto y la vivencia subjetiva productora de tal pensamiento: “si me hubieran preguntado cuántas dimensiones tiene el espacio, si le preguntaran a ese yo que sigue sin saber las cosas que se aprenden para tener un código de convenciones en común con los demás, siendo la primera de ellas la convención según la cual cada uno de nosotros está en el cruce de tres dimensiones infinitas, ensartado por una dimensión que le entra por el pecho y le sale por la espalda, otra que lo traspasa de un hombro al otro, y una tercera que le perfora el cráneo y le sale por los pies, idea que uno acepta al cabo de muchas resistencias y repulsas, pero después fingirá haberlo sabido siempre porque todos los demás fingen haberlo sabido siempre, si tuviera que contestar a partir de todo lo que realmente había aprendido mirando a mi alrededor, acerca de las tres dimensiones que estando en el medio resultan seis, adelante, atrás, arriba, abajo, izquierda, derecha, observándolas, como decía, de cara al mar y de espaldas a la montaña”.

Este discernimiento de Calvino no sólo despliega una reflexión espacial de posiciones y ámbitos, sino además un razonamiento de carácter diagramático en donde el sujeto que construye e interpreta el entorno se manifiesta en acto. Para él, la escritura es visibilidad, proyección de lo visible en la trama narrativa del lenguaje: “capacidad de enfocar imágenes visuales con los ojos cerrados, de hacer que broten colores y formas del alineamiento de caracteres alfabéticos negros sobre una página blanca, de pensar con imágenes. Pienso en una posible pedagogía de la imaginación que nos habitúe a controlar la visión interior sin sofocarla y sin dejarla caer, por otra parte, en un confuso, lábil fantaseo, sino permitiendo que las imágenes cristalicen en una forma bien definida, memorable, autosuficiente, icástica”.

¡Pensar con imágenes! ¿Podría aplicarse al análisis un entramado semiótico narrativo? Es en los estudios del filólogo francés de origen lituano Algirdas Greimas que dicha pretensión va cobrando forma —una de las figuras centrales del estructuralismo moderno, que colaboró de manera muy cercana con Levi-Strauss y Roland Barthes, y fundó la Escuela Semiótica de París. Greimas, señala Broden, “trató de integrar una semántica interpretativa dentro de un modelo generativo de significación; e intentó validar sus modelos hipotético cognitivos de narratividad, actos de habla y emociones a través de análisis descriptivos del discurso”.

Según Paolo Fabbri, Greimas y Calvino “se conocieron en Urbino y fueron amigos durante toda la vida. Más tarde acudieron juntos al funeral de Roland Barthes y, a la muerte de Calvino, Greimas escribió sobre su amigo; mientras el texto Comment j’ai écrit un de mes livres, con su combinatoria irónica de los cuadrados semióticos, es un homenaje de Calvino a Greimas”. El libro al que se refiere el ensayo es Si una noche de invierno un viajero, novela en la que Calvino recrea a su manera el esquematismo y la estructura abstracta de la semiótica narrativa creada por Greimas, un texto que se revela como un verdadero viaje espacio temporal en el que el sistema de análisis greimasiano se convierte en un sistema de generación de escritura y de ordenación de lo narrado.

Como hemos dicho, para Calvino la escritura es visibilidad, proyección de lo visible en la trama narrativa del lenguaje. Entramado que en muchas de sus obras tuvo un carácter matemático combinatorio en su proceso de generación. Sobre todo en sus colaboraciones en el Oulipo: Ouvroir de Littérature Potentielle, fundado el 24 de noviembre de 1960 por el escritor Raymond Queneau, el matemático François Le Lionnanis y una decena de amigos más; esta agrupación era denominada por Calvino de una manera irónicamente amistosa como un grupo casi clandestino de escritores que practicaban la literatura en relación con las matemáticas bajo el signo del divertimiento.

Un oulipiano distinguido fue el matemático francés Claude Berge, cuya novela ¿Quién mató al Duque de Densmore? es en muchos sentidos un ejercicio de visibilidad, y se puede reseñar poco más o menos de la siguiente forma: “el Duque de Densmore muere al explotar una bomba que destruye totalmente su castillo ubicado en la isla de White, lugar a donde se había retirado. Los periódicos de la época mencionan que en su testamento, también perdido en la explosión, había dejado sin herencia a una de sus ocho ex mujeres. Durante sus últimos años, las había invitado a todas a pasar unos días en el castillo. Cada una de ellas fue llevada primero a la isla y luego de vuelta al continente por una lancha, en una sola ida y vuelta. Ninguna recuerda la fecha exacta o la duración de su estancia, pero cada una de ellas sí recuerda con certeza a quién más había conocido en la Isla. La bomba estaba diseñada especialmente para ser escondida en el laberinto del castillo bajo los pilares de la habitación en la que dormía el Duque. Razón por la que era necesaria una larga preparación a escondidas en el laberinto, lo que significa que la asesina tuvo que efectuar varias visitas al castillo para poder activarla”.

Los encuentros entre las invitadas fueron ocurriendo de la siguiente manera: 1) Ann ha visto a Betty, Cynthia, Emily, Felicia y Georgia; 2) Betty ha reconocido a Ann, Cynthia y Helen; 3) Cynthia ha percibido a Ann, Betty, Diana, Emily y Helen; 4) Diana ha divisado a Cynthia y Emily; 5) Emily ha visto a Ann, Cynthia, Diana y Felicia; 6) Felicia ha observado a Ann y Emily; 7) Georgia ha advertido a Ann y Helen; y 8) Helen ha percibido a Betty, Cynthia y Georgia. La relación “x ha visto a y” (es decir, han coincidido en el tiempo de visita) se expresa en la
figura 1, la cual proporciona el marco perfecto para una feliz aplicación de la teoría de gráficas a un misterioso asesinato, en particular de la de intervalos: se dirá que una grafica es de intervalos cuando exista una colección de intervalos (cerrados y conexos) de la recta real, tales que cada uno de los vértices de la gráfica representa un intervalo de dicha colección y dos vértices comparten una arista si y sólo si la intersección de sus correspondientes intervalos es no vacía. De acuerdo al propio Berge, en su libro Gráficas e hipergráficas, fueron los matemáticos György Hajós y Norbert Wiener los primeros en estudiar este tipo de gráficas.
 
 Figura1A06
 Figura 1. Gráfica de intervalos.
 

Berge señala también, en el libro ya referido, que cada gráfica de intervalos debe ser triangular, es decir, si tiene ciclos de longitud mayor a tres debe existir una cuerda entre dos vértices no consecutivos del ciclo. Por lo tanto, toda grafica que contenga un ciclo de longitud cuatro, en el que los pares de vértices no consecutivos no sean adyacentes, no puede ser una grafica de intervalos. En el diagrama podemos ver dos ciclos inducidos de longitud 4: achg y abhg, que no cumplen con las condiciones anteriores. Por otro lado, si observamos la configuración generada por los vértices a, b, c, d, e, f, podemos percatarnos que hay un triángulo inscrito en un hexágono. Si esos seis vértices representan seis intervalos sobre un eje, se produce una contradicción: por razones de simetría podemos suponer que los intervalos b, d, f, que deben ser ajenos dos a dos, están situados en el eje en este orden, libre de la elección de cambiar los vértices; entonces el intervalo a que tiene una parte común con los intervalos b y f debería cubrir el intervalo d, que está en medio de ellos, esto es falso ya que en la gráfica el vértice a no está relacionado con el vértice d. Razón por la cual la gráfica trazada no puede ser una gráfica de intervalos.

La persona culpable tendría que estar incluida en cada una de las configuraciones, aun más, al quitar el vértice que la representa en el diagrama, la gráfica tiene las propiedades de una gráfica de intervalos. Por lo tanto Ann, la mujer denotada con la letra a, es la asesina.
 
Así es como Berge resuelve la trama de su pequeña novela policiaca, mediante una construcción diagramática y el razonamiento matemático como recurso literario. El pensamiento matemático se inserta al interior del relato como eje de articulación relacional para lograr la inteligibilidad de las acciones de los personajes y así resolver el misterio. Sin embargo, ¿desde un punto de vista semiótico es posible visualizar un relato para, relacionalmente, obtener conjuntos de regularidades de carácter semántico?, ¿es posible hacerlo por medio de la construcción de una semiótica de los sucesos contenidos en el relato? Veamos.

El presupuesto según el cual el contenido de una manifestación compleja está en función de los contenidos de sus partes componentes expresa claramente una intuición que solemos tener sobre lo múltiple, implica una reflexión sobre la relación entre el todo y sus partes componentes, involucra una teoría de las multiplicidades que entraña atributos de naturaleza matemática y presenta el problema de cómo los seres humanos nos relacionamos con los entornos del mundo para generar unidad de sentido. La significación es un proceso de síntesis y precisa de la construcción de un espacio conceptual de sentido para el posible análisis de sus correlatos textuales.

Dentro del paradigma imperante en semántica formal, las teorías axiomáticas construidas en algún lenguaje artificial son consideradas, probablemente, como las únicas formalmente consistentes. Sin embargo, el lingüista danés Louis Hjelmslev, en una de sus obras más importantes, Prolegómenos a una teoría del lenguaje, expone los principios, conceptos y métodos de una teoría del lenguaje consistente y con pertinencia axiomática clara. El aparato axiomático construido por Hjelmslev intenta constituirse en un “álgebra lingüística” que podemos concebir como una modalidad del estudio entre el todo y la parte (enmarcada en la tradición de la lógica algebraica booleana), y cuya regla de correspondencia principal es la relación de presuposición. En este sentido, desde un punto de vista axiomático, el sistema de definiciones que conforma la teoría lingüística figurada en los Prolegómenos puede instituirse en un “sistema relacional”, cuyo predicado primitivo resulta ser la presuposición, a partir de lo cual podemos concebir la construcción de una teoría semiótica de carácter presuposicional, aprovechando los recursos de la matemática moderna.

En su obra, Hjelmslev introduce el andamiaje teórico para la determinación de los tipos de relaciones de dependencia que ocurren en el eje sintagmático del discurso (sucesiones) y aquellas que acontecen en su eje paradigmático (sustituciones). Con base en una propuesta que he elaborado desde una perspectiva “semiótico matemática”, las ordenaciones de magnitudes discursivas de carácter aspectual —los sucesos de un relato— generadas presuposicionalmente, sintagmática y paradigmáticamente, integran conjuntos parcialmente ordenados susceptibles de organizarse dentro de un “álgebra relacional”, cuya representación geométrica es de carácter diagramático (arbóreo y reticular), posibilitando así una esquematización por medio de la teoría de categorías.
 
La narratividad como proceso de semiosis
 
Uno. Desde un punto de vista diagramático, un relato puede visualizarse, en primera instancia, como un conglomerado accional de dimensión extensa, susceptible de modulaciones y conexiones relacionales. Es una multiplicidad inconsistente, una extensión primigenia de la que emerge la construcción de sentido. Una multiplicidad, potencialmente infinita, de sucesos puestos en situación sin más ordenamiento que el de las posibles trayectorias de sus aconteceres. Desde este punto de vista, el relato (visto como texto) es un “nono discurso”, la postulación de la existencia positiva de una entidad semiótica de la que sólo puede formularse la hipótesis de que por medio de un proceso constructivo es posible concebirlo como unidad de sentido (figura 2).
 
 Figura2A06
 Figura 2. Texto potencial.

Dos. Es en un plano segundo cuando realmente se comienza a hacer texto, es decir, por medio del análisis el relato comienza a configurarse como una entidad relacional construyendo el objeto al momento de designarlo. De esta manera, nuestros objetos son entidades narratológicas y no hechos reales. Esta designación es la que posibilitará conferir a los objetos sometidos a análisis la calidad de existentes al interior del relato. Es en este proceso relacional donde los sucesos ocupan una posición definida con respecto del relato y entre ellos mismos. Cada suceso, entonces, toma una localización definida dentro del “entorno diagramático” y con respecto de todos los demás sucesos inmersos en él. La ordenación de los sucesos depende de la puesta en marcha de una regla de correspondencia que articule sus relaciones de contigüidad sintagmática. En términos relacionales, la ordenación de los sucesos depende de una relación de orden que los articule, ésta es la relación de presuposición. El reconocimiento de los vínculos presuposicionales en un relato posibilita una lectura desde el final hacia el inicio —de los sucesos consecuentes a los antecedentes—, destacando la relevancia —el carácter necesario— de esas magnitudes semióticas con vista al final.

Así, la relación de presuposición es un principio de ordenación sintagmática que discierne y modula los sucesos de una narración en cada uno de sus ámbitos correspondientes. Su regla de correspondencia es la siguiente: un suceso dado S presupone a otro suceso dado S’ siempre que: S sea condición suficiente para S’ y S’ sea condición necesaria para S; es decir, el que S sea una condición suficiente para S’, significa que siempre que ocurra S, ocurrirá asimismo S’; la presencia (ocurrencia) de S basta para asegurar la presencia (ocurrencia) de S’. El que S’ sea una condición necesaria de S significa que toda vez que ocurra S’ ha de ocurrir asimismo S; la presencia (ocurrencia) de S exige o supone la presencia (ocurrencia) de S’ (figura 3).
 
Figura3A06 
 Figura 3. Sistema paradigmático.

Con la regla de correspondencia anterior damos a los sucesos calidad de existentes, pasando de ser entidades “inmersas” en un entorno potencial, a sucesos pertenecientes a un relato, lo que en el fondo se genera es una “membresía”. Sin embargo, no es una “membresía ociosa”, ya que funda una división paradigmática entre dos situaciones límite: en la primera, la distribución de los sucesos es totalmente independiente si cada uno de los sucesos no presupone ningún otro; y en la segunda, la distribución es totalmente dependiente si cada uno de los sucesos presupone algún otro de manera única y secuencial. En uno de los extremos los sucesos se inscriben en el relato con plena independencia unos de otros; en el otro de los extremos, los sucesos son articulados por la presuposición de manera total, resultando totalmente dependientes unos de otros.

La división paradigmática expuesta da lugar a lo que Hjelmslev ha denominado “sistema”, el cual estará delimitado por las situaciones límite ya descritas, y que son los “horizontes posibles” de toda configuración discursiva. En un extremo se configura una progresión discursiva totalmente “cardinal”, en donde cada suceso es autónomo y forma una “constelación” de “autonomías”; en el otro extremo se configura una progresión narrativa de carácter “ordinal” y los sucesos dependen totalmente unos de otros.

Entre ambas delimitaciones se encuentran las configuraciones presuposicionales de todos los relatos posibles, ca da relato es un “proceso” que media entre ambos límites, que puede o no coincidir con alguno de ellos. Entre los extremos existe una gradación en la que imperan, en mayor o menor medida, “modulaciones” de carácter presuposicional. Los dos horizontes operan como “moldes límite” hacia los que está orientada en mayor o menor medida la modulación continua de carácter presuposicional, y ambas situaciones límite corresponden a los lugares comunes de la retórica aristotélica; son el resultado de formas narrativas estereotipadas, de ahí que la complejidad y la riqueza accional de un relato se encuentre alejada de (“modulada” entre) ambas configuraciones límite.

Entonces, lo que era una entidad diagramático potencial, una entidad amorfa en la que todo está inmerso e indiferenciado, se transforma en una entidad de carácter arbóreo, un árbol de presuposición compuesto por los sucesos del relato, una entidad diagramática diferenciada, dotada de relaciones de contigüidad sintagmática, un universo tensivo sujeto a deformación, una entidad “analógica” no lingüística compuesta de “figuras” (los sucesos) que dependen de las propiedades de elasticidad del relato (figura 4).
 
Figura4A06 
 Figura 4. Árbol presuposicional.
 

El árbol entero representa un conjunto ordenado jerárquicamente de manera estricta. Fungiendo las acciones como inscripciones que los acontecimientos dejan fijadas en el texto; en este sentido, cada acción reconocida en el texto puede concebirse como un suceso elemental con cierto grado de autonomía. Puede ser visualizada, dice Paul Ricoeur, como un “cuasitexto que deja una marca, un trazo, un rasgo, y que adquiere una autonomía semejante a la autonomía semántica de un texto”.

Así, el diagrama es la actualización de un ámbito potencial por medio de una acción intencional constructiva, cuya visualización o captación trasciende la concreción singular de su trazado gráfico, de su creación más o menos convencional o arbitraria, de su presentación singular y de su posible referente representacional. Articulación relacional que se torna figurativa y que entraña un pensamiento interior, médula o manifestación de la producción semántica. En este sentido, el quehacer diagramático es un permanente actuar en labor constructiva, doble trabajo en interioridad y exterioridad, cuyo primer aspecto apunta a “la construcción, la elaboración en sí del espacio constituido por el diagrama, e interroga finalmente su fijeza, su origen, la legitimidad de su postulación, su pertinencia fundacional”, como indica Guitart, y cuyo segundo aspecto interroga su movilidad, su flexibilidad, su transformabilidad, la legitimidad de su uso y su funcionalidad.

Tres. Como lo señala Javier de Lorenzo, tanto en el hacer matemático como en el terreno del lenguaje humano es insuficiente restringirse a la noción formal de código, ya sea lingüístico o proposicional, debido a que se deben tomar en cuenta también contextos y recreaciones. Es decir, cualquier texto escrito es un diagrama que carece de valor en sí, como objeto, si no se tiene presente el valor potencial de ser actualizado en cada momento, en cada instante. Y es ese valor potencial el que posibilita la construcción real del texto como objeto semiótico.

Tomemos como ejemplo un pequeño relato de Julio Cortázar titulado La conservación de los recuerdos: “Los famas para conservar sus recuerdos proceden a embalsamarlos en la siguiente forma: Luego de fijado el recuerdo con pelos y señales, lo envuelven de pies a cabeza en una sábana negra y lo colocan parado contra la pared de la sala, con un cartelito que dice: ‘Excursión a Quilmes’, o: ‘Frank Sinatra’.”

“Los cronopios, en cambio, esos seres desordenados y tibios, dejan los recuerdos sueltos por la casa, entre alegres gritos, y ellos andan por el medio y cuando pasa corriendo uno, lo acarician con suavidad y le dicen: ‘No vayas a lastimarte’, y también: ‘Cuidado con los escalones’. Es por eso que las casas de los famas son ordenadas y silenciosas, mientras en las de los cronopios hay una gran bulla y puertas que golpean. Los vecinos se quejan siempre de los cronopios, y los famas mueven la cabeza comprensivamente y van a ver si las etiquetas están todas en su sitio”.

Desde un punto de vista semiótico, todo análisis de un relato pasa por la identificación de acciones y su integración en secuencias narrativas, tomando en cuenta efectos semánticos producto de formas esquemáticas subyacentes. Para ello, de acuerdo a la propuesta teórica de Roberto Flores, distinguiremos lo siguiente: “cambios de tiempo, de espacio, de actores [...] uso de conectores lógicos como son las conjunciones, [...] los cambios de tema-disyunción tópica recurrencias frásticas o lexemáticas y, finalmente criterios gráficos que distinguen, por ejemplo, entre párrafos y capítulos. Así como: acciones terminadas, acciones que duran, acciones sin terminar, estados, deverbalizaciones (nombres de acción), derivados de raíz verbal (nombres de oficio), adjetivos, nombres (de emoción y sentimiento), construcciones de tipo estativo, verbos de creencia, y frases subordinadas. De esta manera se imponen dos operaciones de extracción de los sucesos: a) la segmentación del relato en sus secuencias constitutivas, según criterios semánticos de delimitación que corresponden a los criterios aristotélicos de delimitación de la unidad dramática: unidad de tiempo, espacio y acción; b) una vez dada dicha delimitación, los sucesos considerados son aquellos que afectan o caen bajo la responsabilidad de los protagonistas del relato: al ámbito de los sucesos donde interviene el enunciador lo llamamos enunciación enunciada; al ámbito de los sucesos en donde intervienen los protagonistas los llamamos, de una manera poco redundante pero explícita enunciado enunciado”.

La segmentación de nuestro relato nos permite reconocer las secuencias que serán tomadas como ordenaciones iníciales, previa a la articulación presuposicional subyacente. Es posible segmentar en cuatro secuencias el texto elegido, de las cuales haremos el análisis presuposicional para las más importantes: las dos primeras.

Secuencia 1. “Los famas para conservar sus recuerdos proceden a embalsamarlos en la siguiente forma: Luego de fijado el recuerdo con pelos y señales, lo envuelven de pies a cabeza en una sábana negra y lo colocan parado contra la pared de la sala, con un cartelito que dice: ‘Excursión a Quilmes’, o: ‘Frank Sinatra’”.

Secuencia 2. “Los cronopios, en cambio, esos seres desordenados y tibios, dejan los recuerdos sueltos por la casa, entre alegres gritos, y ellos andan por el medio y cuando pasa corriendo uno, lo acarician con suavidad y le dicen: ‘No vayas a lastimarte’, y también: ‘Cuidado con los escalones’”.
 
 
 Figura5A06
 Figura 5. Árboles parciales de presuposición, 1 y 2.

Al extraer las acciones y sucesos e identificar sus vínculos presuposicionales, obtenemos un árbol para cada una de las secuencias reconocidas (figura 5). Al desplegar ambos trayectos presuposicionales podemos observar dos grandes bloques de sucesos que se encuentran en alternancia, miembro a miembro, como una suerte de simetría de oposiciones, dos formas opuestas de hacer persistir la memoria: fijar/dejar suelto, envolver/andar por el medio, colocar de pie/pasar corriendo, etiquetar/decir (figura 6).
 
Figura6A06
 Figura 6. Proceso de fusión presuposicional.

El transito fugitivo de los recuerdos que aparecen y desaparecen a su antojo, precipitándose hacia el pensamiento, convocados a la memoria por medio de una evocación sensible, retenidos por el acto de decir de los cronopios se contrapone a la fijación voluntaria de aprehensión e identificación por medio de etiquetas elaboradas por los famas. Dos formas de la anamnesis que se contraponen en el acto de /hacer-persistir/ que, como explica Flores, “involucra una dinámica de fuerzas en donde se supone una acción que contrarresta u obstaculiza una tendencia a la desaparición del recuerdo y que sin embargo no indica ni el modo en que se retiene el recuerdo en la mente ni el modo de su convocación en la reminiscencia”.

Un despliegue de dos trayectos narrativos en tensión que conforman, por un proceso de metaforización dos formas del persistir de la memoria: la / rememoración / en el caso de los famas, y la / remembranza / en el caso de los cronopios. Los actores del relato, cronopios y famas, mantienen historias independientes que al mismo tiempo son correferentes y contradictorias, y entran en contacto para fusionarse en una sola y misma historia, La conservación de los recuerdos, que continuará ulteriormente, regida por dos entidades esquemáticas, las cuales conducen ambos trayectos confluentes: / rememoración / y / remembranza /.

Dos esquemas narrativos que darán origen a un retículo booleano<E, » ñ>, donde: », es la presuposición entre esquemas narrativos y E={/hacer-persistir /, / rememoración /, / remembranza /, / conservar recuerdos /}, esto es, el conjunto de esquemas narrativos, y que da lugar a la estructura algebraica: <E, », ∏, , / hacer-persistir /, / conservar>/ recuerdo>/> (figura 7).
 
Figura7A06
Figura 7. Retículo booleano de esquemas narrativos

Podemos así transitar hacia una pequeña categoría algebraica (figura 8). Y en este espacio semiótico, el entorno genérico / hacer-persistir / es transformado por medio de una serie de instanciaciones de carácter composicional en el entorno de carácter esquemático / conservación del recuerdo /, producto de la puesta en acto de una estructuración dinámica originada por los morfismos: Et: / hacer-persistir /→ / rememoración /. Dt: / hacer-persistir /  →/ remembranza/.
 
Figura8A06
Figura 8. Categoría algebraica

Dados los esquemas narrativos I1: / rememoración / e I2: / remembranza/, las correspondientes instanciaciones del espacio genérico / hacer-persistir / son esquemas narrativos que operan como espacios de entrada que darán origen a la integración semántica una vez ocurrido los morfismos CE:  / rememoración / → / conservar recuerdo / y Cd: / remembranza / → / conservar recuerdo / .

Así, la composición CE° Et: / hacer-persistir / → / conservar recuerdo / es isomorfa a la composición Cd° Ed: / hacer-persistir / → / conservar recuerdo/ , razón por la cual es posible pasar directamente del espacio genérico / hacer-persistir / al espacio de integración / conservar recuerdo/ , equiparando de esta manera el principio de composicionalidad semántica con el de composición entre morfismos.
Todo ello nos permite visualizar también el sistema entero como un proceso de simbolización, donde el esquema narrativo / conservar recuerdo / resulta ser producto de este otro proceso de síntesis, paradigmática; es decir, nos encontramos con que las dos entidades paradigmáticas / rememoración / y / remembranza /, que se encuentran en exclusión por ser ajenas semánticamente la una con respecto de la otra, entran en participación por medio de un proceso de fusión paradigmática de índole metafórica.

Este pequeño sistema relacional de carácter simbólico puede ser entonces visualizado diagramáticamente con una estructura de Klein (figura 9). Este entorno diagramático se encuentra regulado por un conjunto de modulaciones que, tomando en cuenta todas las diversas relaciones de contigüidad presuposicional en el eje sintagmático, se sintetizan formando en el eje paradigmático un entorno solidario entre tres grandes ámbitos que están en firme interdependencia, los cuales se hallan composicionalmente entrelazados de tal modo que la desaparición de cualquiera de ellos origina la desaparición del entorno entero. Si bien es verdad que el esquema narrativo /conservar recuerdos / semánticamente puede nominar el proceso entero, no es suficiente para proclamar su autonomía con respecto de los esquemas narrativos /rememoración/ y /remembranza/, por lo que no es posible determinar el significado de un relato únicamente a partir de los sucesos que lo constituyen, visualizados como magnitudes autónomas que se adicionan “composicionalmente” para dar al relato su sentido, sino que deben ser tomados en cuenta los efectos semánticos, producto de formas esquemáticas subyacentes, ya que se torna imposible designar una totalidad de sentido global a partir de la simple aditividad de sucesos autónomos.
 
Figura9A06 
 Figura 9. Diagrama hexagramático

Hemos creado así un par de estructuras diagramáticas, una booleana y la otra kleineana de carácter hexagramático, que son análogas al despliegue dimensional mencionado por Calvino; una terna de magnitudes se entrelazan creando composicionalmente un anudamiento relacional entre tres ámbitos que emergen del proceso generativo de la semiosis.

A partir de lo anterior podemos afirmar que, siempre que tengamos trayectos narrativos, ordenados presuposicionalmente, que se desdoblen en el plano sintagmático del discurso y converjan en la aparición de un suceso singular, podemos inferir la existencia de sus correspondientes esquemas narrativos. Tales entidades paradigmáticas formarán un proceso de simbolización-metaforización que relacionalmente y composicionalmente se comportará como una estructura hexagramática.
Todo ello dentro de los umbrales que un ejercicio de “visibilidad” permite. Una confección diagramática que comporta un despliegue figurativo que articula compacidad y conexidad, interioridad y exterioridad, delimitaciones y fronteras. Un pensamiento gracias al cual se descubre lo que está allí desde el inicio, a saber, el diagrama y el sujeto como su descubridor, pero que sin embargo se mantiene siempre abierto para dar cuenta de lo no dicho, de todo aquello que queda aún por explorar, de las múltiples y variadas interpretaciones textuales que el quehacer diagramático está aún por construir y formular.
     
Nota
Este artículo es una versión actualizada de la ponencia presentada en el “Coloquio Absolución del conocimiento. Reflexiones e intersecciones entre arte y ciencia”, celebrado en la Facultad de Ciencias de la UNAM, en el marco de las celebraciones de su 70 aniversario.
     
Referencias bibliográficas
 
Ariza, Miguel. 2007. “Teoría semántica y matemáticas. Filosofía e historia de las ideas matemáticas”, en Mathesis. Serie III vol. 2 núm. 1 pp. 73-97. México, UNAM.
_____. 2010. “Pensamiento diagramático e integración conceptual” en AdVersus. vol. VII núm. 18. pp. 107-128. (‘II
RS’ ROMA-BUENOS AIRES)
_____. 2012. “Hacia un modelo presuposicional de semiótica algebraica”. Tonos Digital. núm 22. Universidad de Murcia, España.
Berge, Claude. 1970. Graphes et hypergraphes. Dunod, París.
_____. 1994. Qui a tué le duc de Densmore? La bibliothèque oulipienne, París.
Broden, Thomas F. 1994. “Ensayo conmemorativo. A. J. Greimas (1917-1992)”, en Escritos, revista del Centro de Ciencias del Lenguaje, núm. 10, pp. 151-194.
Calvino, Italo. 1962. El camino de San Giovanni. Siruela, Madrid. 2003.
_____. 1985. Seis propuestas para el próximo milenio. Siruela, Madrid. 2005.
De Lorenzo, Javier. 1994. “El discurso matemático: ideograma y lenguaje natural”, en Mathesis, vol. 10, núm. 3, pp. 235-254.
Fabri, Paolo. 2000, noviembre 16. Paolo Fabbri sobre Italo Calvino. [Entrevista con Covadonga G. Fouces González], en antroposmoderno.com/antro-articulo.php?id_articulo=510
Flores, Roberto. 1991. “Segmentación y clausura del discurso”, en Morphé, núm. 5. pp. 109- 140.
_____.2004. “Recordando las definiciones”, en Tópicos del seminario, núm. 12. pp. 81- 106.
Guitart, Rene. 2003. Evidencia y extrañeza: matemática, psicoanálisis, Descartes y Freud. Amorrortu, Buenos Aires.
Hjelmslev, Louis. 1994. Prolegómenos a una teoría del lenguaje. Gredos, Madrid.
Mier, Raymundo. 2008. “Escritura crítica y semiótica: ética y política de la práctica literaria”, en Andamios, vol. 5, núm. 9, pp. 7-23.
Ricoeur, Paul. 2002. Del texto a la acción: ensayos de hermenéutica II. FCE, México
     
____________________________________________________________      
Miguel Ariza

Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________
 
como citar este artículo 
 
     
Entrada109A09   menu2
   
   
Faustino Sánchez Garduño      
               
               
Me da muchísimo gusto que Nicanor Parra haya ganado el Cervantes.
Teníamos una deuda con él.

José Emilio Pacheco
 
  articulos   
El 30 de noviembre de 2011, el Jurado del Premio Cervantes —máxima presea que se otorga a escritores en lengua española— decidió adjudicárselo al poeta chileno Nicanor Parra Sandoval. De esta manera, Parra se convirtió en el tercer chileno que recibe el Cervantes —antes lo obtuvieron Jorge Edwards, en 1999, y Gonzalo Rojas, en 2003, pero también lo convirtió en el escritor más viejo a quien se le haya otorgado el prestigiado premio. A juzgar por los nombres de los finalistas, seguramente la decisión no fue fácil, pues en la lista se encontraban el nicaragüense Ernesto Cardenal, el colombiano Fernando Vallejo, el uruguayo Eduardo Galeano y la cubana Fina García Marruz. Por México, los finalistas fueron Fernando del Paso, Homero Aridjis y Margo Glantz.
La ceremonia de entrega del Premio Cervantes 2011 se realizó el 23 de abril de 2012 en el paraninfo de la Universidad de Alcalá de Henares. Debido a lo delicado de su estado de salud, el poeta chileno no asistió. En su representación lo hizo un nieto suyo, quien llegó a Alcalá de Henares haciéndose acompañar de una vieja máquina de escribir que su abuelo envió como obsequio a fin de que dicha reliquia pasara a formar parte del inventario de la universidad. No era cualquier máquina de escribir, se trataba de la máquina con la que Nicanor Parra escribió sus primeros poemas. Para esta ocasión el nonagenario poeta preparó un discurso leído por el nieto. En él, entre otras cosas, Parra pidió un año de plazo para terminar (y entregar) un libro de su autoría; ya transcurrió un año, ¿lo habrá terminado?

Nicanor Parra nació el 5 de septiembre de 1914 en San Fabián de Alico, Chile, en el seno de una familia modesta y arraigada a lo popular. Su padre (don Nicanor), fue profesor de primaria, juglar, guitarrista y bohemio. Su madre, doña Clara Sandoval, fue modista. En 1932, el joven Nicanor viajó a la capital chilena, donde estudió física en el Instituto Pedagógico, y posteriormente a los Estados Unidos. Licenciado en Ciencias Exactas y Físicas por la Universidad de Chile, después se especializó en Mecánica avanzada en la Universidad Brown de Rhode Island, en Estados Unidos, y amplió su formación en la Universidad británica de Oxford.

Es el mayor de una familia de nueve, entre los que se cuenta a la conocida cantante Violeta Parra, tres años más joven que Nicanor, y también otros dos hermanos suyos se dedicaron a la música. Pablo Neruda, el segundo Premio Nobel en Literatura de nacionalidad chilena, estableció un paralelismo entre las familias Revueltas (José, escritor, Silvestre, músico, Fermín, pintor y Rosaura, actriz), de México y la Parra de Chile. En su Para nacer he nacido, el poeta escribió: “esta familia Revueltas tiene ‘ángel’. En un país de creación perpetua, como el país hermano, ellos se revelaron excelentes y superdotados. Es una familia eficaz en la música, en el idioma, en los escenarios. Pasa como con los Parra de Chile, familia poética y folklórica con talento granado y desgranado”.
 
 Autoretrato

Considerad, muchachos,
Este gabán de fraile mendicante:
Soy profesor en un liceo obscuro,
He perdido la voz haciendo clases.
(Después de todo o nada
Hago cuarenta horas semanales).
¿Qué les dice mi cara abofeteada?
¡Verdad que inspira lástima mirarme!
Y qué les sugieren estos zapatos de cura
Que envejecieron sin arte ni parte.

En materia de ojos, a tres metros 
No reconozco ni a mi propia madre.
¿Qué me sucede? -¡Nada!
Me los he arruinado haciendo clases:
La mala luz, el sol,
La venenosa luna miserable.
Y todo ¡para qué!
Para ganar un pan imperdonable
Duro como la cara del burgués
Y con olor y con sabor a sangre.

¡Para qué hemos nacido como hombres
Si nos dan una muerte de animales!

Por el exceso de trabajo, a veces
Veo formas extrañas en el aire,
Oigo carreras locas,
Risas, conversaciones criminales.
Observad estas manos
Y estas mejillas blancas de cadáver,
Estos escasos pelos que me quedan.
¡Estas negras arrugas infernales!
Sin embargo yo fui tal como ustedes,
Joven, lleno de bellos ideales,
Soñé fundiendo el cobre
Y limando las caras del diamante:
Aquí me tienen hoy
Detrás de este mesón inconfortable
Embrutecido por el sonsonete
De las quinientas horas semanales.

 
 
Gravitando entre dos centros de atracción
 
 
A finales de los años cuarentas y principios de los cincuentas del siglo pasado, Parra residió en el Reino Unido donde, con una beca otorgada por el Consejo Británico, se matriculó en el Saint Catherine’s College para realizar un doctorado en Cosmología en la Universidad de Oxford. Su estancia en la vetusta y también cosmopolita ciudad británica —quizás debido a la atmósfera que genera la flema inglesa— lo acercó más a la poesía. La existencia de dos polos de atracción intensos, le produjo momentos de conflicto. Nuestro personaje lo expresó así: “llegué a Oxford y percibí algo en la atmósfera, sentí dos tipos de fuerzas. Percibía por un lado a Shakespeare y por otro a Newton, y una de las primeras cosas que me ocurrió fue memorizar el monólogo de Hamlet, y aplanaba las calles de Oxford, repitiendo hasta el infinito el to be or not to be, that is the question”.

Realmente, el conflicto lo resolvió gravitando desde la órbita alrededor de Newton a la correspondiente de Shakespeare. Al parecer, durante este periodo, tanto la cuenca de atracción de la literatura como la intensidad de aquélla, sobrepasaron a las de la física. Así, durante su estancia en Inglaterra, además de definir su estilo literario, Parra escribió una buena parte de su obra poética inicial y también estudió Mecánica avanzada. En ésta tuvo como supervisor al reconocido astrofísico y matemático inglés Edward Arthur Milne. El tema sobre el que versaría la tesis para obtener el doctorado (D. Phil., de acuerdo con la tradición oxfordiana) era “Algunos problemas no resueltos en relatividad cinética”. Según lo consigna la Enciclopedia Británica: “al igual que las cosmologías basadas en la teoría general de la relatividad de Einstein, la relatividad cinética caracterizaba a un Universo en expansión, pero no era relativista y usó el espacio euclidiano. La teoría de Milne se enfrentó con la oposición de sus contemporá neos tanto por sus fundamentos científicos como por los filosóficos, pero su trabajo ayudó a precisar las principales ideas sobre el espaciotiempo”.

En el año 2000, la Universidad de Oxford nombró a Nicanor Parra Honorary Fellow del Saint Catherine’s College. Este honor lo comparte, entre otros, con el destacado matemático inglés Michael F. Atiyah, a quien se le confirió la Medalla Fields 1966, el lingüista, filósofo y crítico político norteamericano Noam Chomsky, y la exprimera ministra pakistaní Benazir Bhutto, asesinada en diciembre de 2007.

Durante sus años en la Universidad de Santiago, Parra hizo compatible su labor literaria con la enseñanza de la mecánica. En 1996 dejó de impartir clases de Mecánica teórica, actividad que desempeñó durante cincuenta y un años. Allí fundó el Instituto de Estudios Humanísticos de la Facultad de Ingeniería junto con Enrique Lihn, otro poeta “todoterreno”.

Apasionado defensor de la democracia, en 1988 participó en su país en el Frente Amplio de Intelectuales por el “No”, el cual se formó a raíz de la realización de un plebiscito que la dictadura militar que gobernaba Chile desde 1973 se vio obligada a aceptar aun cuando éste implicaba el decidir su permanencia en el poder o abrir las puertas a las jornadas electorales. Como sabemos, ganó el “No” a la continuidad de la dictadura.
 
 
Andando por Isla Negra
 
 
En agosto de 1998 se realizó el IV Encuentro Latinoamericano de Ecología Matemática; las actividades de la primera semana del evento se desarrollaron en el Instituto de Matemáticas de la Universidad Católica de Valparaíso, en la costa de Chile, mientras que la segunda, se efectuó en Mendoza, Argentina, cruzando la cordillera de los Andes. Si la memoria no me falla, de México asistimos: los hermanos Miramontes (Octavio y Pedro), Ignacio Barradas, Jorge Velasco, Andrés Fraguela y yo. Valparaíso, ciudad y puerto situado en el Pacífico chileno, destaca por lo escarpado de su suelo, montañas por las que trepan decenas de colonias, algunas, populares, otras de clase acomodada. Los organizadores del encuentro nos hospedaron en Viña del Mar, centro turístico situado a pocas decenas de kilómetros de la sede del evento. El trayecto nos permitía tener una vista de la playa en dos momentos muy distintos del día.

Una tarde en la que no hubo actividades, Pedro Miramontes —mi amigo desde hace casi ocho lustros— y yo aprovechamos para caminar por el centro de la ciudad; también fuimos a un mirador desde el cual se dominan perfectamente las instalaciones del muelle. Al final de la primera semana, un grupo pequeño de los asistentes organizamos una visita a la casa de Pablo Neruda que se encuentra en Isla Negra, en la provincia de San Antonio, a unos 85 kilómetros al sur de Valparaíso. A ese viaje se apuntaron una pareja de colombianos, los venezolanos Diego Rodríguez y Jesús Alberto León —quien además de ecólogo matemático, es poeta— y de México, Andrés Fraguela y yo. Nos fuimos en un autobús de segunda y, en menos de dos horas, llegamos a Isla Negra.De inmediato preguntamos por el sitio en el que se encontraba la casa de Neruda, ubicada en un acantilado desde el cual se domina en toda su inmensidad esa parte del Océano Pacífico, al que Neruda en su Memorial de Isla Negra se refirió así: “El océano Pacífico se salía del mapa. No había dónde ponerlo. Era tan grande, desordenado y azul que no cabía en ninguna parte. Por eso lo dejaron frente a mi ventana”.

La casa es un decir, se trata del casco de un velero de unos veinte metros de eslora colocado en una ladera de un predio con vista al otrora llamado Mar del Sur. Sobre la ladera, a unos treinta o cuarenta metros hacia abajo, vimos una choza (la Covacha de Neruda) de paredes de madera y techo de tejamanil desde cuyas ventanas se domina el Pacífico sur. Al velero —ahora hecho museo— y a la choza los une una veredita que serpentea.

Al vigilante de la casamuseo le preguntamos: ¿qué es ese lugar?, ¿qué hay ahí? De inmediato y con gentileza, nos contestó: “cuando don Pablo quería estar solo para escribir, se encerraba horas y horas en esa choza”. Conjeturamos entonces que, desde la soledad de la Covacha, habrían salido quién sabe qué cantidad de versos.

En su poema “Disposiciones”, contenido en su Canto General, escrito cincuenta años atrás, el poeta dejó dicho: “Compañeros, enterradme en Isla Negra, / frente al mar que conozco, a cada área rugosa / de piedras y de olas que mis ojos perdidos / no volverán a ver”.

Voluntad que se cumplió en diciembre de 1992, cuando en un gran acto nacional, los restos de Matilde Urrutia —quien fuera su última esposa— y los de Pablo Neruda fueron trasladados de Santiago a la casa del poeta en Isla Negra, lugar donde ahora reposan (aunque en este momento sus restos estarán siendo analizados por antropólogos y científicos forenses chilenos; los estudios fueron ordenados por un juez como respuesta a la demanda interpuesta por el chofer del poeta, quien asegura que Neruda no murió debido a las enfermedades que le aquejaban, sino que fue envenenado por los militares golpistas quienes, violentando la voluntad de la mayoría de los ciudadanos chilenos y dejando detrás una estela de muerte y represión, por las armas derrocaron al presidente democráticamente electo Salvador Allende).

Al terminar el recorrido por el museo preguntamos por un lugar para comer. Alguien nos dijo, sigan por la carretera unos cien metros y después bajen hacia la playa. Son unas palapas sencillas, pero se come muy rico. Seguimos las indicaciones, bajamos y en un espacio entre el acantilado y el agua oceánica, nos encontramos con un área (de unos doscientos metros cuadrados) techada con palma. El poeta y ecólogo teórico venezolano se quedó viendo a la barra de un pequeño bar, en el que se encontraban unos parroquianos, entre ellos uno ya mayor, alto, delgado, algo encorvado, de pelo largo y blanco y barba crecida. Al verlo, Jesús Alberto se adelantó y, abriendo sus brazos, exclamó: ¡mi amigo, Nicanor, cuántos años sin vernos! Se dieron un abrazo muy sentido y enseguida nos presentó a Nicanor Parra como “el gran poeta chileno, a la altura de Neruda”.

Confieso, mea culpa, que yo no había escuchado antes el nombre. Recuerdo que Jesús Alberto nos presentó ante Parra, como sus amigos biomatemáticos y mencionó la nacionalidad de cada uno de nosotros. El ahora laureado, dijo que él tenía formación de físico y que impartió clase de mecánica racional durante muchos años y que parte de su formación la había hecho en Oxford. Estas frases dieron pie, dado que también tengo la formación de físico y que pasé por esa universidad británica, a un diálogo entre Parra y yo. Recuerdo que se refirió a los conceptos de masa, de energía, al teorema de las fuerzas vivas, etcétera, que Ernest Mach discute en su obra: Desarrollo históricocrítico de la mecánica.

Casualmente, en mis años de estudiante de la carrera de física en la Facultad de Ciencias de la UNAM yo había leído ese libro. Creo que fue Don Juan de Oyarzábal, mi maestro de mecánica, quien entre otras muchas referencias de las que nos nutría en su curso había incluido esta obra de Mach. Con el don de excelente expositor y conferencista excepcional que tenía Don Juan, recuerdo que nos comentó —y así lo refiere Mach— que fue Hüygens el primero en usar el teorema de las fuerzas vivas, el cual no es otra cosa que la ley de conservación de la energía mecánica, aplicado a objetos en caída hacia la Tierra.

Después de este rápido pero intenso intercambio de frases, dejamos a Parra y a sus acompañantes en la barra y el grupo de biomatemáticos reunimos dos pequeñas mesas, nos acomodamos a su alrededor, ordenamos un buen vino chileno y, con vista al mar, disfrutamos las delicias de un rico pescado. En esa ocasión, Jesús Alberto me hizo un encargo que, debo confesar, no lo he cumplido: “saluda mucho de mi parte a José Sarukhán, mi gran amigo, lo conocí durante mis estudios de doctorado en el University College de la Universidad de Bangor, en el Norte de Gales”.

Regresamos a Valparaíso, justo en el momento de la puesta del Sol que, rojo, muy rojo, se escondía en el horizonte marino. Íbamos muy contentos: por haber visitado la casa de Neruda y por el inesperado y agradable encuentro con Parra.
 
 
 Ciencia y antipoesía

“La poesía egocéntrica de nuestros antepasados [...] debe ceder el paso a una poesía más objetiva de simple descripción de la naturaleza del hombre [...]; el individuo no tiene importancia en la poesía moderna sino como un objeto de alisis psicológico [...] Me parece que el arte no puede ser otra cosa que la reproducción objetiva de una realidad psicológica [...] Un poema debe ser una especie de corte practicado en la totalidad del ser humano, en el cual se vean todos los hilos y todos los nervios, las fibras musculares y los huesos, las arterias y las venas, los pensamientos, las imágenes y las sensaciones, etc., etc. [...] Estoy convencido de que el poeta no tiene derecho de interpretar sino simplemente de describir fríamente [...] un ojo capaz de explicar lo que ve, eso es aproximadamente el asunto”.

Carta de Nicanor Parra a Tomás Lago, Oxford 1949.

 
Una vasta obra
 
 
El Premio Cervantes 2011 se suma a los varios reconocimientos que Nicanor Parra ha recibido: el Premio Reina Sofía de Poesía Iberoamericana en 2001, el Premio Municipal de Santiago en 1937 y 1954, el Premio del Sindicato de Escritores de Chile en 1954, el Nacional de Literatura de Chile en 1969, el Internacional de Literatura Latinoamericana y del Caribe Juan Rulfo en 1991.

Además mereció la Medalla Abate Molina de la Universidad chilena de Talca en 1998, la Medalla Rectoral de la Universidad de Chile en 1999 y el Premio Bicentenario de la Universidad y la Corporación del Patrimonio Cultural chilenas en 2001.

Sería un despropósito que alguien como yo, que tiene una formación básica en las llamadas “ciencias duras” y que se ha mantenido en ellas por algunas décadas, intente siquiera caracterizar la obra poética de Nicanor Parra, pero muchos especialistas han escrito sobre su obra. Todo indica que el estilo poético de Parra se empezó a gestar —y posiblemente a desarrollar— durante su estancia en la universidad cuyo lema es Dominus illuminatio mea, pues en una carta fechada en noviembre de 1949, escrita en Oxford y dirigida a Tomás Lago, Parra hace una suerte de declaración de lo que sería su poesía: “estoy en contra de los tristes y los angustiados, de la misma forma que estoy en contra de los bufones estilo Huidobro. También me rebelo en contra de los profetas y en contra de los pensadores proféticos estilo T. S. Eliot”.

Utilizar el “lenguaje del pueblo” es uno de los elementos principales de la poética de Parra, además de su temática, que pone al hombre común enfrentado a sus dilemas de la vida cotidiana. Es esto lo que la ha dado a su obra poética el carácter de “antipoesía”: lo irreverente de la misma. De hecho, su obra Poemas y antipoemas, cuya primera edición apareció en 1954, causó tanto el asombro como el rechazo de los puristas amantes de la poesía clásica. En esa obra, Parra creyó encontrar un remoto referente de la antipoesía, pues utilizó “el lenguaje del pueblo” en su creación literaria. La antipoesía es la poesía de lo cotidiano en su forma y en su fondo, y Parra lo dejó en claro cuando, en 1962, en sus Versos de salón, escribió los siguientes que fácilmente se confunden con prosa. En ellos, con un dejo de egocentricidad, les aprieta los tornillos a los poetas: “Durante medio siglo / la poesía fue / el paraíso del tonto solemne. / Hasta que vine yo / y me instalé con mi montaña rusa.”
Que de hecho, ya antes había escrito: / “El poeta no es un alquimista / el poeta es un hombre como todos / un albañil que construye su muro: / un constructor de puertas y ventanas.”

Después del éxito de sus Poemas y antipoemas a Nicanor Parra se le preguntó si buscaba ser el mejor poeta de Chile, a lo cual respondió: “no, me conformo con ser el mejor poeta de Isla Negra”, en alusión a Pablo Neruda, que en ese entonces ya vivía en dicha localidad. También aludió a otros poetas chilenos cuando proclamó: “no a la poesía de pequeño Dios (por Vicente Huidobro), no a la poesía de toro furioso (por Pablo de Rokha), no a la poesía de vaca sagrada (por Neruda)”. Pese a estas opiniones críticas contra sus colegas y coterráneos, Parra vive ahora en Las Cruces, un lugar situado entre Isla Negra, donde vivió y está sepultado Neruda, y Cartagena, donde vivió, murió y está enterrado Vicente GarcíaHuidobro Fernández, otro de los grandes literatos chilenos, iniciador y exponente representativo del movimiento estético llamado “creacionismo”.
 
 
 Cronos

En Santiago de Chile
Los
       días
               son
                   interminablemente
                                               largos:

Varias eternidades en un día.

Nos desplazamos a lomo de luma
Como los vendedores de cochayuyo:
Se bosteza. Se vuelve a bostezar.

Sin embargo las semanas son cortas
Los meses pasan a toda carrera
Ylosañosparecequevolaran.

 

Mark Strand, uno de los principales poetas estadounidenses, nombrado en 1990 poeta laureado de su país y acreedor al Premio Pulitzer en 1999, ha reseñado varias obras de Parra. Consultado sobre el poeta chileno y su influencia en Estados Unidos, señaló: “creo que Nicanor Parra es uno de los mejores y más originales poetas del siglo pasado. Las estrafalarias casinarraciones en su libro de antipoemas han sido tanto una inspiración como una influencia en mi propio trabajo, mucho más, digamos, que los poemas de Pablo Neruda. No puedo decir con seguridad si él es o no muy leído por los jóvenes poetas en los Estados Unidos. No estoy seguro si los poetas jóvenes leen mucho de alguien. Para mí y para otros poetas de mi generación es un maestro, una de las grandes figuras de la poesía del siglo veinte”.
 
 
Epílogo
 
Como cantaba su hermana Violeta: “Gracias a la vida”, yo agrego —y con ello le pongo punto final a este escrito—, gracias a la vida por haberme permitido este afortunado encuentro.
 
   
Referencias bibliográficas
 
Mach, Ernest. 1883. Desarrollo histórico-crítico de la mecánica. Espasa Calpe, Buenos Aires. 1949.
Neruda, Pablo. 1964. Isla Negra. Seix Barral, Barcelona. 1976.
_____. 1950. Canto General. Cátedra, Madrid. 1990.
_____. 1978. Para nacer he nacido. Seix Barral, Barcelona. 2005.
Parra, Nicanor. 1954. Poemas y antipoemas. Editorial Universitaria, Santiago.
Urrutia, Matilde. 2002. Mi vida junto a Pablo Neruda. Seix Barral, Barcelona.

     
____________________________________________________________      
Faustino Sánchez Garduño
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

Faustino Sánchez Garduño es profesor del departamento de matemáticas de la facultad de ciencias. Estudió las carreras de física y matemáticas en la unam y es doctor por la Universidad de Oxford, Inglaterra. Éstas son algunas áreas de su interés: morfogénesis y emergencia de patrones, ecología matemática y biomatemáticas.
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
You are here: Inicio Búsqueda Titulo revistas revista ciencias 109-110