![]() |
![]() |
|
|||||||||
Jorge Fuentes Fernández |
|||||||||||
La pelea sobre si la luz es onda o partícula viene arrastrándose
desde la antigua Grecia y es uno de esos capítulos que se repiten a lo largo de la historia; mientras que el filósofo Aristóteles defendía su naturaleza ondulatoria, Demócrito argumentaba la existencia de partículas de luz. Robert Hooke defendía su teoría ondulatoria de la luz, contrariamente Isaac Newton tenía una teoría corpuscular. No olvidemos que René Descartes era fiel defensor de la teoría ondulatoria. El primero en describir por primera vez de manera matemática la propagación de la luz como una onda fue Christiaan Huygens y posteriormente Thomas Young demostró en el laboratorio que, efectivamente, la luz es una onda. Pero una onda… ¿de qué? James Clerk Maxwell encontró en 1865 que la velocidad con que se propagaban las oscilaciones en campos eléctricos y magnéticos era exactamente igual a la de la luz, es decir, descubrió que la luz es una onda electromagnética. A finales del siglo xix, la teoría de Maxwell parecía concluir un debate de más de dos mil años. Tranquilidad que duró apenas unos cuarenta años.
Nos enseñan la dualidad onda-partícula de la luz desde la secundaria, pero prácticamente nadie entiende lo que se esconde detrás de esta contundente pero frágil afirmación. Parece ser que la luz está formada por fotones, unas partículas que a la vez son ondas. O bien, parece ser que la luz es una onda que está formada por unas partículas que se llaman fotones. Se dice muy a la ligera y, claro está, al escuchar esto uno se imagina una pequeña pelotita amarilla moviéndose hacia arriba y hacia abajo —oscilando— según se desplaza por el espacio. Nada más lejos de la realidad. En verdad, la partícula no oscila, la partícula misma es la oscilación. De todas las ironías de la física moderna, ésta es mi favorita.
¿Cómo que la partícula es la oscilación? ¿Qué significa? Son los inicios de la física cuántica y, en palabras de Niels Bohr, uno de los padres (o más bien de los abuelos) de la teoría: “cualquiera que piense que puede hablar sobre la teoría cuántica sin marearse, ni siquiera ha empezado a entenderla”. Lo que sí es verdad es que la luz a veces se comporta como si fuera una onda y otras veces como si fuese un conjunto de partículas. Y por el momento, eso es todo. Quien se dio cuenta de esto fue el joven Albert Einstein en 1905 (el mismo año en que publicó su teoría de la relatividad especial), usando algunas ideas que el no tan joven Max Planck había postulado unos años antes. Hasta entonces, la luz era entendida como una onda que se propaga en todas las direcciones del espacio, igual que el sonido. Al establecer que la luz estaba también formada por partículas, Planck y Einstein sentaron las bases para una nueva revolución en la física, en la filosofía y en la forma de ver el mundo que nos rodea. Pero no es de Einstein de quien me dispongo a hablarles, de él ya nos han contado en muchas ocasiones, quiero hablarles de Louis-Victor Pierre Raymond, séptimo duque de Broglie.
Érase una vez un duque
Louis de Broglie nació el 15 de agosto de 1892 en Dieppe, una pequeña ciudad francesa en la costa de Normandía. Miembro de una de las familias más distinguidas de la nobleza francesa, dedicada por tradición a la política, Louis tenía desde su nacimiento un futuro profesional predeterminado. Así que en 1910, tras acabar el bachillerato realizó estudios de historia con ánimos de lograrse una carrera en el servicio diplomático. Por suerte esto nunca sucedió. Sus inquietudes cambiaron, y ese mismo año de Broglie tomó una decisión que cambiaría su vida y tal vez la de todos nosotros. Tres años más tarde, en 1913, obtuvo su licenciatura en física, con la mala suerte de que al siguiente año estalló la Primera Guerra Mundial. Durante los siguientes cuatro años, de Broglie sirvió al ejército francés en la estación de telegrafía sin cable en la Torre Eiffel. No era un mal lugar para servir al ejército, al fin y al cabo, y esos cuatro años le dieron a de Broglie tiempo para pensar.
A la vuelta del servicio militar, el joven Louis comenzó ayudando a su hermano mayor Maurice, sexto duque de Broglie, quien muy a pesar de sus padres ya se había forjado una carrera como físico experimental (me gusta pensar que Louis heredó dos cosas de su hermano Maurice: su título de duque y su interés hacia las ciencias físicas). En 1920, Maurice utilizaba los cuantos de luz de Einstein (que seis años más tarde pasarían a llamarse fotones) para estudiar los núcleos de los átomos. En particular utilizaba rayos X, que al igual que la luz visible están formados por fotones, aunque mucho más energéticos.
Fue a raíz de las conversaciones con su hermano mayor que, en el verano de 1923, a Louis de Broglie se le ocurrió una idea sencilla pero difícil de tragar, que le daría el título de doctor un año más tarde y el Nobel de física en tan sólo cinco años; una idea que lo cambiaría todo. Completamente antintuitiva, la hipótesis de Broglie confunde a cualquiera y, al pensarlo bien, hace que se pongan los pelos de punta. Hasta sus propios examinadores de tesis, desconcertados, mandaron una copia a Albert Einstein para que le diera el visto bueno. Durante una entrevista en 1963 de Broglie dijo: “como en mis conversaciones con mi hermano siempre llegábamos a la conclusión de que, en el caso de los rayos X, uno tiene ondas y corpúsculos, entonces, de repente —fue en el transcurso del verano de 1923— tuve la idea de que...” (antes de continuar es necesario aclarar algunas diferencias entre una partícula o corpúsculo y una onda).
Ondas y partículas: nada que ver
Todos tenemos alguna idea intuitiva de lo que es una onda y lo que es una partícula, pero vale la pena discutirlo.
Primera diferencia. En principio, una partícula se puede situar, en un momento dado, en una posición determinada. Una pelota, por ejemplo, está siempre en una posición bien definida. Yo le puedo dar una patada y entonces haré que se desplace, pero en cada instante de tiempo está claro que la pelota ocupará un único lugar en el espacio. Con una onda esto no sucede; por ejemplo, si arrojo una piedra a un estanque, generará una onda que se propaga sobre el estanque en todas las direcciones. El sonido es otro buen ejemplo, se propaga en las tres dimensiones del espacio.
Segunda diferencia. Comúnmente, las partículas tienen una cierta masa. Decir que una onda tiene masa no tiene sentido. Lo que una onda hace es transportar energía de un lugar a otro.
Tercera diferencia. Cuando dos partículas chocan cambian la dirección de su movimiento y la velocidad. En cambio, cuando se encuentran dos ondas no cambian la dirección ni l velocidad, sino que continúan su camino superponiéndose la una sobre la otra. Este fenómeno se llama interferencia.
Cuarta diferencia. Las ondas pueden “dar vuelta en las esquinas” y las partículas no. Imaginemos dos amigos, uno frente al otro, pero con un obstáculo en medio, un muro aislado acústicamente de dos por dos metros (sin estar encerrados, uno puede rodear el muro y ver al otro). Si uno habla —genera una onda de sonido— el otro puede escuchar, por mucho que haya un muro en medio de ambos. Lo que ocurre es que al llegar a la esquina del muro, la onda se vuelve a propagar en todas las direcciones desde ese punto y puede llegar así a la persona que escucha. Para efectos prácticos “la onda da vuelta en la esquina” y llega adonde a las partículas les es físicamente imposible.
Como paréntesis, y para ser un poco más correctos, he de decir que en realidad una onda no se propaga en absolutamente todas las direcciones al dar vuelta en una esquina: la cobertura de la onda se abre más o menos después de la esquina dependiendo de su longitud de onda (esto es, la distancia entre los picos o entre los valles de la onda). Una onda de sonido que tiene una longitud de onda relativamente larga, se abre en prácticamente todas las direcciones, así que el sonido llega a todos los rincones. Una onda de luz, que tiene una longitud de onda muy cortita, se abre muy poco al dar vuelta en una esquina: la luz no llega a todos los rincones y es por eso que existen las sombras. Pero si miras una sombra con cuidado, verás que su borde nunca está bien definido, porque la luz sí llega a dar vuelta un poquito. Todo esto de “dar vuelta en las esquinas”, reitero, es un efecto que sólo sufren las ondas. Este efecto, mucho más complejo de lo que yo lo he presentado, recibe el nombre de difracción.
Las cuatro consideraciones antes dichas establecen una conclusión clara para cualquiera: si algo es una partícula no puede ser una onda y viceversa; algo no puede estar en un lugar fijo y estar en todos los lugares a la vez; algo no puede tener masa y no tenerla a la vez; algo no puede chocar cambiando su trayectoria e interferir sin alterar su camino a la vez; algo no puede dar vuelta en las esquinas y seguir una trayectoria siempre fija a la vez.
Las nociones de partícula y de onda están tan enraizadas en nuestra cultura y educación que nos es prácticamente imposible juntar los dos conceptos en uno mismo. La ironía es que, desde hace algunos años, a partir de un cierto nivel de educación, el hecho de que la luz presenta esta dualidad onda-partícula parece estar también bastante arraigado. Algo que siempre fue una onda (nos enseñan que la luz tiene una longitud de onda, que esto define el color que percibimos, etcétera) parece que también es un conjunto de partículas: los fotones. Si uno se para un momento a pensarlo, es totalmente contradictorio; pero... ¿y si fuera al revés?
La tesis doctoral
En el verano de 1923, de Broglie tuvo una idea magnífica; más difícil de aceptar que todo lo relacionado con la luz. El razonamiento y la hipótesis de Louis de Broglie fueron, a mi entender, más o menos como sigue. Desde mitad del siglo xix estaba ampliamente aceptado que la luz era una onda. Toda la teoría de la electricidad, el magnetismo y la óptica se basan en esta suposición (y mirando a mi alrededor, debo decir que funcionan bastante bien). Pero, de repente, allá por el año 1905, un experimento mostró —de la mano de Albert Einstein— que la luz puede actuar a veces como un conjunto de partículas. Si nunca se hubiera llevado a cabo aquel experimento llamado efecto fotoeléctrico seguiríamos convencidos de que la luz es una onda y punto. Louis de Broglie le dio la vuelta al descubrimiento de Einstein: ¿y si las partículas que conforman la materia, como los electrones, muestran la misma dualidad onda-partícula, pero nunca hemos hecho el experimento adecuado para verlos como una onda?
Si lo que hasta hace poco entendíamos como una onda es en realidad también partícula, quizás lo que siempre hemos entendido como una partícula sea en realidad también onda. Conviene hacer notar que, por el momento, esto era sólo una hipótesis; para que fuese verdad, tendría que ser demostrada. De cualquier modo, de Broglie se lanzó a los cálculos.
Los fotones son partículas sin masa, pura energía. Quizás esto ayude a la idea de que dichas partículas también sean ondas no nos resulte tan extravagante después de todo (aunque por muy “sin masa” que sean, aún hay que entender cómo es que un fotón puede estar localizado en un lugar determinado y a la vez no). Pero, ¿cómo conciliar el concepto de una partícula con masa, como un electrón, con el de una onda sin masa?
El punto de partida para de Broglie lo había dado el mismo Einstein hacía unos años. Se trata de la ecuación más famosa de la historia: E = mc2, la energía que algo encierra es igual a su masa por la velocidad de la luz al cuadrado. En uno de sus trabajos de 1905, Albert Einstein demostró que masa y energía son en realidad dos facetas de la misma cosa. La masa no es sino una manera muy efectiva de concentrar energía. Lo que de Broglie hizo fue interpretar un electrón no como una partícula de masa me, sino como una onda que transporta una energía Ee = mec2. A partir de esta energía y de la velocidad con la que se mueve un electrón, pudo asignarle una longitud de onda y las demás cualidades que tienen las ondas, como la luz y el sonido. El valor de c es muy grande (aproximadamente 300 000 km/s); esto quiere decir que la energía que concentra un solo electrón es tremenda, mayor que la de cualquier tipo de fotón.
Ahora supongamos que es cierto que un electrón presenta esta dualidad onda-partícula. ¿Qué significa esto? Primero aclaremos que de Broglie no trata de convencernos de que un conjunto de electrones se pueda comportar como una onda. No y mil veces no. Un electrón, cada electrón, es una onda en sí mismo. De ser cierta la hipótesis que plantea de Broglie, si yo lanzo un solo electrón hacia una pared, éste se desplazaría como onda, expandiéndose hacia todas direcciones. Sin embargo, al llegar a la pared el electrón incidiría sólo en un punto. Al fin y al cabo, lancé sólo un electrón. Pero el electrón puede incidir en cualquier lugar que esté permitido por su onda electrónica, ¡aunque haya obstáculos de por medio! Si la onda puede llegar, entonces el electrón también puede. Un electrón puede “dar vuelta en las esquinas”, como lo hacen las ondas, pero al llegar a la pared incide en una posición única y determinada, como lo hacen las partículas. Es como si las olas del mar llegaran a la orilla de la playa y rompieran sólo en un punto. Ni siquiera tiene sentido imaginarlo.
Por suerte para de Broglie, en 1924, cuando terminó su tesis doctoral, la teoría de Einstein sobre el tiempo y el espacio ya estaba aceptada. También la teoría de que la luz presenta esta dualidad onda-partícula. Así que la comunidad científica había aprendido a no desechar a la primera las ideas que estaban por venir, por muy raras que fueran. Tres años después de la publicación de la tesis doctoral de Louis de Broglie, dos físicos estadounidenses, Clinton Davisson y Lester Germer, llevaron a cabo con éxito un experimento en que, lanzados uno a uno, los electrones dan vuelta a las esquinas e interfieren como ondas e inciden en una pared como partículas.
En 1929, dos años después de la demostración experimental de su hipótesis y tan sólo cinco años después de la publicación de su tesis, Louis obtuvo su merecido Premio Nobel de física: “por su descubrimiento de la naturaleza ondulatoria de los electrones”.
Pero recuerda que todo esto de doblar esquinas depende de la longitud de onda y cuanto más grande es la energía que porta una onda, más pequeña es su longitud de onda. Como hemos visto, un electrón concentra mucha más energía que cualquier fotón, así que tiene una longitud de onda mucho más chiquita. A efectos prácticos, esto hace que los electrones, como ondas, doblen las esquinas muy, muy poquito. Es un efecto pequeño, pero es real y es medible.
Los electrones en los átomos
Los físicos estaban confundidos, pero se empezaban a explicar algunas cosas. En 1911, Ernest Rutherford descubrió la existencia del núcleo de los átomos (el electrón ya se había descubierto algunos años antes) y propuso el modelo atómico que todos tenemos hoy en la cabeza: electrones orbitando alrededor de un núcleo central, en donde están los protones y los neutrones; igual que orbitan los planetas alrededor del Sol. Una revolución en su tiempo y un modelo muy poderoso, pues es tremendamente fácil de visualizar. Irónicamente este modelo del átomo que tanto nos gusta, y que todos tenemos presente, se derrumbó en menos de dos años, pues sencillamente no funcionaba. Pero, en 1913, Niels Bohr encontró una solución que resolvía los problemas del átomo “planetario” de Rutherford. Es una solución un tanto absurda: los electrones no pueden ocupar cualquier órbita, sólo algunas órbitas determinadas; la órbita número 1, la número 2, la número 3, etcétera. Como si un planeta girando alrededor del Sol sólo pudiera estar en la órbita de Mercurio o en la de Venus o en la de la Tierra, pero en medio fuera imposible. No obstante, si bien el modelo atómico de Bohr funcionaba, nadie —ni él mismo— entendía por qué.
Según de Broglie, hay que dejar de imaginar el electrón como una bolita moviéndose alrededor del núcleo. Asumamos que el electrón es una onda y, como tal, no está en ningún lugar determinado. Imaginemos una cuerda tomada por los extremos; al agitarla podemos crear una onda “simple”, con una barriga que sube y baja en el centro de la misma (como al tocar la cuerda de una guitarra); pero agitándola un poco más fuerte y con algo de maña, podríamos crear una onda doble, con dos barrigas que suben y bajan, y un punto justo en medio de la cuerda que se queda quieto: un nodo. Así podríamos crear también una onda triple (con tres barrigas y dos nodos), una cuádruple (con cuatro barrigas y tres nodos), etcétera. Estas ondas que tienen los extremos fijos se llaman ondas estacionarias, y las diferentes formas de oscilar (el número de barrigas) se denominan modos. Así, está el modo número 1, tenemos el modo número 2, el modo número 3, etcétera.
Para de Broglie, las misteriosas órbitas permitidas de Bohr son en realidad los diferentes modos de oscilación de una onda estacionaria. No podemos hacer vibrar nuestra cuerda con una barriga y media o con la mitad o con el cuarto de una barriga. De la misma forma, el electrón sólo puede oscilar de manera que haya un número entero de barrigas (1, 2, 3...). Así que no son posibles todas las órbitas, lo que es más, olvidémonos del concepto de órbita para el electrón, pues es erróneo y crea confusiones. Quizás sería mejor imaginarse el electrón como una cuerda cerrada alrededor del núcleo o una goma elástica vibrando. Cuando se dice que el electrón “salta” de un nivel a otro, según de Broglie, lo que sucede es que el electrón pasa de vibrar con una barriga a vibrar con dos barrigas (o cualquier otra combinación).
Lo curioso de todo esto es que si en un momento dado hacemos un experimento para detectar el electrón como partícula entonces vamos a detectar una partícula en una posición determinada. Sin embargo, no se puede olvidar que la hipótesis propuesta por de Broglie nos dice que el electrón es una onda en sí mismo. No es que el electrón se mueva como si fuera una onda, oscilando en su órbita mientras se mueve. No es que el electrón pase más tiempo en las zonas donde es más probable encontrarlo. El electrón es una onda y, como tal, está en todas sus posiciones posibles alrededor del núcleo. Al igual que la onda creada en la cuerda está en todas las posiciones de ésta al mismo tiempo. ¿Por qué entonces se puede ver a la vez el electrón como una partícula en una posición determinada si es totalmente contradictorio?
Esas ondas que llamamos electrones
Lo que ocurre es que la única manera de ver algo es interactuando con ese algo; por ejemplo, iluminándolo, y al hacerlo se le está bombardeando con fotones que chocan contra él. Para entender esto, olvidémonos por un segundo del electrón como partícula; pensemos que existe una onda estacionaria oscilando alrededor del núcleo de un átomo. Si quiero ver qué es lo que hay por ahí, aunque no quiera, tengo que interactuar con la onda (por ejemplo, mandando un fotón) e inevitablemente la voy a modificar. Y curiosamente, lo que ocurre al interaccionar con la onda del electrón es que la fuerzo a colapsar su energía en algún lugar. Dicho de otro modo: para poder ver la onda, tengo que hacer que se apelmace toda ella en algún punto. Pero estoy haciendo trampa, no estoy observando la onda donde estaba (porque no estaba en ningún lugar en particular), la estoy forzando a agruparse en una posición. Entonces, momentáneamente, la onda “desaparece” y “aparece” como una partícula. Desde su descubrimiento, a esta partícula se le llamó electrón, pero su verdadera naturaleza estaba oculta; hasta que llegó Louis de Broglie.
Puedo forzar la onda a aparecer en cualquier región del espacio en donde ella antes se extendía, pero no puedo elegir el sitio. La probabilidad de encontrar el electrón en un lugar o en otro depende únicamente de qué tan amplia era la onda en un lugar o en otro. En el ejemplo de la cuerda sujetada por los dos extremos, si la cuerda está oscilando en el modo número 1, la probabilidad de encontrar al electrón en el centro sería muy alta; y la probabilidad de encontrarlo cerca de los extremos sería muy pequeña. Pero el electrón es el mismo, aparezca donde aparezca.
Algunas propiedades de los electrones
Los electrones no son partículas de luz, no son fotones, pero ayudan a ver. Como norma general, para ver algo pequeñito hay que iluminarlo con una luz que tenga una longitud de onda del mismo tamaño (o menor) que lo se quiere observar. La luz visible tiene una longitud de onda de aproximadamente media milésima de milímetro, así que si ilumino algo con luz visible puedo ver cosas de milésimas de milímetro (micrómetros). Luego si puedo amplificar la imagen mediante un sistema de lentes, obtengo un microscopio óptico —instrumentos inventados a principios del siglo xvii que han permitido un importante desarrollo experimental en prácticamente todas las ramas de la ciencia.
Ahora bien, las “onda-electrones” que planteaba de Broglie tienen una longitud de onda unas cien mil veces más pequeña que la luz visible. La idea es que si usamos ondas de electrones en vez de ondas de luz, podemos llegar a ver tamaños de menos de una milésima de milésima de milímetro (menos de un nanómetro), ¡al límite del tamaño de los átomos!
En 1931, el físico Ernst Ruska y el ingeniero electrónico Max Knoll, ambos alemanes, dieron un provechoso uso al descubrimiento de Louis de Broglie. Sustituyendo las lentes ópticas por un sistema de lentes electromagnéticas, Ruska y Knoll construyeron el primer microscopio electrónico que bien podrían haber llamado nanoscopio. Hoy día, el microscopio electrónico nos brinda imágenes impresionantes de microorganismos, células, cristales y un largo etcétera.
Asimismo, los electrones tampoco son ondas sonoras, pero se comportan de manera similar. Si alguna vez escuchaste los gritos de tu vecino desde tu casa, sabrás que las ondas pueden atravesar las paredes. Al llegar a una pared, parte del sonido se refleja —vuelve hacia atrás— y otra penetra la pared. La parte de la onda que penetra la pared se amortigua muy rápidamente, es decir, pierde intensidad, porque la pared absorbe su energía.
Sin embargo, si la pared no es muy gruesa, la onda logrará llegar al otro lado antes de amortiguarse del todo, entonces del otro lado escucharemos los gritos del vecino.
Claro está, los electrones no son lo mismo que el sonido, y tampoco los muros que pueden encontrar en su camino, pero el efecto es parecido. Para un electrón, las paredes son, de energía; una pared es una barrera cuya energía es mayor a la que él mismo tiene. Si el electrón fuera una partícula, rebotaría hacia atrás sin más, como una pelota al llegar a un muro. Pero, como onda, el electrón puede penetrar un poco. Como antes, la intensidad de la parte de la onda que penetra en la pared se amortigua rápidamente y cuanta más pequeña sea la diferencia de energía entre la barrera y el electrón, más lejos podrá penetrar el electrón.
Ahora imaginemos el electrón dentro de una caja delimitada por paredes de energía. Si se tratara de una partícula sin más, el electrón rebotaría en las paredes de la caja por siempre; pero no se trata de una partícula, sino de una onda. Si las paredes de la caja no son demasiado energéticas, una parte sustancial de la onda del electrón logrará salir de la caja. Visto como una onda tiene sentido: parte se refleja, parte se transmite. De hecho, en general, la mayoría de la onda se refleja y una pequeña parte se transmite. Pero recordemos que, si yo me pregunto en dónde está el electrón y trato de detectarlo, voy a forzarlo a aparecer en una posición determinada, como partícula. ¿Y dónde voy a encontrar mi partícula? Es cuestión de probabilidad, pero la puedo encontrar en cualquier lugar en donde antes se extendía su onda. Habrá mucha probabilidad de encontrarlo dentro de la caja y la mayoría de las veces ahí estará. Pero existe también la pequeña posibilidad de que encuentre el electrón fuera de la caja. Cuando yo miro y encuentro el electrón fuera de la caja, lo que he hecho es forzar toda la onda del electrón a atravesar la pared y acumularse fuera de la caja. En este momento, el electrón (como partícula y como onda) está totalmente fuera y seguirá libre su camino a partir de ahí.
Sólo por observarlo (interactuar con él) he sacado el electrón de la caja. Esto es física cuántica pero, cuidado, esto no sucede debido a que al interactuar con el electrón le haya proporcionado la energía suficiente para superar la barrera de la caja. Por su naturaleza ondulatoria, el electrón, en parte ya estaba fuera antes de que yo lo observara. Lo que hice al observarlo fue forzar la onda del electrón a acumularse en un lugar determinado. El dónde es cuestión de probabilidad: puede que dentro, puede que fuera.
Alguien que no sepa que el electrón era una onda antes de que yo lo mirara pensaría que el electrón ha excavado un túnel para poder salir. De ahí el nombre de este fenómeno: efecto túnel. Para efectos prácticos, este efecto me dice que puedo encontrar el electrón en lugares donde es imposible que esté, a no ser, claro, que aceptemos que el electrón es una onda.
Conviene hacer notar que el efecto túnel no sólo ocurre cuando nosotros tratamos de observar deliberadamente el electrón. Cualquier partícula que pasara por ahí cerca podría interactuar con la parte de la onda que está fuera de la caja y sacar el electrón de la caja. Aunque la probabilidad de que esto ocurra es muy pequeña, en el mundo hay suficientes partículas para que suceda todo el tiempo.
Muchos fenómenos naturales ocurren por efecto túnel: el primer caso que se registró fue en el núcleo de uranio, en donde un grupo de dos protones y dos neutrones —un núcleo de helio— puede interactuar con algo que esté fuera (es decir, como onda) y escapar del núcleo de uranio para siempre, de forma totalmente aleatoria y sin razón aparente (dejando atrás un núcleo de torio, con dos protones y dos neutrones menos que el uranio original). Este fenómeno es el de la radiactividad y tuvo a los físicos de principios del siglo xx de cabeza, hasta que en 1928 el físico ucraniano George Gamow aplicó las ecuaciones de la física cuántica y descubrió el efecto túnel. La radiactividad sucede natural y espontáneamente en todos los elementos con más de 82 protones en su núcleo ya que, cuando hay tantos protones juntos, la fuerza nuclear que los retiene se debilita y los núcleos se vuelven inestables. En términos del efecto túnel, a partir del número 82 las paredes de la “caja nuclear” se vuelven lo suficientemente poco energéticas como para que una parte sustancial de la onda encerrada pueda salir. Entonces, la probabilidad de interactuar con un electrón o cualquier otra partícula fuera de la caja que la retiene no es cero.
De la idea a la revolución
Sin embargo, todo esto trasciende los electrones. La tesis de Louis de Broglie apuntaba en una dirección y el físico austriaco Erwin Schrödinger supo verlo con claridad. Tan sólo dos años después de su publicación, Schrödinger usó las ideas de Louis de Broglie para crear una teoría completa basada en la supuesta naturaleza ondulatoria de toda la materia. Se trata de la formulación ondulatoria de la mecánica cuántica, fundamento teórico para el estudio del átomo, del núcleo y de todas las demás partículas elementales (junto con la teoría de la relatividad especial de Einstein).
Pero Schrödinger no fue el primero en echar a andar la mecánica cuántica. Un año antes, y de forma completamente independiente, dos físicos alemanes, Werner Heisenberg y Max Born, habían desarrollado una nueva teoría basada en la cuantización, es decir, desde el punto de vista de las partículas y no de las ondas. Ellos partieron de un principio que causó mucha controversia; aceptando la propuesta elaborada por de Broglie, que los electrones son ondas pero cuando los observemos nunca los vamos a ver como tal, los vamos a ver como partículas, concluyeron que aquello que no se puede observar no es sujeto de la ciencia. Olvidémonos entonces de esas ondas que no podemos ver y tratemos a los electrones como partículas, aunque se comporten de un modo un poco extraño. En el desarrollo de su teoría, se vieron obligados a usar matrices (formulación matricial de la mecánica cuántica) y aquí se metieron en más problemas: uno puede visualizar una onda como algo físico (la oscilación en una cuerda, en la superficie de un estanque, etcétera), pero no una matriz. La teoría de Heisenberg y Born involucraba matemáticas extremadamente difíciles de entender y de visualizar. Por su lado, Erwin Schrödinger conocía la teoría y le molestaban mucho tanto las complicadas matemáticas como esa filosofía de que “lo que no podemos ver no es sujeto de la ciencia”. Él pensaba que la ciencia debe poder cubrir la naturaleza en su plenitud. Esto lo impulsó a desarrollar su alternativa ondulatoria basada, ahora sí, en las ideas ondulatorias de Louis de Broglie.
El éxito de esta nueva formulación ondulatoria fue rotundo, y más aún cuando el propio Schrödinger logró demostrar que las dos formulaciones eran completamente equivalentes. Tratemos a los electrones como partículas o como ondas ¡los resultados son los mismos! ¿Partículas u ondas? Ambas. La formulación de Schrödinger era más fácil de visualizar y las matemáticas eran radicalmente más simples.
Un resultado devastador
Cuando la inofensiva idea de de Broglie se convirtió en una teoría física completa, las conclusiones más espeluznantes comenzaron a emerger. Imaginemos que nos disponemos a detectar un electrón. ¿Dónde lo vamos a encontrar? No lo sabemos con certeza, puesto que mientras no lo observemos, el electrón es una onda y se encuentra “en todas partes” (en todos los lugares posibles). Como mucho, si conocemos bien su onda podemos calcular la velocidad a la que se propaga, pero no tiene sentido preguntarse dónde está el electrón como partícula. Ahora medimos y observamos el electrón en un punto determinado, como partícula. Hemos apelmazado la onda del electrón más o menos en un punto; ya sabemos dónde está. Pero hemos perdido la información sobre la onda y dado que no sabíamos dónde estaba el electrón un instante antes de mirar, ahora no podemos calcular su velocidad. Entonces, cuando podemos calcular de forma precisa la velocidad del electrón (como onda), no podemos decir en qué posición se encuentra. Cuando podemos medir la posición del electrón (como partícula), no podemos calcular su velocidad.
“Cuanto mayor es la precisión en la determinación de la posición, menor es la precisión en la determinación de la velocidad, y viceversa”. Es, en sus propias palabras, el Principio de incertidumbre de Werner Heisenberg (que no es realmente un principio, sino un resultado de la teoría). Aunque llegó a este resultado utilizando sus matrices, y quizás es por esto que los físicos de la época no entendieron bien el trasfondo del Principio de incertidumbre, ni siquiera él mismo era plenamente consciente de la profundidad de su descubrimiento. Finalmente, en el año de 1930 quedó demostrado que con las ecuaciones de onda de Schrödinger se llega al mismo resultado.
Hay que entender que el principio de incertidumbre no tiene nada que ver con que nuestros instrumentos de medida sean imprecisos. Tampoco tiene que ver, como creía el propio Heisenberg, con que al medir la posición de un electrón (iluminándolo con un fotón, por ejemplo) modifiquemos su velocidad arbitrariamente porque el fotón le ceda energía. No, el principio de incertidumbre tiene que ver con que el electrón tiene una naturaleza de onda-partícula. Al electrón como onda no tiene sentido asignarle una posición precisa y como partícula no tiene sentido asignarle una velocidad precisa. Es naturalmente imposible conocer la posición y la velocidad de un electrón con exactitud, porque un electrón no tiene una posición y una velocidad determinada a la vez. Y no hay nada que podamos hacer al respecto.
Un final inevitablemente filosófico
Las implicaciones filosóficas de los resultados de Louis de Broglie y la generación de investigadores que en este campo lo siguieron no son menos espeluznantes que los resultados físicos. Primero, recordemos la analogía del electrón como una cuerda vibrando alrededor del núcleo de un átomo. Dijimos que teníamos que olvidarnos del electrón como una partícula orbitando alrededor del núcleo; mejor imaginar el electrón como una cuerda elástica vibrando alrededor del mismo, pero en realidad no es así. En esta analogía el electrón no sería la cuerda, sería la oscilación sobre la cuerda. En el ejemplo de una cuerda sujetada por los extremos, al sacudir la cuerda estoy creando una onda; pero está claro que la cuerda no es una onda, más bien la onda se propaga sobre la cuerda.
¿Existe entonces una “cuerda” microscópica que le sirve a la onda del electrón para vibrar, para existir? Si el electrón es la oscilación, ¿qué es entonces lo que oscila? Cuando Erwin Schrödinger desarrolló su teoría con ánimos de quitarse de en medio eso de que “lo que no podemos ver no es sujeto de la ciencia”, se topó de lleno con su peor monstruo. ¿Qué es lo que oscila? Acabamos de llegar a ese punto, en el que la mente se da la vuelta y se va. Schrödinger creía que el electrón (su masa, su carga) estaba desparramado allá en donde se extiende su onda. Donde la onda es más amplia hay más electrón, y donde la onda es más débil hay menos electrón. Max Born le dio una interpretación distinta a la función de onda de Schrödinger: lo que se desparrama no es el electrón, sino la probabilidad de encontrarlo aquí o allá. Donde la onda es más amplia hay más posibilidad de encontrar el electrón al mirar. Y ésta fue la interpretación ganadora, puesto que si uno observa muchas veces el electrón como partícula, siempre ve la misma carga y masa, pero el electrón aparecerá cada vez en una posición diferente, según las probabilidades de Born. Lo que oscila es la probabilidad y ésta es inherente al electrón porque es una onda en sí mismo: no es que el electrón sea una partícula y no sepamos donde está; es que el electrón es una onda y está en todos los lugares posibles. Hasta que algo interactúe con él. Pero puede que esto no conteste la pregunta de qué es lo que oscila. Hasta puede que, si realmente no podemos ver estas ondas como tales, la pregunta misma no tenga sentido.
Niels Bohr, Werner Heisenberg y Max Born lo tenían muy claro, lo que no se puede observar no es sujeto de la ciencia y en cuanto a ciencia se refiere: no existe. A la pregunta de qué es lo que oscila en realidad, la rotunda respuesta de estos tres científicos es: ¿qué importa? Es nuestra observación la que hace aparecer un electrón y punto.
Sin embargo, ni Albert Einstein ni Louis de Broglie ni Erwin Schrödinger aceptaron esto. Para ellos, debe existir una realidad bien definida sin la necesidad de un observador y si nuestras teorías físicas no pueden describir eso, es que no son teorías completas. Por el contrario, para el trío de Bohr, Heisenberg y Born, la realidad está totalmente ligada a la observación y no tiene sentido preguntarse qué había en realidad antes de observar, pues al fin y al cabo, eso no me sirve de nada.
Lo gracioso es que, pensemos de una manera o de otra, el resultado físico es el mismo. Si quiero pensar que existe una realidad más allá de la observación o que la realidad sólo existe cuando se interactúa con ella, el mundo seguirá funcionando, los experimentos seguirán siendo válidos, las predicciones seguirán siendo útiles, la ciencia seguirá aportando conocimiento, herramientas, tecnología. ¿Importa entonces? Parece que es un juicio personal y puede que Heisenberg y compañía tengan razón: a partir de aquí nos encontramos fuera de los límites de la ciencia.
Si en un instante determinado yo pudiera conocer la posición y la velocidad de todas las partículas que conforman un sistema físico, manejando las ecuaciones yo podría determinar el futuro de ese sistema con exactitud. Antes de Heisenberg, la física era absolutamente determinista. Si aceptamos que cada uno de nosotros, y el Universo en su conjunto, no somos más que un sistema físico de partículas (muy complejo, eso sí), nuestro futuro debe estar totalmente determinado por el estado físico del presente. Si conocemos el presente con exactitud, podemos predecir el futuro con exactitud. Aunque quizás el número de partículas involucrado es tan grande que es prácticamente imposible conocer el presente con exactitud, aun así, sólo hay un futuro posible: “el futuro está escrito en el presente”.
Pero el principio de incertidumbre de Heisenberg niega esto, es naturalmente imposible asignar una posición y una velocidad a cada partícula. La diferencia es que ahora es práctica y teóricamente imposible conocer el presente con exactitud, porque el presente no existe con exactitud. La incertidumbre intrínseca en la posición o en la velocidad nos dice que existen muchos futuros posibles para un sistema físico. A lo máximo que podemos aspirar es a decir que “hay tal probabilidad de que ocurra esto y tal probabilidad de que ocurra esto otro”. Así es el mundo y nada más se puede hacer.
El grupo de Einstein, de Broglie y Schrödinger se oponía a esta nueva visión. El Universo debe tener un presente determinado y evolucionar de esa manera. Así que la teoría cuántica debe ser incompleta. Algo se nos tiene que estar escapando. En palabras de Einstein, quien pasó gran parte de su vida tratando de desmontar la teoría: “dios no juega a los dados”. Pero no lo consiguió, la teoría cuántica funciona y muy bien. Como dijo Stephen Hawking: “dios no sólo juega a los dados, sino que a veces los lanza donde no los podemos ver”.
Es una de esas cosas que a uno le pueden perseguir durante la vida entera. Todo esto porque el electrón es una onda. Una idea inofensiva nacida en el verano de 1923 en la cabeza del segundo hijo de un tal duque de Normandía: Louis-Victor Pierre Raymond, séptimo duque de Broglie, quien nunca pudo aceptar las consecuencias de su propia tesis doctoral.
|
|||||||||||
_____________________________ |
|||||||||||
Jorge Fuentes Fernández
Instituto de Astronomía,
Universidad Nacional Autónoma de México.
Jorge Fuentes Fernández es licenciado en física y doctor en teoría magnética solar. Recientemente dio un vuelco a su carrera profesional y actualmente se encuentra realizando un posdoctorado en el Departamento de Instrumentación del Instituto de Astronomía de la UNAM, en el campo de diseño óptico.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Fuentes Fernández, Jorge. 2015. ¿Ondas o partículas? La teoría de la doble solución de Louis de Broglie. Ciencias, núm. 117, julio-septiembre, pp. 14-25. [En línea].
|
![]() |
![]() |
|
|||||||||
Wolfgang Bietenholz |
|||||||||||
La vida de Alexander Grothendieck estuvo dominada por la
turbulencia y cambios radicales. Sin embargo, una característica constante fue que siempre siguió su propio camino, manteniéndose alejado de cualquier patrón ya establecido; y todo lo que hizo siempre fue con absoluta entrega.
Este recuento de su biografía, bastante peculiar, comienza con sus padres. Alexander Schapiro (1890-1942), su padre, nació en el pueblo ruso Novozybkov, en la región colindante con Bielorrusia y Ucrania, en una comunidad judía ortodoxa. A temprana edad se unió a un grupo anarquista armado que, tras un intento fallido de derrocar al zar, fue capturado en 1905. Todos los miembros fueron ejecutados con excepción de Schapiro a quien, debido a su juventud, se le “perdonó” para condenarlo a cumplir cadena perpetua. Aproximadamente diez años más tarde logró escapar; de inmediato se unió a otro grupo anarquista, esta vez en Ucrania. De nuevo fue capturado y sentenciado a muerte, pero logró escapar una vez más (lo cual le costaría su brazo izquierdo). Grothendieck lo honraba muchísimo.
Después vivió en Berlín y trabajó como fotógrafo independiente. Hacia 1924 conoció a Hanka (en realidad Johanna) Grothendieck (1900-1957), a cuyo marido le dijo: “te robaré a tu esposa”, y lo hizo. Hanka también era activista de extrema izquierda e intentó volverse periodista y escritora pero, a pesar de su talento, no logró publicar gran cosa. En 1928 nació su hijo Alexander Grothendieck, a quien llamaban Schurik. Sus primeros cinco años transcurrieron en Berlín.
Una juventud marcada por la guerra
Cuando los nazis tomaron el poder en 1933, la situación se volvió muy peligrosa para Schapiro, por lo que huyó a París. Hanka pronto se le unió y mientras tanto encargó a Schurik con una familia en Hamburgo, donde acudió a la escuela de 1934 a 1939. Vivió en el hogar de Wilhelm Heydorn, ex oficial militar y sacerdote, quien se había vuelto pacifista y ateo. La ascendencia judía de Schurik se mantuvo en secreto, pero en 1939 Alemania se estaba volviendo demasiado peligrosa inclusive para él. Lo subieron a un tren rumbo a Francia en donde se reunió con sus padres, que habían regresado de la Guerra civil española tras apoyar a un grupo anarquista. En 1940, la familia fue encarcelada por el régimen de Vichy que colaboraba con los alemanes. Dos años después, Schapiro fue deportado a Auschwitz en donde perdió la vida en manos de los nazis.
En ese mismo año, a sus catorce años, Alexander arribó de alguna manera a Le Chambon-sur-Lignon, un pequeño pueblo en el Macizo Central de Francia, que fue centro de resistencia contra la ocupación alemana, en donde asistió a un colegio dedicado al pacifismo. Cuando había redadas por parte de la Gestapo, Alexander y otros compañeros se escondían en el bosque por unos días, divididos en pequeños grupos. Concluyó su bachillerato en 1945.
Después de la guerra liberaron a su madre Hanka, con la que Alexander tuvo una relación estrecha, hasta que ella falleció en 1957. Se mudaron a Montpellier, en donde Alexander estudió matemáticas. La universidad local no le fue de gran ayuda, por lo que principalmente fue autodidacta. En particular le interesaba lograr una comprensión profunda del espacio y la geometría, comenzando con la noción de lo que es un punto; esto lo inspiró a elaborar él sólo un concepto generalizado de integración.
Al parecer, Hanka obstruía su contacto con las chicas, lo cual ciertamente fue favorable para la intensidad de sus estudios. Sin embargo, más tarde engendraría cinco hijos con tres mujeres. Una de ellas fue su esposa en la década de los sesentas, Mireille Dufour, nacida en Normandía, un poco mayor que él, quien también tenía vínculos con el movimiento anarquista en España.
Una carrera de fábula
En el año de 1948 recibió una beca para mudarse a París, en donde entró en contacto con la investigación matemática. En particular, asistió al famoso Seminario Cartan. Grothendieck no fue nada tímido al discutir con eruditos famosos, era ambicioso y apasionado; en su libro autobiográfico de 1988 escribió: “fui matemático; un matemático que hace matemáticas en el pleno sentido del término, así como se hace el amor”.
Inicialmente esperaba que su trabajo independiente le proporcionaría un doctorado veloz. No obstante, resultó que había redescubierto la integral de Lebesgue, la cual se conocía desde principios del siglo xx. Toda su vida siguió entusiasmadamente sus propias ideas, le importaba poco la literatura y se informaba más bien en discusiones sobre los resultados relevantes.
Debido a que Alexander deseaba explorar espacios vectoriales topológicos, Henri Cartan y André Weil le recomendaron trasladarse a la Universidad de Nancy, al norte de Francia, en donde laboraba el experto Laurent Schwartz, también conocido como pionero en Teoría de las distribuciones, el cual apenas había recibido una Medalla Fields (se trata de la más alta distinción en matemáticas, considerada como equivalente al Premio Nobel). Schwartz le mostró a su nuevo alumno su último artículo, que cerraba con una lista de catorce preguntas relevantes para el tema de los espacios localmente convexos. Alexander inmediatamente introdujo nuevos métodos, los cuales le permitieron resolver todos esos problemas en pocos meses. ¡Había aparecido una superestrella matemática!, de veintidós años de edad, con una juventud caótica y con una formación escasa.
A pesar de su éxito, le fue difícil hallar empleo en Francia, particularmente porque no tenía ninguna nacionalidad. Su tutor comentó la desafortunada situación de este joven genio y le encontró una posición de visitante en la Universidad de São Paulo, en donde Alexander permanecería de 1952-1954. Durante ese periodo, el legendario presidente Getúlio Vargas estaba en el poder y Alexander terminó su tesis de doctorado sobre productos tensoriales y espacios nucleares (el segundo término él mismo lo introdujo). En ese tiempo, ya contaba con resultados suficientes como para seis tesis, cubriendo además el análisis funcional. Publicó en revistas brasileñas, en las cuales introdujo la Inequidad de Grothendieck. Impartía cátedra acerca de espacios vectoriales topológicos. Mientras, comenzó a cambiar su enfoque hacia la geometría algebraica, el campo en donde finalmente lograría su mayor impacto; involucró el análisis sistemático de las propiedades geométricas de las soluciones para ecuaciones polinomiales.
Alexander trabajó con máxima intensidad, pausando únicamente para dormir y comer. Su madre lo visitó en Brasil, lo cual parece haber evitado (de nuevo) que se distrajese. Según sus colegas, tenía una “existencia solitaria y espartana”, a veces sobreviviendo con leche y plátanos. Se frustraba cuando no lograba resolver un problema a pesar de su arduo trabajo. Aun así, los problemas a los que sí encontraba solución y los métodos introducidos por él impulsaban su meteórica carrera.
La época dorada
Luego de una estancia corta en Kansas, Grothendieck regresó a Francia. Junto con Jean-Pierre Serre, pronto se encontró laborando en el apenas fundado Institut des Hautes Études Scientifiques (Instituto de Altos Estudios Científicos), cerca de París, el cual se volvió famoso tanto en las matemáticas como en la física teórica. Allí lideró un grupo de matemáticos jóvenes brillantes.
De 1958 a 1970, fue una era de excelencia que coincidió con el auge del Grupo Bourbaki, con el que Grothendieck estaba en contacto y por algunos años fue miembro. Cuando un visitante se percató de que la biblioteca del nuevo instituto era incompleta, él replicó: “no leemos libros; los escribimos”.
Grothendieck manejó uno de los seminarios matemáticos más prestigiosos jamás visto en el mundo; una sesión podía durar entre diez y doce horas, dando lugar a notas improvisadas. Se le recuerda como un excelente maestro, capaz de explicar pacientemente hasta puntos “triviales” y con talento para sugerir el tema apropiado a cada miembro de su grupo. Su motivación era simplemente comprender, no competir.
Su estilo consistía en buscar una generalidad y una abstracción cada vez mayores (lo cual era una tendencia en las matemáticas del siglo xx), introduciendo nuevos términos y conceptos acertados y desmenuzando sus propiedades. Esto condujo a la redacción de miles de páginas sobre la fusión de geometría algebraica, aritmética y topología. Él se interesaba por conceptos nuevos y genéricos, tales como schémas, topos y motifs. Grothendieck casi no apreciaba las aplicaciones a las ciencias naturales como la física; incluso las demostraciones de teoremas matemáticos (como el de Riemann-Roch) le servían de inspiración, pero no eran la meta final. Sin embargo, las pruebas de Gerd Faltings sobre las Conjeturas de Tate y Mordell, así como la prueba de Andrew Wiles sobre el Último teorema de Fermat, todos ellos se pueden considerar aplicaciones de motifs.
Durante varios años, Grothendieck se dedicó a comprobar paso a paso aspectos de las conjeturas de Weil (originadas en 1949), lo que fue fuente de inspiración para asombrosos conceptos nuevos. Más tarde, en 1974, su ex alumno Pierre Deligne demostró el último punto de tales conjeturas.
En 1970, a la edad de cuarenta y dos años, Grothendieck se salió precipitadamente del Institut des Hautes Études Scientifiques y entró en una fase de su vida completamente distinta. Al poco tiempo, su brillante grupo de investigación se desmoronó.
Nuevos intereses y nueva vida
Hasta entonces, la vida de Grothendieck había estado casi enteramente enfocada a las matemáticas (más tarde lo llamaría su “largo periodo de frenesí matemático”) y su estilo de vida había sido un tanto burgués. La gente lo veía como amistoso, directo, nada arrogante, idealista; pero para asuntos más allá de las matemáticas, algo ingenuo. Sin embargo, otros temas le llegaban a la mente y con el tiempo se volvieron dominantes; en particular sintió un gran compromiso hacia el pacifismo.
Desde finales de la década de los cincuentas, en memoria de su padre vestía ropa de campesino ruso y se afeitaba la cabeza; además, le gustaba portar sandalias hechas de llanta. Al igual que otros intelectuales, se oponía a la Guerra colonial francesa en Argelia que ocurrió de 1954 a 1962. En 1966 ganó la Medalla Fields, la cual debía haber recibido en Moscú; sin embargo, no asistió como protesta ante el arresto de dos escritores rusos. De todas formas, en otras ocasiones visitó países de Europa oriental y sus ideas ejercían una fuerte influencia entre matemáticos rusos tales como Vladimir Drinfeld, Maxim Kontsevich, Yuri Manin y Vladimir Voevodsky.
En la década de los sesentas el movimiento estudiantil ganaba fuerza, culminando en mayo de 1968 en París. A Grothendieck le causó una profunda impresión, pero se encontraba del lado equivocado: se sintió atraído por el papel de inconformista y no por lo establecido. Era simpatizante del movimiento que, en parte, involucraba ideas anarquistas, pero no asistía a manifestaciones, ya que también en esto siguió su propio camino.
En 1967 recibió una solicitud desde Hanói pidiéndole literatura sobre geometría algebraica. Él no era consciente de que hubiese investigación matemática en Vietnam del Norte durante el peor periodo de la segunda guerra de Vietnam y proveyó tanto material como pudo. Es más, Alexander decidió viajar a Hanói en persona para impartir una cátedra. Entre su público se encontraba Ta Quang Buu, matemático y ministro de educación superior y tecnología, quien hacía preguntas frecuentes. Al poco tiempo, debido al incremento de bombas de racimo arrojadas por la Fuerza Aérea de Estados Unidos —entre otros, dos matemáticos perdieron la vida—, la cátedra tuvo que ser reubicada en un escondite en el bosque. En 2013, Neal Koblitz, matemático de los Estados Unidos, visitó este lugar; se sintió intrigado por el hecho de que el curso impartido allí podía haber sido enseñado con la misma calidad en la Universidad de Harvard, en donde entonces estudiaba.
Al regresar a Francia, Grothendieck dio pláticas acerca de su visita y redactó un reporte detallado, en el cual informaba al mundo acerca de la comunidad matemática en Vietnam del Norte. Mientras describía el Estado como algo sobre regulado, su reporte apoyaba firmemente a los desamparados por esa guerra destructiva que duró un total de treinta años y dejó cuatro millones de fallecidos.
La razón que había dado para dejar el Institut des Hautes Études Scientifiques en 1970 fue que éste recibía financiamiento de las fuerzas armadas francesas. Aunque esto significaba una fracción minúscula del presupuesto de dicho instituto, para él representaba un problema ético. Grothendieck consideraba inaceptable la investigación con propósitos militares; también por esto le parecía sospechosa la física, recordando Hiroshima y Nagasaki. Por otro lado, a pesar de que su estilo matemático fue extremadamente abstracto, sus conceptos sí se propagaron dentro de la física teórica, particularmente en la Teoría constructiva de campos elaborada en los setentas.
Sin embargo, pudieron haber otras razones involucradas en este cambio radical en su vida: conflictos con sus colegas en el Institut des Hautes Études Scientifiques, un decremento de su creatividad y la conciencia de que sus metas ambiciosas jamás serían completadas. Había delineado un programa monumental con la finalidad de escribir, en trece volúmenes, una serie titulada Elementos de geometría algebraica; “sólo” aparecieron cuatro volúmenes, conteniendo alrededor de mil ochocientas páginas.
De cualquier forma, Grothendieck cambió su estilo de vida. Se separó de su esposa Mireille y formó comunas; primero en París y luego al sur de Francia. Allí vivió con una variedad de personas (a veces tres de sus hijos se encontraban entre ellos) y se congregaban en mítines políticos. A la vez impartía cátedra en la Universidad de París-Sur y en el Colegio de Francia. En sus cursos tomaba la oportunidad de discutir temas tales como la amenaza por armas nucleares. Esto atrajo un público amplio, pero a la dirección del Colegio no le pareció, así que le negaron una posición permanente, a pesar de ser uno de los matemáticos más prominentes del mundo.
En 1973 se trasladó de vuelta a la Universidad de Montpellier y dio cátedra en todos los niveles. Se mostraba amigable con sus alumnos, quienes le apodaron Alejandro Magno. Ya no manejaba ningún seminario altamente ambicioso, pero aún contaba con varios estudiantes de doctorado y dirigía investigaciones excelentes. A pesar de ello, la agencia francesa de financiamiento para la ciencia (cnrs) sólo le proporcionaba un apoyo mínimo.
Entre 1973 y 1979 vivió en un pueblo minúsculo llamado Olmet-et-Villecun, a 50 kilómetros de Montpellier, en una casa sencilla sin servicio eléctrico (usaba lámparas de keroseno para trabajar de noche). No dudó en dar cobijo a personas sin hogar; generalmente, su casa se encontraba abierta a todos y se volvió punto de encuentro para el movimiento hippie.
En 1977, fue sujeto a una redada policiaca buscando cualquier ilegalidad. Pero todo lo que pudieron hallar fue a un ciudadano japonés quien allí se hospedaba, cuya visa francesa ya había caducado. Era una persona pacífica quien había estudiado matemáticas, pero en ese momento era monje budista. Medio año después (para entonces el monje llevaba largo tiempo fuera de Francia), a Grothendieck se le acusó de proporcionar hospedaje y alimento a un extranjero “en situación irregular”. Se autodefendió con un discurso apasionado y recibió el apoyo público de una gran cantidad de matemáticos, pero fue sentenciado a una pesada multa y a seis meses de suspensión.
Movimiento ambiental y pacifista
Mientras Grothendieck cuestionaba intensamente el sentido de la investigación científica (consideraba que en muchas discusiones nadie podía realmente hallar el porqué), se preocupaba más y más por los problemas ecológicos y el militarismo, específicamente por la amenaza de una guerra nuclear. Estaba convencido de que todo aquel que recibiera información relevante seguiría sus argumentos lógicos y estaría de acuerdo con sus conclusiones, y que él tenía como misión difundir el mensaje.
Cuando lo invitaron a dar una cátedra en una Escuela de verano en Montreal, aceptó bajo la condición de que se le permitiera no sólo hablar sobre matemáticas, sino también acerca de las amenazas a la humanidad. De hecho, algunos jóvenes matemáticos siguieron sus ideas y se volvieron activistas al igual que él.
También impartió doble cátedra en Estados Unidos, en donde además apoyaba los derechos de los indígenas americanos. Una alumna de doctorado llamada Justine Skalba se emocionó particularmente con su carisma y lo siguió por algunos años a Francia como su novia. Justine recuerda un mitin en Aviñón, en donde, hostigado por la policía, Grothendieck golpeó a dos oficiales y fue arrestado.
Junto con otros dos matemáticos franceses prominentes, Claude Chevalley y Pierre Samuel, fundó un grupo llamado “Movimiento internacional para la supervivencia de la raza humana”. Este grupo publicó la revista Vivre (Vivir), más tarde Survivre et Vivre (Sobrevivir y vivir), la cual hacía un llamado enfático por la paz y contra la contaminación; además, incluía discusiones críticas sobre el impacto de la ciencia y de la sociedad consumista. Alexander escribió un número considerable de artículos para dicha revista publicada entre 1970 y 1975 (se pueden consultar en la red).
En 1970, cuando asistió al Congreso Internacional de Matemáticas en Nice, junto con su hijo mayor Serge instaló un escritorio para distribuir dicha revista, así como para intentar reclutar nuevos miembros para su movimiento (sin mucho éxito). Los organizadores se opusieron obstinadamente hasta que Grothendieck movió su escritorio fuera del edificio, pero ahí tuvo problemas con la policía.
En una Escuela de verano en Amberes en 1972, Grothendieck interrumpió a gritos el discurso de inauguración dado por Serre, su antiguo compañero del Institut des Hautes Études Scientifiques. Se mostraba en contra de la otan (Organización del Tratado del Atlántico Norte), que patrocinaba el evento. No vacilaba en ser provocativo (l’enfant terrible), aunque esto condujera al resentimiento de amigos y colaboradores de muchos años.
Por supuesto se le confrontaba con el reclamo de que se comportaba de manera inmadura, sin embargo, en una larga plática de dos horas en 1972 que impartió en el cern, en Ginebra (disponible en Youtube), suena calmado y pensativo. Ahí explicó que se había distanciado de la comunidad científica con su competencia y la presión para publicar, que implican injusticia y poco favorecen la creatividad. Condiciones en las cuales se mantiene a los investigadores trabajando sin que éstos jamás se pregunten por qué. También recordó a algunos matemáticos que se habían suicidado. Más a fondo, señaló la razón por la que ahora consideraba de mucho mayor importancia tomar acción contra las amenazas a la humanidad.
A pesar de sus argumentos, del uso de su reputación académica y de sus habilidades retóricas, su grupo permaneció pequeño. Mayoritariamente atraía gente que desde antes compartía puntos de vista similares y, alrededor de 1973, se hizo patente una tendencia hacia la disolución. Grothendieck se decepcionó y consideró que sus esfuerzos habían sido un fracaso. Concluyó que la gente, incluso los científicos, estaban ciegos ante los peligros para el mundo y no se comportaban de forma racional.
Desde una perspectiva moderna, aparece como pionero del movimiento para la paz y el ambiente, que luego ejercería influencia en Europa y más allá. También al interior de la ciencia, las preocupaciones ecológicas fueron reconocidas más tarde, por ejemplo con el Premio Nobel de Química de 1995 otorgado por demostrar cómo peligraba la capa de ozono terrestre. Actualmente el calentamiento global debido a actividades humanas sólo es negado por personas que están en desacuerdo con la ciencia. Podríamos cuestionar entonces si el activismo de Grothendieck a principios de 1970 en verdad fue inmaduro o si, más bien, estaba adelantado a sus tiempos.
Meditación y aislamiento
Frustrado por su modesto éxito como activista, Grothendieck disminuyó las súplicas hechas al público. Siguió redactando largos manuscritos, algunos de más de mil páginas, como La Longue Marche à travers la théorie de Galois, pues estimaba de manera especial al matemático legendario Évariste Galois (1811-1832), a quien llamaba su hermano de temperamento (frère de tempérament); A la Poursuite de Champs y Esquisse d’un Programme, los cuales contenían ideas para matemáticas futuras. Efectivamente, ese Programme fue desmenuzado y resuelto por los jóvenes matemáticos Leila Schneps y Pierre Lochak, quienes se impresionaron con su visión tan avanzada. Lo contactaron y éste repentinamente mostro interés por la física (aunque lamentaba su falta de rigor).
Entre 1983 y 1988, también maestro de la redacción, Grothendieck escribió el libro Récoltes et Semailles, en el cual repasa su vida y trabajo, conjuntando todo tipo de elementos, tales como poemas de amor y comentarios (ocasionalmente críticos) acerca de la comunidad matemática y antiguos colegas. En la sección 2.20 aborda el tema de la física moderna. Desde una perspectiva matemática, consideraba que la teoría de relatividad de Einstein era “banal”, aunque sí apreciaba su importancia para nuestra noción de espacio y tiempo. Matemáticamente, sin embargo, describió la transición desde la teoría de Newton hasta la teoría de la relatividad, como si uno cambiase de un dialecto francés a otro, mientras que la teoría cuántica es como una transición al chino. Esto sí le parecía interesante por su profunda comprensión de lo que es un punto, y sospechaba una analogía con su concepto de toposes (espacios topológicos en los cuales un entorno se adjunta a cada punto).
En 1988 fue declarado ganador del prestigioso Premio Crafoord (dotado de 423 000 dólares) junto con su ex alumno Deligne, pero Grothendieck declinó. En una correspondencia cortés explicaba sus razones: en primera, no necesitaba el dinero y en cuanto a la importancia de su trabajo, eso lo decidiría el tiempo y los frutos, no los honores. Agregó que tales premios se entregan constantemente a las personas equivocadas, quienes ya no necesitan más riqueza ni glorificación. Planteó ¿esta “sobreabundancia para algunos” no salía “a costa de la necesidad de otros”? Finalmente, señalaba que aceptar “participar en el juego de los premios” implicaría su “aprobación al espíritu [...] del mundo científico”, dentro del cual la ética ha “disminuido hasta el punto en que el robo [plagio de ideas] descarado entre colegas (en especial a expensas de quienes no se encuentran en una posición en la cual puedan defenderse) se ha vuelto casi una regla general”.
En 1988 se retiró de la Universidad de Montpellier y en 1991 hasta de la sociedad; se desconectó de prácticamente todos. Se alejó hacia una vida sencilla en una aldea en los Pirineos franceses, en donde aún redactaba el programa matemático titulado Les Dérivateurs (dos mil páginas), el cual entregó a un amigo. Por otro lado, una vez quemó una cantidad enorme de documentos; se estima que fueron veinticinco mil hojas. Entonces su interés mayor se desplazó hacia la meditación y entró a la fase final de su vida, semejante al lobo estepario.
Desde 1970 le interesó fuertemente el budismo. Era vegetariano estricto y recibía visitas de eruditos budistas. También le fascinaban los símbolos del yin y el yang, autocaracterizando su estilo de investigación como yin. En este sentido, Deligne describe una prueba hecha por Grothendieck como una larga secuencia de pasos triviales: “parece que no sucede nada, pero al final allí está un teorema nada trivial”.
Más tarde, pasó a practicar una forma mística de cristiandad. Ayunó por largo tiempo, lo cual amenazó su salud. Se interesó intensamente por los sueños, ya que los consideraba mensajeros de sabiduría espiritual y estudiaba la interpretación de Sigmund Freud.
Como actividad principal siguió escribiendo; todos los días se pasaba muchas horas tecleando acerca de sus ideas místicas. A pesar de suponer que sus visiones fuesen relevantes para la sociedad futura, no deseaba publicar estos escritos. En 2010 apareció una carta extraña (pero muy bien formulada) y escrita a mano, en la cual exigió el retiro de todas sus obras de las bibliotecas.
Sólo un puñado de personas sabían en dónde vivía y si seguía con vida. No contaba con dirección postal ni teléfono, mucho menos acceso a la red y no recibía visitas inesperadas. Finalmente, el mundo se enteró de que había muerto el 13 de noviembre de 2014 en la aldea Saint-Lizier de los Pirineos franceses. Alexander Schurik Grothendieck, descansa en paz.
|
|||||||||||
Referencias Bibliográficas
Azevedo, Alberto de. 2008. “Grothendieck no Brasil”, en Matemática Universitária, vol. 44, pp. 39-42.
Bietenholz, Wolfgang y Tatiana Peixoto. 2015. “To the Memory of Alexander Grothendieck: a Great and Mysterious Genius of Mathematics”, en Ciência e Sociedade-cbpf, vol. 3, núm. 1, pp. 1-9. Grothendieck, A. 1985. Récoltes et Semailles, Réflexions et témoignage sur un passé de mathématicien. s. n. _____. 1989. “Grothendieck on Prizes”, en The Mathematical Intelligencer, vol. 11, pp. 34-35. Jackson, Allyn. 2004. “Comme Appelé du Néant-As If Summoned from the Void: The Life of Alexandre Grothendieck”, en Notices of the American Mathematical Society, vol. 51, núm. 10, pp. 1038-1056 y 1196-1212. Koblitz, Neal. 2013. “Grothendieck’s 1967 Lectures in the Forest in Vietnam”, en The Mathematical Intelligencer, vol. 35, pp. 32-34. Mumford, David y John Tate. 2015. “Alexander Grothendieck (1928-2014) Mathematician who rebuilt algebraic geometry”, en Nature, vol. 517, p. 272. Scharlau, Winfried. 2008. “Who is Alexander Grothendieck?”, en Notices of the ams, vol. 55, núm. 8, pp. 930-941. _____. 2011. Wer ist Alexander Grothendieck? Anarchie, Mathematik, Spiritualität, Einsamkeit. Books on Demand, Havixbeck, Alemania. En la red
|
|||||||||||
_____________________________ |
|||||||||||
Wolfgang Bietenholz
Instituto de Ciencias Nucleares,
Universidad Nacional Autónoma de México.
Wolfgang Bietenholz nació en Suiza, estudió en el Instituto Federal de Tecnología de Zurich (ETH) y realizó su doctorado en física teórica en la Universidad de Berna. Antes de incorporarse como investigador titular al Instituto de Ciencias Nucleares de la UNAM en 2009, trabajó en el Centro Brasileño de Investigaciones Físicas (CBPF), en el Instituto Tecnológico de Massachusetts (MIT), en el Instituto Nórdico de Física Teórica (NORDITA) en Dinamarca, en el Sincrotrón Alemán de Electrones (DESY) y en la Universidad Humboldt. Sus temas de trabajo son: partículas elementales, teoría de campos cuánticos y mecánica estadística.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Bietenholz, Wolfgang. 2015. Alexander Grothendieck la fascinante vida de un genio matemático. Ciencias, núm. 117, julio-septiembre, pp. 4-11. [En línea].
|
imago |
![]() |
|
||||||||||||||
Ciencia, arte y
magia de la imagen
estenopeica
|
![]() |
|||||||||||||||
César Carrillo Trueba |
||||||||||||||||
El principio óptico de la cámara fotográfica es bien
antiguo, se halla en la llamada camera obscura, una verdadera habitación protegida de los rayos del sol con un pequeño orificio por el que pasaba la luz, proyectando en el muro interior la imagen invertida del paisaje o el objeto que tenía enfrente. Si bien hay noticias de tal dispositivo desde varios siglos antes de nuestra era en China, una mención en la obra de Aristóteles y vastos tratados árabes, su uso comenzó a popularizarse en la Europa del Renacimiento, cuando varios pintores, entre ellos Leonardo da Vinci, se sirvieron de ella para dibujar, para apropiarse de su proyección perspectiva en el diseño de sus cuadros.
El cambio radical viene de la mano de la química, cuando el soporte en donde se forma la imagen es de material sensible, captándola y fijándola mediante un proceso ahora muy conocido. La experimentación de sus posibilidades de expresión vino a tornarla arte y la mirada del espectador se fue familiarizando con ella, dejándose conmover, sorprender, emocionar, toda una paleta de sensaciones y pensamientos alrededor de “la foto”.
Es probable que la primera cámara fuese estenopeica, es decir, una simple caja con un pequeño orificio que contiene un soporte sensible que dará origen a una fotografía, ya sea por medio del revelado y la impresión o directamente sobre papel. Las fotografías que ilustran este número de Ciencias fueron hechas con este tipo de cámaras, lo cual viene muy a cuento con los temas abordados. Curiosamente, el tamaño del orificio que debe llevar la cámara fue asunto de varias tesis y tratados, al igual que la distancia entre éste y el papel o la película y la sensibilidad de los mismos originaron otras tantas disquisiciones científicas y de orden técnico.
Y mientras la óptica lidiaba con una idea de luz ondulatoria, la química resolvía sus dificultades pensando en fotones, en su impacto en los cristales de haluro de plata y la formación de la llamada imagen latente, aquello que está en el soporte sensible pero nuestros ojos no ven y que sólo la química misma puede revelar.
Aun así, algo hay en todo ello de la antigua alquimia, como diría el reconocido fotógrafo Carlos Jurado, quien ha sido el impulsor en México de este tipo de fotografía y ha recreado en su arte esa magia particular que poseen las imágenes estenopeicas.
|
||||||||||||||||
_______________________________________________ | ||||||||||||||||
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||||||||||||||||
_________________________________________________ | ||||||||||||||||
cómo citar este artículo →
Carrillo Trueba, César. 2015. Ciencia, arte y magia de la imagen estenopeica. Ciencias, núm. 117, julio-octubre, pp. 62-63. [En línea].
|
![]() |
![]() |
|
|||||||||||||||||||||||||||||||||||||||||||
Alejandro González y María del Pilar Molina Álvarez |
|||||||||||||||||||||||||||||||||||||||||||||
Las diversas realidades que vive México son parte de un
mosaico multicultural, herencia de nuestro pasado mesoamericano que ha sido negado por siglos, excluyendo de sus derechos básicos y de su integración real a las diversas culturas. Esta propuesta busca integrar la cultura náhuatl a la divulgación científica desde un punto de vista social, cultural y lingüístico, por lo que está dirigida principalmente al joven de habla náhuatl para que se apropie del conocimiento científico, pero también a los no hablantes, pues es necesario crear una conciencia en cuanto al valor de las distintas culturas que hay en México, de su imprescindible conocimiento y comprensión para vivir en una sociedad intercultural.
Así, retomamos la divulgación de la física, el idioma náhuatl escrito y el dibujo como parte del aprendizaje y uso de diversos sistemas simbólicos, herramientas de pensamiento utilizadas en equilibrio por los jóvenes.
Se plantea además el uso de los sistemas simbólicos verbales y no verbales, pues esto permite a los jóvenes partir del conocimiento desde el entorno real, de su experiencia, así como de su observación, representación y reflexión; este paso será parte importante del pensamiento que los irá llevando a sistemas simbólicos más complejos y abstractos.
El valorar este armado de conceptos científicos, que pretenden ser integradores, implica la necesidad de su aplicación y su modificación según sea su recepción por el joven, así como el enriquecimiento de la visión del conocimiento de la propia cultura náhuatl.
La época que vivimos es visual, los conceptos que formamos de la realidad parten de esta construcción, por lo que retomar la tradición mesoamericana de la enseñanza con imágenes es un punto central, pues implica retomar un camino antiguo que permite que el individuo y el colectivo establezcan diversas aproximaciones sobre su entorno desde diversos ángulos del conocimiento y su modo de aplicarlo en las realidades y problemáticas propias; posibilitando conocernos y reconocernos como parte de un mundo que debería ser conservado como el tesoro más valioso.
Antecedentes de la educación indígena
El idioma náhuatl es una herencia cultural de gran raigambre prehispánica que debemos cuidar con esmero para evitar su desaparición. En el pasado, la tradición oral junto con la pictórica difundieron el conocimiento de la cultura náhuatl en todo el territorio mesoamericano a lo largo de varias centurias antes de la conquista de México. La cultura nahuatl floreció mediante ambas tradiciones de transferencia del conocimiento a las generaciones futuras y mantuvo vivas todas las expresiones de creatividad desarrolladas en Mesoamérica por diversas culturas originarias, desde Teotihuacan hasta México-Tenochtitlan.
Con la llegada de los mexicas al centro de México, el idioma náhuatl fue la lengua franca en toda Mesoamérica desde el siglo XIII hasta principios del siglo XVI. Sin embargo, esta tradición cultural fue interrumpida en el siglo XVI por la confrontación entre el mundo europeo y el mundo mesoamericano; principalmente fue afectada la tradición pictórica, cuya pintura mural fue extinguida con la llegada de los españoles.
De igual forma, gran cantidad de códices o documentos pictográficos del saber prehispánico fueron destruidos por los conquistadores españoles, quedando en la actualidad pocos. En la segunda mitad del siglo XVI, los misioneros españoles recopilaron todo tipo de conocimiento del mundo mesoamericano por medio de informantes indígenas que dibujaban códices sobre diversos temas de la vida y la cultura pero, con el tiempo, la iconografía indígena se fue mezclando con la europea, dejando un documento más al gusto del recopilador que del informante. En los siglos posteriores, esta tradición no se desvaneció por completo, pues se siguieron realizando códices, mapas y títulos de tierra, continuando la tradición indígena.
En cambio, la tradición oral sufrió cambios drásticos con la introducción de los vocablos latinos del español para la escritura del idioma náhuatl. El saber indígena fue trasladado a documentos escritos en idioma náhuatl con grafía latina, misioneros españoles que aprendieron el náhuatl dejaron junto con sus informantes indígenas una extensa documentación escrita.
Asimismo, algunos indígenas educados por los españoles aprendieron español, latín y escribieron en náhuatl y en latín la historia de sus orígenes; más tarde, en el siglo XVII, estudiosos del náhuatl siguieron escribiendo sobre la historia y las antiguas tradiciones del pasado prehispánico. Es así que el saber indígena ha quedado plasmado en la documentación escrita realizada a partir del siglo XVI, mientras la tradición oral fue reciamente atacada desde ese mismo siglo para que el conocimiento de los antiguos mexicanos no se difundiera más entre el pueblo, por lo que esta tradición se conserva hasta nuestros días de manera anónima, de padres a hijos, sin registro formal.
El náhuatl, a pesar de ser el idioma originario más hablado por el pueblo mexicano desde el siglo XVI ha ido desapareciendo de ciudades y pueblos, y así su raigambre cultural. El pueblo nahua, el heredero directo de su raíz prehispánica, es el que ha quedado más rezagado de su propio origen y sólo gracias a la tradición oral mantiene vivas sus costumbres y cultura.
Durante el virreinato, el pueblo indígena quedó marginado de la enseñanza de la escritura, la lectura y las cuentas, su educación fue principalmente evangelizadora, mediante pictogramas y jeroglíficos basados en pasajes de la Biblia, bajo la forma de códices. Estos Catecismos testerianos se usaron para la enseñanza de la doctrina cristiana.
En la educación rural a los hijos de los principales (caciques) se les enseñó la doctrina, leer, escribir y las cuentas para que al heredar sus haciendas pudieran llevar a cabo la administración; a los indígenas comunes sólo se les enseñaba la doctrina cristiana, siempre y cuando fueran obedientes, pues el saber podría convertirse en un problema. La educación de las niñas era sólo en oficios manuales, pues no era necesario que aprendieran a leer, escribir o contar, ya que tarde o temprano se casarían.
En el siglo XVI, la enseñanza superior indígena fue sólo para un grupo limitado que aprendía en el Colegio de Santa Cruz de Tlateloloco o en el Colegio de San Pablo, en donde se les educaba en filosofía, literatura, retórica, medicina, música y teología. En 1597, con la muerte de su fundador, fray Bernardino de Sahagún, el Colegio de Tlatelolco fue reducido a una escuela elemental, al igual que las demás, extinguiéndose prácticamente el proyecto de enseñanza superior indígena. A la vez, con la extensión de las órdenes religiosas en la Nueva España y la evangelización y castellanización de indígenas que se llevó a cabo de manera sistemática en las escuelas eclesiásticas, se crearon nuevas identidades locales.
En el siglo XIX, en el periodo independentista, entre conflictos de conservadores y liberales se consolida el Estado nacional mexicano, lo que da lugar a nuevos conceptos de educación, como los de la enseñanza a cargo de liberales en los Institutos de Ciencias y Artes, las escuelas primarias laicas y las escuelas normales lancasterianas; en cambio, en las instituciones religiosas, a cuenta de los conservadores, los indígenas no tenían una participación específica.
Con el triunfo liberal se trató de asimilar la diversidad lingüística y cultural en el tejido social de la ciudadanía. En ese siglo se promueve la propiedad privada, se desamortizan los bienes eclesiásticos y comunales, y emergen conflictos culturales e ideológicos (que dan cuenta de la oposición en las zonas rurales a los incipientes y desorganizados intentos de castellanización y extensión de una educación para los pueblos).
En el porfiriato no hubo grandes cambios en los mecanismos económicos de autorreproducción de las sociedades rurales tradicionales, pero en algunas entidades de la república se jerarquizaron las escuelas en clases; en los pueblos de alta composición indígena, como en Oaxaca, se crearon planteles de párvulos y primarias de primera clase; en cambio, en la periferia de la ciudad y las regiones alejadas sólo se crearon primarias de segunda y tercera clase, quedando así relegada la educación indígena. Esta concepción de la educación indígena, aunada a la falta de maestros en las escuelas periféricas dio lugar a contenidos, métodos y tiempos reducidos, con programas recortados y el uso de sistemas antiguos de enseñanza mutua, pues se consideraba imposible que un maestro pudiera atender más de dos secciones de alumnos simultáneamente.
Debido a la diversidad lingüística de los alumnos, se justificaba otorgar una educación simplificada, asociada a la finalidad de unificar el idioma nacional. Con los modelos europeos adoptados en los programas estatales de escuelas elementales para alumnos indígenas, se concentraba la enseñanza en el área del idioma como su fundamento, quedando reducidos los programas de enseñanza a la instrucción del castellano, sin tomar en cuenta los idiomas originarios de los alumnos, a pesar de contar con algunas gramáticas en idiomas indígenas.
En el siglo XX, en el periodo posrevolucionario, al igual que en la Colonia, se llevaron a cabo estrategias educativas específicas para la población indígena, con la diferencia de que el Estado necesitaba consolidar su poder y su control federal, tratando de presentarse con una imagen de nación moderna homogénea. Sin embargo, las políticas educativas estaban llenas de fisuras, contrastes, continuidades, traslapes y rupturas.
La tradición indígena pictográfica
La tradición oral en las civilizaciones mesoamericanas fue el factor fundamental de la comunicación del saber indígena a través del tiempo. Para Federico Navarrete Linares: “el discurso oral y el discurso visual se complementaban así de una forma en la cual uno no se subordinaba al otro, ya que la imagen mostraba muchos detalles y aludía a varios elementos que la palabra no podía describir de manera sintética, mientras que la palabra expresaba aspectos difícilmente traducibles en imágenes, como los discursos de los personajes”.
La tradición pictográfica indígena, mediante la cual las civilizaciones mesoamericanas registraron su cultura e historia, se extendió por varios siglos, dejando una herencia artística, cultural e histórica invaluable para las generaciones posteriores. La riqueza de ésta fue extremadamente quebrantada por la conquista de México y su desarrollo y evolución para poder registrar los eventos culturales, sociales e históricos posteriores se interrumpió abruptamente.
A pesar de ello, la tradición pictográfica indígena no desapareció por completo y los pueblos a lo largo del tiempo la han mantenido viva en códices con relatos históricos, rituales y genealógicos, en mapas donde se representan caminos, ríos y pueblos de la antigüedad (antes y después de la Conquista), y en las pinturas de papel amate del arte popular mexicano actual donde se dibujan eventos de la vida cotidiana.
La pictografía indígena está compuesta de imágenes que comunican conocimiento indígena creado a lo largo del tiempo, símbolos de su tradición cultural que ahora son motivo de investigación, pero que en el pasado constituyeron los materiales esenciales para el aprendizaje del saber mesoamericano.
Esta tradición, rica en símbolos, es capaz de comunicar conocimientos concretos y abstractos, su función es atrapar la atención del espectador para alcanzar su entendimiento con los símbolos dibujados.
Los elementos simbólicos los podemos dividir en dos tipos: constantes y variables. Los constantes son los elementos que culturalmente son reconocibles por el espectador sin necesidad de explicaciones explícitas o aquéllos que son fáciles de comprender por medio de los elementos concretos que los integran y que son de clara interpretación.
Los elementos variables son aquellos símbolos que comprenden conceptos difíciles de interpretar por espectadores que no están familiarizados con ellos y que dan lugar a diferentes interpretaciones que podrán ser unificadas mediante la explicación formal.
La divulgación científica en náhuatl
La tradición indígena oral, pictográfica y escrita, quebrantada por un proceso de castellanización durante la Colonia y la vida independiente de México, ya no registró los eventos culturales y científicos del conocimiento universal. Por lo que éste carece de una expresión de comunicación en tradición indígena que ha afectado a los pueblos de habla náhuatl desde siempre y que los ha marginado de estos saberes. En particular el conocimiento científico no ha sido encauzado al saber indígena mediante sus métodos tradicionales de comunicación, lo que repercute en que los niños y jóvenes herederos de la tradición indígena quedan apartados de él.
Con el fin de romper esta omisión histórica, observamos que la divulgación científica escrita en lengua náhuatl y acompañada con imágenes a manera de códice moderno es una forma de renovar la tradición de comunicación de conocimiento, replanteando una vía ya olvidada de adquisición de saberes.
La gravitación, desde la antigüedad, ha llamado la atención en el estudio de la física y su entendimiento ha sido un reto de la mente humana. La historia de la ciencia ha registrado el desarrollo de la comprensión de este concepto físico desde los antiguos griegos hasta nuestros días, entendimiento no terminado y que seguirá cambiando.
Tal es la importancia de este concepto que su enseñanza y divulgación es parte fundamental en todos los idiomas en que se ha difundido la ciencia universal.
La divulgación del tema de gravitación en náhuatl es sólo un paso para extender el conocimiento universal a los pueblos de habla náhuatl del presente.
La gravitación
La palabra gravitación se empieza a utilizar en el siglo XVII a partir del vocablo en latín gravitas, que significa peso en español, y el sufijo –ción, con el significado de acción y efecto. Entonces la gravitación sería la acción y el efecto del peso. Esta palabra fue acuñada por Isaac Newton para indicar la fuerza de atracción entre los cuerpos masivos. Análogamente, la palabra gravedad significa cualidad de peso. Es el mismo Newton quien identifica el peso de los objetos como la fuerza de atracción que la Tierra ejerce sobre ellos.
A pesar de que el concepto de gravitación en física empezó a aclararse con las ideas que Newton estableció en el siglo XVII y se aplican con éxito al movimiento de los planetas del Sistema solar, ya desde la Antigüedad los griegos pensaban acerca de los objetos pesados, y Galileo, precursor de las ideas de Newton, experimentaba con diferentes pesos. En el siglo XX, las ideas de gravitación cambiaron rotundamente con los planteamientos de Einstein. Actualmente tales ideas se encuentran en revisión por parte de los físicos.
La narración en náhuatl
El tratamiento del concepto físico de gravitación en náhuatl se hace mediante texto e imagen. El texto en náhuatl se hace como una narración que se refiere al personaje histórico o físico que estableció un pensamiento o acción sobre el concepto de gravitación y sobre esta idea o acción.
La narración empieza con Aristóteles, quien reflexionó sobre la idea de peso, y continúa con otros científicos, y sus ideas, que contribuyeron a la construcción formal del concepto y a su acepción científica actual. Comprende un periodo de tiempo que va desde los griegos hasta nuestros días, incluyendo a los tres físicos ganadores del Premio Nobel en 2014 por sus propuestas sobre la expansión del Universo, y terminamos con un comentario sobre la película Gravedad de Alfonso Cuarón.
Frecuentemente, los conceptos científicos de la física en español son vocablos del lenguaje ordinario con raíces griegas que incluyen la composición de diferentes vocablos para formar uno nuevo. Estos mismos conceptos son traducidos al náhuatl para establecer el relato histórico de la gravitación.
Para apoyar los diálogos en náhuatl, la traducción de conceptos de la física y, en particular la formulación de neologismos, se han tomado como base los siguientes diccionarios: Vocabulario en lengua Castellana-Mexicana, Mexicana-Castellana de fray Alonso de Molina de 1571; el Diccionario de la lengua náhuatl o mexicana de Rémi Simeón, de 1885; y An Analytical Dictionary of Nahuatl de Frances Kartunne de 1983.
En la elección de un vocablo en náhuatl que representa un concepto de la física en español, se buscó en los diccionarios este concepto y su traducción al náhuatl (lo más cercano a este vocablo); por ejemplo, para la palabra masa se encontró en náhuatl textli con igual significado.
Cuando el concepto de la física no existe en los diccionarios de náhuatl, se aprovecha la característica de este idioma como una lengua incorporante que permite la composición de palabras conocidas para formar nuevas. Esta propiedad del idioma permite formar vocablos científicos nuevos que no existen en su vocabulario original con base en términos que sí existen. Diversos conceptos físicos que se emplean en la narración histórica de la gravitación de este escrito no se encuentran en náhuatl, por tal motivo fue necesario construirlos y el criterio que elegimos para esto es que se construyeran a partir de palabras que existen en los diccionarios de este idioma.
De esta forma se construyó la palabra icpiticatonacuecueyotl para microonda, que se forma de los sustantivos icpiticatontli, que según el diccionario de Rémi Simón significa cosa muy pequeña, infinitamente poco, una nada; y acuecueyotl, ola, onda, oleaje.
En los cuadros siguientes se establece una narración histórica del tema de gravitación en náhuatl con su traducción al español. En letra cursiva se señalan, tanto en náhuatl como en español, los conceptos físicos involucrados en este relato.
Base pedagógica
En el caso de las reflexiones anteriores en torno al pensamiento y aprendizaje humano encontramos a Vygotski con un planteamiento biológico, psicológico, individual y social, que analiza cómo en el hombre se lleva a cabo el proceso de enseñanza-aprendizaje en un diálogo histórico, sobre la reflexión, el pensamiento y la creatividad, en un sistema dialéctico. Esto permite reconocer el desarrollo de la psicología como una ciencia que permite enlazar y ser gozne entre las diferentes áreas del conocimiento, ciencias naturales, ciencias sociales y humanidades.
Esto nos permite vislumbrar la importancia del pensamiento y reflexión en el pasado y presente, que resulta en acciones que influyen en el futuro deseado, al establecer cómo se han ido produciendo los cambios en la sociedad, dando lugar con esto a la conciencia del cambio, la creación o modificación del propio mundo o entorno. Este proceso es construido desde el individuo y el grupo al que pertenece y sólo en esa medida trasciende a la propia sociedad mediante la acción o trabajo conjunto.
Lo central y compartido en estos planteamientos psicopedagógicos es el modo como el niño, el joven o el adulto construyen los conceptos a partir de la realidad, la experiencia, el concepto, la representación o la imagen, la argumentación o el idioma, en dos movimientos: “generalización más abstracción”, y “concreto-abstracto-concreto”, lo que implica comprensión más allá de lo aparente.
Así, el proceso de pensamiento se ve reforzado en un mensaje bimedia compuesto por texto e imagen que permite comunicar, recordar y reflexionar, teniendo como base esta estructura que ayuda a comprender. Esto es, no sólo como creación al servicio del poder, sino de la investigación y desarrollo en favor del fenómeno humano, del trabajo conjunto, cooperativo y de diálogo para resolver problemas en pro de un desarrollo común y positivo.
Reconocer el juego del pensamiento en un diálogo constante que va de lo simple a lo complejo o abstracto y de lo real a lo posible nos permite ver que las estructuras no son lógicas ni universales, sino locales, insertas en un contexto individual, social y cultural. Pertenecemos a una comunidad sociohistórica que requiere concientizar la meta del conocimiento como una actividad humana construida colectivamente para resolver problemas sociales.
Las imágenes cumplen la función de ser un sistema de símbolos que permiten centrar la atención en la reflexión de un contexto social, histórico, científico, pasado, presente o futuro (ubican en tiempo y espacio al espectador). Permiten una representación donde el recurso del dibujo es una acción del contexto científico, pero que está cifrado en imágenes o cuadros, que para el espectador implican una ubicación histórica a grandes saltos de la física como parte de una construcción del conocimiento que trasciende culturas.
En el caso del idioma se plantea la integración de las diversas culturas al conocimiento en una revisión de los conceptos occidentales y mesoamericanos, dando validez al contexto cultural y social propio y poniéndolos a discusión.
Planteando con esto una comprensión del entorno científico, artístico, cultural, social, de lenguaje y de la historia de un modo integral, reconociendo constantes o variables conceptuales que se dan de un idioma a otro o de una cultura a otra, pero que pueden ser subsanadas por la imagen que es descriptiva dentro de un contexto específico.
A partir del lenguaje propio, la alfabetización es central, pues implica la construcción y la reflexión sobre el discurso construido, pero que se complementa y ayuda por medio de la imagen, el texto, así como por el mediador o profesor que sabe cuál es la meta.
Dibujos y relatos ayudan a explorar y profundizar la naturaleza sociocultural del aprendizaje, la imagen mantiene relación con la gente, los lugares, las cosas o los acontecimientos; no sólo creamos imágenes, sino estamos formados por imágenes culturales y esa conciencia puede elevar la calidad de la enseñanza; imágenes tales como dibujos se crean pero en forma de experiencia humana y son herramientas válidas para dar sentido, los dibujos generados por el aprendiz son herramientas para la reflexión, ya que tienen fuertes funciones comunicativas, para mediar el pensamiento, formar el aprendizaje y fortalecer la comunicación. Según Vygotski son herramientas de base cultural y sirven como señales de comprensión profunda, como texto o metáfora, son punto de partida y tratan de dar sentido a la experiencia humana y hacen visible lo abstracto.
Conclusiones
La divulgación de la física sobre el tema de la gravitación en náhuatl se ha realizado desde un proceso histórico, en un lenguaje que emplea vocablos del idioma náhuatl para significar lo mejor posible los conceptos físicos dichos en español y en la composición de nuevas palabras en el idioma náhuatl (neologismos) que indican conceptos de la física que no se encuentran originalmente en el náhuatl.
El esfuerzo de traducir al náhuatl el conocimiento científico es sólo un principio para dar a conocer estos saberes a nativos hablantes de dicha lengua, por ello es necesario establecer una pedagogía con base en las ideas de Vygotski, fundamentada en la aplicación simultánea de símbolos verbales y no verbales, como la imagen y el texto en la narración histórica de la gravitación.
El trabajo que nos queda por realizar es visitar las comunidades hablantes de náhuatl para dar a conocer esta propuesta y percatarse de su aceptación, modificación o, inclusive, negación. Enseguida, dar continuidad a la generación de imágenes que den cuenta de los conceptos de la física.
La divulgación del conocimiento científico en idioma náhuatl es un compromiso con las generaciones presentes y futuras que debe llevarse a cabo para resolver una omisión histórica cometida en contra de la sociedad de habla náhuatl.
|
|||||||||||||||||||||||||||||||||||||||||||||
Referencias Bibliográficas
Castorina, José Antonio y Silvia Dubrovsky (comp.). 2004. Psicología, cultura y educación. Perspectivas desde la obra de Vigotsky. Ediciones Novedades Educativas, Buenos Aires.
Costa, Joan y Abraham Moles. 1991. Imagen didáctica. ceac, Barcelona. Escalante Gonzalbo, Pablo. 2010. Los códices mesoamericanos antes y después de la conquista española. Historia de un lenguaje pictográfico. fce, México. García, Enrique. 1999. Neologismos nahuas: incorporación de voces de la vida actual al vocabulario de la lengua azteca. Plaza y Valdés Editores, México. Giménez, Joaquín (coord.). 2009. La proporción: arte y matemáticas. Graó, Barcelona. Gonzalbo, Pilar. 1990. Historia de la educación en la época colonial: el mundo indígena. Colegio de Mexico, Centro de Estudios Históricos, México. Martí, Eduardo y Juan Ignacio Pozo. 2000. “Más allá de las representaciones mentales: adquisición de sistemas externos de representación”, en Infancia y Aprendizaje, núm. 90, pp. 11-30. Tanck de Estrada, Dorothy. 2010. Historia mínima. La educación en México. Colegio de Mexico, México. Vigotsky, Lev. 2001. La imaginación y el arte en la infancia: ensayo psicológico. Ediciones Coyoacán, México. |
|||||||||||||||||||||||||||||||||||||||||||||
_____________________________ |
|||||||||||||||||||||||||||||||||||||||||||||
Alejandro González y Hernández
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Alejandro González y Hernández hizo la licenciatura de física en la Facultad de Ciencias, UNAM y es maestro en enseñanza de las ciencias en la Benemérita Universidad Autónoma de Puebla. Es profesor de tiempo completo en la Facultad de Ciencias, UNAM; imparte asignaturas en la carrera de Física y en la carrera de Ciencias de la Tierra. Ha participado en congresos nacionales e internacionales y es autor de diversos artículos sobre física experimental.
María del Pilar Molina Álvarez
Escuela Nacional Preparatoria-Plantel 5,
Universidad Nacional Autónoma de México.
María del Pilar Molina Álvarez hizo la licenciatura y la maestría en artes visuales en la Escuela Nacional de Artes Plásticas en el plantel Xochimilco y en la Academia de San Carlos de la unam. Es profesora de asignatura, imparte la materia de fotografía en la Escuela Nacional Preparatoria en los planteles 5 y 8 de la UNAM. A participado en exposiciones de arte, así como en congresos nacionales con ponencias sobre educación en arte.
|
|||||||||||||||||||||||||||||||||||||||||||||
_____________________________ | |||||||||||||||||||||||||||||||||||||||||||||
cómo citar este artículo →
González y Hernández, Alejandro y Molina Álvarez, María del Pilar. 2015. Eitliztli, gravitación divulgación de la física en idioma náhuatl. Ciencias, núm. 117, julio-septiembre, pp. 52-61. [En línea].
|
de la solapa |
![]() |
|
||||||||||||
El arte de la aprehensión de las imágenes y el unicornio. Dos pequeñas historias acerca de la cámara fotográfica.
|
![]() |
|||||||||||||
Carlos Jurado.
Universidad de Ciencias y Artes de Chiapas.
Tuxtla Gutiérrez, 2009. |
||||||||||||||
Carlos Jurado se adentró en la fotografía estenopeica
—realizada con cámara de cartón y sin lente— desde 1973 y sobre esta disciplina dice: “… mi actividad profesional es la pintura y con el empleo de la cámara pinhole obtengo resultados que se emparentan con las formas y ambientes que habitualmente manejo. Otra de las ventajas que este proceso me proporciona, es la de elegir y fabricar mis propios formatos sin tener que ajustarme a los convencionales. Por otra parte mi trabajo no sería posible sin la utilización de materiales modernos como películas y papeles. Sin embargo procuro seguir manteniéndome como un aprendiz de alquimista, ya que la fotografía para mí, entre todas sus acepciones, es un acto puro de magia”.
Ante el entusiasmo que le suscitaron estas imágenes experimentales, afloró su capacidad de creador de la palabra, su talento de humorista y su bagaje de lector para crear este extraordinario texto, El arte de la aprensión de las imágenes y el unicornio, a manera de manual, como un tratado de lo que a través de los siglos sustentó el desarrollo de la cámara oscura. No es casual que Carlos Jurado haya elegido al unicornio, animal mitológico elevado hasta lo sublime durante la Edad Media, como la especie con la que se puede fabricar —a partir de su cuerno— la aguja adecuada para crear el minúsculo cíclope que iniciará la multiplicación de las imágenes por los siglos de los siglos. El unicornio ha sido símbolo de la castidad y emblema de la espada o la palabra de Dios; criatura infatigable ante los cazadores, sólo cae rendido ante una virgen. La leyenda dice también que se puede vivir mil años y que es el más noble de los animales. Carece de un perfil fijo y ofrece muchas variaciones, dándose donde hay animales de un solo cuerno, reales o fabulosos, como el pez espada, el rinoceronte, el narval o ciertos dragones míticos. Especial importancia en su iconografía occidental tienen los tapices del unicornio del siglo xv que se encuentran en el Museo Cluny de París, conocidos como la serie de La dama del unicornio donde se muestra a este fabuloso animal con una dama de recatada sensualidad con quien comparte escenas íntimas que aluden a los cinco sentidos. El unicornio tiene las características ideales para que, según el autor de este tratado, el mago Merlín atribuyera a su codiciado cuerno el poder de crear el ojo de “la caja mágica”, es decir de la cámara oscura que reproducirá las imágenes y, a la larga, será también la madre del cinematógrafo. A través de la lente, ese ojo inventado, se pueden reproducir todas las capacidades del ojo humano y más.
Carlos Jurado, pintor, fotógrafo y maestro, fue fundador de la Facultad de Artes Plásticas, de la Licenciatura en Fotografía y del Instituto de Artes Plásticas de la Universidad Veracruzana. Recientemente recibió el título de Doctor Honoris Causa de esta institución académica.
Experimentador infatigable, Carlos Jurado introdujo la cámara estenopeica como práctica creativa en México. Es legendaria su exposición de 1973 en el Instituto Francés de América Latina titulada Antifotografías con cámaras de cartón sin lentes. Esta búsqueda, como todo lo que es realmente creativo, nació de la necesidad del artista de reinventar la evolución de lo que somos y sabemos respecto a la reproducción de las imágenes. Así dio nacimiento a una creación fuera de serie en la fotografía mexicana. El deslumbramiento produjo otro fruto maravilloso, ese libro que ahora reedita la Universidad de Ciencias y Artes de Chiapas, como un homenaje en el ochenta aniversario del autor.
|
||||||||||||||
(Fragmentos de la introducción). | ||||||||||||||
_______________________________________________ | ||||||||||||||
Carlos Jurado | ||||||||||||||
_________________________________________________ | ||||||||||||||
cómo citar este artículo →
Jurado, Carlos. 2015. El arte de la aprehensión de las imágenes y el unicornio, Ciencias, núm. 117, julio-octubre, pp. 76. [En línea].
|
de la pedagogía |
![]() |
|
||||||||||||
La física de los
cromañones
|
![]() |
|||||||||||||
Juan Pablo Cruz Bastida |
||||||||||||||
Esta narración es un modesto homenaje
a Darío Moreno Osorio (1928-2007).
|
||||||||||||||
Hace algunos años, siendo un cándido estudiante
de preparatoria, decidí estudiar física. Mi único pretexto, entonces, era la certeza de que los mecanismos fundamentales del Universo son profundamente apasionantes. En su momento me matriculé en la Facultad de Ciencias de la UNAM, donde tuve la oportunidad de conocer, entre muchos otros físicos excepcionales, a Darío Moreno.
Darío era un profesor poco tradicional, con talento nato para transmitir conceptos complicados de forma directa. Particularmente, usaba historias de cromañones para despertar la intuición física de sus pupilos; a su parecer, la física era más sencilla cuando se pensaba como cromañón. Yo aprendí mecánica clásica al estilo de Darío Moreno, es decir, tuve que saber cómo cazar mamuts con lanzas de sílex y cómo evadir primitivas suegras, antes de pensar en dinámicas y cinemáticas de rígida tradición victoriana.
Ahora, que ya soy parte de la comunidad científica, me doy cuenta que no somos muy distintos a los cromañones de Darío Moreno; muchos de los triunfos de la física moderna fueron cosechados pensando como cromañón. Por ejemplo, el físico alemán Max Planck resolvió algunas preguntas sobre el comportamiento de la luz al redefinirla como partícula (el fotón). En otras palabras, la elegante y antigua idea de la luz como una onda electromagnética fue desafiada sosteniendo que más bien era una piedra de energía, cuya física no era ajena a las leyes de movimiento de las lanzas y otros proyectiles. La idea cautivó de inmediato a los científicos de la época (que tal vez sintieron nostalgia por sus orígenes cromañones), desencadenando una revolución intelectual sin precedentes: la mecánica cuántica. Otro caso notable es el estudio de la estructura de la materia. Ante la duda, los cromañones lanzaban piedras a los objetos desconocidos; dependiendo del destino de la sonda podía llegarse a conclusiones sencillas sin necesidad de arriesgarse. Fue así como algunas cuevas con osos y ciertas fosas profundas fueron identificadas y evitadas (o al menos eso me contó Darío). Este método, aunque sencillo, constituye la trama del descubrimiento de las partículas subatómicas. Desde los tiempos del físico británico Thomson, muchos laboratorios han construido potentes “hondas” de piedras microscópicas, para poder bombardear el átomo y despojarlo de sus secretos.
Lo que es más, la construcción de dichas “hondas-microscópicas” (elegantemente llamadas aceleradores de partículas) ha logrado unir a las naciones, superando ideologías y querellas del pasado. La Organización Europea para la Investigación Nuclear (cern, por sus siglas en francés) coordina desde 1998 el esfuerzo de cerca de cincuenta países, entre ellos México, para construir la “honda” más potente de todas: el Gran Colisionador de Hadrones (lhc, por sus siglas en inglés) y explorar con ella el núcleo atómico. El objetivo primordial del proyecto es hallar la piedra angular del Universo; aquella responsable de que existan el resto de las piedras y cuya importancia hizo que los teóricos la nombraran “partícula de Dios” (el bosón de Higgs).
Actualmente, pensar como cromañón ha superado la frontera de la física: el lanzamiento de fotones es una práctica común en medicina. Con esto es posible, en forma no invasiva, observar el interior de las estructuras del cuerpo y algunos de sus procesos fisiológicos. Incluso la lucha contra el cáncer se ha beneficiado de este enfoque; fotones de altísima energía son lanzados contra el cangrejo adversario, con la esperanza de que algún día termine la batalla y nuestras “hondas” de fotones se vistan de vasta gloria.
Por todo esto, creo que Darío fue sabio enseñando física. Aquel día que llegué a su curso de mecánica, ansioso de respuestas matemáticamente formales, hizo bien en tomarse el tiempo de enseñarme, primero, a pensar como cromañón. |
||||||||||||||
_______________________________________________ | ||||||||||||||
Juan Pablo Cruz Bastida
Instituto de Física,
Universidad Nacional Autónoma de México.
|
||||||||||||||
_________________________________________________ | ||||||||||||||
cómo citar este artículo →
Cruz Bastida, Juan Pablo. 2015. La física de los cromoñones. Ciencias, núm. 117, julio-septiembre, pp. 12-13. [En línea].
|
del cosmos |
![]() |
|
||||||||||||||||||||||||||||
La química y
las moléculas
interestelares
|
![]() |
|||||||||||||||||||||||||||||
Alicia Negrón, Sergio Ramos y Fernando Mosqueira |
||||||||||||||||||||||||||||||
En 1968 se detectó en el espacio una molécula
poliatómica: el amoníaco (NH3). Desde entonces, muchas otras moléculas poliatómicas se han identificado. De acuerdo con cálculos teóricos se había predicho que estas moléculas (que presentan tres o más átomos unidos entre sí) no podrían sobrevivir en el medio interestelar. Sin embargo, existe en ese medio una gran abundancia y variedad de moléculas. La más abundante y simple es la del hidrógeno (H2), y las más complejas se localizan únicamente en las regiones más densas, aunque moléculas polares como el monóxido de carbono (CO) y la especie hidroxilo (OH) están distribuidas ampliamente.
Antes de abordar nuestro tema, definamos el área de estudio de la química interestelar: es la parte de la química que investiga los procesos fisicoquímicos que se presentan en la síntesis, distribución y destrucción de los compuestos orgánicos encontrados en el espacio interestelar.
Las condiciones físicas del espacio interestelar son bastante especiales y diferentes de las que se encuentran en la Tierra. Sus principales características son: 1) baja temperatura, entre 10 y 100 K; 2) baja densidad, pues se piensa que el gas interestelar tiene una densidad promedio de unas cuantas partículas por centímetro cúbico; y 3) es un medio nada homogéneo.
Las moléculas mencionadas se observan en regiones conocidas como nubes interestelares, las cuales se dividen en dos tipos: las nubes difusas y las nubes densas (cuadro 1). Además, se encuentran en partículas sólidas llamadas polvo o granos.
Se han utilizado tres enfoques diferentes para el estudio de las moléculas interestelares: el análisis observacional, los modelos teóricos y las simulaciones experimentales.
La pregunta básica que nos planteamos es: dado que se forman moléculas en el espacio interestelar, ¿cuáles son las reacciones químicas que forman y destruyen esas moléculas?
El mecanismo probable para la formación de moléculas incluye diversos procesos que se llevan a cabo en: 1) la fase gaseosa; 2) la superficie de los granos de polvo y; 3) los fenómenos fotoquímicos que ocurren en esos granos.
Generalmente se acepta que las moléculas interestelares se forman a partir de componentes simples, mediante un proceso de síntesis, en lugar de suponer que proceden de la degradación de sistemas más complicados. Tanto las reacciones en superficie como en fase gaseosa son importantes en la química interestelar. Si suponemos que las reacciones químicas en un gas serán favorables según su abundancia cósmica, predominaría entonces el hidrógeno. Los otros elementos químicos importantes, tales como el carbono, nitrógeno y oxígeno, estarán presentes aproximadamente en 0.1% con relación al hidrógeno.
El medio interestelar podría ser visto como un laboratorio inmenso, en donde las reacciones se llevan a cabo en una variedad de condiciones. En general, aquí las escalas de tiempo son enormes en comparación con las usadas en el laboratorio. Tales sujeciones han conducido a proponer un modelo de síntesis en las nubes densas, en donde las reacciones se inician por colisiones de los rayos cósmicos con el hidrógeno y el helio. Estos choques producen especies reactivas y cargadas positivamente que inician reacciones en cadena, produciendo las moléculas observadas.
Reacciones en fase gaseosa
Con base en consideraciones termodinámicas y cinéticas, existen algunas sujeciones para reacciones en fase gaseosa: a) se excluyen las reacciones endotérmicas debido a las bajas temperaturas del espacio interestelar, o sea, sería muy difícil concebir reacciones químicas que requieran un aporte de energía para que se lleven a cabo; b) están restringidas a colisiones bimoleculares, esto es, que el número de moléculas participantes sea dos; y c) no se llevan a cabo las reacciones que tiene una barrera de activación alta, es decir, la energía que deben tener las moléculas para que puedan pasar de reactivos a productos (mientras más grande sea, más difícil será que ocurra). El curso de una reacción, esto es, cómo va ocurriendo la reacción química, lo que los químicos llaman el eje de coordenada de reacción, va acompañada por un máximo de energía, que es la energía de activación (figura 1). Hay varios tipos de reacciones químicas que pueden llevarse a cabo en fase gaseosa en el espacio interestelar. Una de las más importantes es la reacción del tipo ion-molécula, que a continuación se describe.
Reacciones ion-molécula
Las colisiones ion-molécula son muy efectivas para formar moléculas nuevas. Para iniciar una reacción se necesita de la molécula y del ion. Cuando chocan un ion y una molécula neutra, la probabilidad de reacción es muy alta. Entre ellas se establece una interacción aun a distancias relativamente grandes por efecto de la polarización inducida por el ion sobre la molécula. En casi todas las condiciones astronómicas, la molécula de H2 interviene en el primer paso de la reacción. Una vez que dicha molécula está disponible, entonces la efectividad de la interacción ion-molécula dependerá de la velocidad a la cual los iones puedan producirse. La ionización puede originarse de varias maneras, ya sea a partir de radiación ultravioleta o cósmica, dependiendo del tipo de nube donde se produzcan. Por ejemplo, los rayos cósmicos —constituidos principalmente de protones energéticos— que chocan con átomos o moléculas desprenden un electrón. Mediante reacciones ion-molécula se ha podido explicar la formación de muchas moléculas interestelares. Este tipo de reacciones satisface las condiciones para que se lleven a cabo en el espacio. Por ejemplo la interacción de los rayos cósmicos con hidrógeno molecular produce iones positivos: H2 + rayos cósmicos → H2+ + e–.
En el caso de nubes difusas, la radiación ultravioleta con longitud de onda alrededor de 100 nm puede ionizar algunos átomos, por ejemplo: C + radiación → C+ + e–.
Una vez formados los iones C+ y H2+, éstos pueden reaccionar con otras moléculas neutras, las cuales pueden ser más complejas. Este tipo de reacciones las podemos ilustrar como sigue, en donde A+ y BC son átomos o moléculas sencillas que forman C y AB+: A+ + BC → AB+ + C. Éste sería el tipo de reacciones donde participa el hidrógeno: H2+ + H2 H3+ + H.
Las especies neutras tienen una mayor afinidad por los protones, por lo que serán protonadas mediante una reacción rápida: H3+ + A → HA+ + H2.
Esta reacción ocurre hasta que la especie A tenga el máximo número de protones posible de acuerdo con el átomo en cuestión. Otro ejemplo muy importante que ocurre en las nubes densas es la ionización del helio de acuerdo con la siguiente reacción: He + rayos cósmicos He+.
El He+ puede destruir las especies naturales más estables, vía la transferencia de carga. Un ejemplo típico es: He+ + CO → C+ + O + He.
Esta reacción es importante como una fuente de C+ en las nubes densas, porque el C+ no se fotoioniza en estas regiones. Para ilustrar la formación y destrucción de una molécula compleja, tomemos el caso del agua. La secuencia de reacciones ion-molécula son las siguientes:
H2+ + H2 → H3+ + H
H3+ + O → OH+ + H2 OH+ + H2 → OH2+ + H OH2+ + H2 → OH3+ + H 2OH3+ + e– → H2O + H + OH + H2 H2O + iones → productos Por este tipo de reacciones se puede explicar la formación de moléculas más complejas. Así, en el espacio interestelar y circunestelares se han detectado 160 moléculas.
Catálisis en los granos
Otra vía en la formación de moléculas poliatómicas es el mecanismo de catálisis heterogénea sobre la superficie del polvo interestelar. Las etapas de formación de moléculas interestelares en los granos son las siguientes: a) la adsorción de los átomos de la fase gaseosa sobre la superficie del grano; b) formación de enlaces químicos si las dos especies adsorbidas entran en contacto; y c) la molécula formada se desprende del grano. En la superficie de los granos, dos átomos A y B estarán sujetos suficiente tiempo para que ocurra una reacción. Parte de la energía liberada al formarse el producto lo absorberá el grano. A esta clase de catálisis se debe la formación del hidrógeno molecular. Una vez formada esta molécula, participará en una gran variedad de reacciones en la fase gaseosa. Sin embargo, existen algunos problemas para explicar la formación de moléculas más pesadas, ya que éstas se adsorben intensamente y no saldrían fácilmente.
Algunos problemas
El enfoque teórico para estudiar la química interestelar tiene que resolver los siguientes problemas: a) se requieren más datos acerca de las constantes de reacción de las reacciones ion-molécula y faltan muchos datos experimentales para tener los valores de varias reacciones; b) los modelos teóricos sólo consideran los elementos químicos más abundantes; c) se necesita conocer las constantes de decaimiento de radiación de moléculas excitadas para realizar cálculos; y d) se requiere hacer mejores modelos para los procesos que ocurren en la superficie de los granos.
En cuanto a las dificultades del enfoque experimental podemos enumerar las siguientes: a) se requiere espectroscopía de laboratorio en la fase gaseosa para expandir la capacidad de identificación de moléculas en el espacio interestelar; b) más estudios de simulación en el laboratorio con los granos; c) determinar las constantes de reacción para las reacciones ion-molécula en la fase gaseosa; y d) son escasos los estudios de recombinación, fraccionamiento isotópico y de asociación radioactiva. Puesto que las reacciones en la superficie del grano se deben a las interacciones gas-grano y al almacenamiento de radicales libres en los mismos granos, se requiere un conocimiento más profundo de estos procesos.
Comentarios finales
Tanto las reacciones en la fase gaseosa como las catalizadas en superficie son muy importantes en la síntesis de moléculas poliatómicas en las nubes interestelares. Es por tanto importante reconocer que se lleva a cabo una intensa química en todo el cosmos. La materia orgánica formada constituye un récord molecular e isotópico de los materiales y procesos involucrados en su formación. Por otra parte, las escalas de tiempo son largas en comparación con las de laboratorio.
De una manera similar a como la evolución biológica implica que todos los organismos en la Tierra tienen un ancestro común, así la evolución química implica que toda la materia en nuestro sistema solar tuvo un origen común, pero se ha transformado. Las moléculas interestelares son la prueba de que las reacciones con compuestos orgánicos se están llevando a cabo en el Universo. Esta evolución cosmoquímica implica que en toda la materia se está realizando una transformación común, en donde la formación de estas moléculas participan las reacciones en la fase gaseosa y las catalizadas en los granos.
Agradecimientos
Los autores reconocen el apoyo de papiit para el proyecto IN110712-3 y de conacyt con el proyecto 168579/11.
|
||||||||||||||||||||||||||||||
Referencias bibliográficas
Duley, W. W. y D. A. Williams. 1985. Interstellar Chemistry. Academic Press, Nueva York.
Green, Sheldon. 1981. “Interstellar Chemistry: Exotic Molecules in Space”, en Annual Review of Physical Chemestry, vol. 32, pp. 103-138. Hartquist, T. W. y D. A. Williams. 1959. The Chemically Controlled Cosmos. Cambridge University Press, Nueva York. Watson, W. D. 1976. “Interstellar Molecule Reactions”, en Reviews of Modern Physics, vol. 48, pp. 513-552. en la red
www.cv.nrao.edu
|
||||||||||||||||||||||||||||||
_______________________________________________ | ||||||||||||||||||||||||||||||
Alicia Negrón Mendoza, Sergio Ramos Bernal
Instituto de Ciencias Nucleares,
Universidad Nacional Autónoma de México.
Fernando Guillermo Mosqueira Pérez Salazar
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
|
||||||||||||||||||||||||||||||
_________________________________________________ | ||||||||||||||||||||||||||||||
cómo citar este artículo →
Negrón Mendoza, Alicia; Ramos Bernal, Sergio y Mosqueira Pérez Salazar, Fernando Guillermo. 2015. La química y las moléculas interesterales. Ciencias, núm. 117, julio-octubre, pp. 26-27. [En línea].
|
![]() |
![]() |
|
|||||||||
José Luis Álvarez García y Damián Flores Sánchez |
|||||||||||
He conocido a algunos
que no podían entender que al restar cuatro de cero quede cero. Pascal
|
![]() |
La relación entre física y matemáticas a lo largo de la historia: de Pitágoras a Galileo (parte I) | |||||||||
Con el advenimiento del cristianismo como religión del
Estado romano en el siglo IV, el proceso del conocimiento sufrió un doloroso retroceso en el mundo europeo; por el contrario, a partir del siglo vii el mundo musulmán convirtió a Bagdad, Damasco y Córdoba en centros culturales en los que se preservó y desarrolló el saber de la Antigüedad clásica. En este periodo el estudio de las matemáticas se enfocó en la geometría y el álgebra; respecto a la física, el desarrollo se dio en la astronomía, que seguía siendo considerada parte de las matemáticas. El Almagesto, que es un tratado de astronomía matemática, llevaba el título original griego de Mathematike sintaxis y en un principio se le conoció como Megale sintaxis (la gran colección), pero llegó a ser tan importante que se le llamó Megiste sintaxis (la grandísima colección).
Los astrónomos árabes adoptaron el paradigma ptolomeico. La obra de Al-Farghani (805-880) llegó a ser una de las principales fuentes de la astronomía ptolomeica hasta el Renacimiento. El más famoso de ellos fue Al-Batani (858-929), quien en el siglo ix simpatizaba con la obra de Ptolomeo. Ibn Al-Haytam (962-1037), matemático y físico, apodado Ptolomeo II, introdujo el concepto aristotélico “esferas celestes” en sus investigaciones astronómicas. La sistematización definitiva de la sabiduría musulmana está representada por Ibn Sina o Avicenas (980-1037); y el punto más alto del aporte árabe se dio en Córdoba con la obra de Ibn Rushd o Averroes (1126-1198).
No sólo era posible leer el Almagesto en árabe y los tratados que derivaban de él, sino que los astrónomos musulmanes pronto estuvieron capacitados para hacer una crítica a las ideas de Ptolomeo, pues en la medida en que los datos astronómicos se volvían más numerosos y precisos, era más difícil conciliarlos con las teorías. Durante el siglo xii el filósofo Ibn Bayya puso de manifiesto estas dificultades; lo que hizo también Jabir Ibn Aflah en el tratado Islah al-Mayisti (La rectificación del Almagesto). Averroes, convencido de las imprecisiones y complejidades innecesarias del modelo ptolomeico, expresó: “la astronomía ptolomeica nada tiene que ver con lo existente, pero es útil para calcular lo no existente”. Con esta afirmación hacía patente el creciente descontento que había entre los astrónomos musulmanes con el sistema ptolomeico, iniciándose la crisis de este paradigma. En ese siglo, astrónomos musulmanes como Ibn Tufail y su discípulo Al-Bitruyi, creyeron resolver las dificultades rechazando las excéntricas y los epiciclos de Ptolomeo y volvieron a la teoría de las esferas homocéntricas de Eudoxo.
En cuanto a las matemáticas estudiadas por los árabes (en ramas distintas a la astronomía), el desarrollo se dio en la geometría y en el álgebra de manera desigual (esta última apareció como una ampliación de la aritmética); en la geometría el modelo a seguir no podía ser otro que Euclides. El siglo ix fue particularmente fructífero gracias a las obras de Al-Kindi, quien además se interesó por la óptica y sus estudios en matemáticas se extendieron a campos que no había considerado Euclides, como la numeración hindú. Otro matemático de la misma época fue Muhammad Ibn Musa. El primero que hizo la traducción al árabe de los Elementos fue Al-Hayyay Ibn Yusuf, quien realizó la traducción para el califa Harun Al-Rasid, famoso por las frecuentes menciones que se hacen de él en Las mil y una noches. Durante los doscientos cincuenta años siguientes, los matemáticos árabes se apegaron estrechamente a lo dicho por Euclides y sacaron a la luz otras traducciones y numerosos comentarios. En el primer cuarto del siglo x, Ibn Yaqub Al-Dimasqui dio un gran paso en el estudio de Euclides al traducir el Libro x.
En cuanto al álgebra, los hindúes y árabes que tomaron el relevo de las matemáticas después de la destrucción de Alejandría, violaron el concepto axiomático-deductivo que los griegos tenían de las matemáticas; utilizaron fracciones y enteros, y también emplearon sin vacilación números irracionales, de hecho, introdujeron reglas para operar con estos números pero su fundamentación no era lógica-deductiva sino por analogía. Señalaban que los radicales podían manejarse como los números enteros y no tuvieron las preocupaciones lógicas de los griegos y, a pesar de que cometieron errores al aplicar despreocupadamente las reglas de los racionales a los irracionales, contribuyeron al desarrollo de las matemáticas, pues toda su aritmética era independiente de la geometría.
Los hindúes acrecentaron los infortunios lógicos de las matemáticas al introducir los números negativos para representar las deudas (los positivos representaban los activos); hicieron también algunos progresos en álgebra, pues utilizaron abreviaturas de palabras y unos pocos símbolos para describir operaciones e incógnitas. Aunque no muy extenso, su simbolismo fue superior al de Diofanto, ya que tuvieron buenas ideas como la utilización de símbolos distintos para los números del uno al nueve, la conversión de la notación posicional de base 60 a base 10, los números negativos y el reconocimiento del cero como un nuevo número.
Los astrónomos árabes se sujetaron a la tradición instrumentalista de Ptolomeo, pero se percataron de las anomalías que presentaba este paradigma, lo que los obligó a dirigirse hacia una solución realista. Mejoraron los calendarios fundados en la astronomía ptolomeica y elaboraron eficaces tablas planetarias y afinaron los modelos del Universo aristotélico y ptolomeico antes de percatarse de la inexactitud y complejidad exagerada de este último. La preservación que los musulmanes hicieron de la ciencia antigua fue fundamental, pues eso permitió que posteriormente Occidente pudiera recuperarla.
En este periodo, la relación entre la física y las matemáticas en la cultura árabe se dio a través del Almagesto, en el cual la astronomía está supeditada totalmente a la geometría del círculo y la esfera; continuaba siendo una astronomía matemática.
La Edad Media
A partir del siglo XII las obras de Arquímedes, Euclides, Herón, Aristóteles y Ptolomeo llegaron a Europa. En este siglo, con la fundación de diversas universidades, el Occidente cristiano recuperó la obra de Aristóteles pero adecuada a su dogma, y así se convirtió en el centro de la cultura. En lo que a cosmología y astronomía se refiere, los paradigmas aristotélico y ptolomeico fueron asumidos plenamente, tamizados por la perspectiva cristiana.
El paradigma ptolomeico volvió a afirmarse a partir del siglo xiii por medio del Almagesto, ya que no existía otra teoría tan amplia y detallada; pero después nació una vigorosa corriente de crítica y oposición que había sido anunciada por los árabes y había quedado interrumpida.
El tratado Sobre el cielo de Aristóteles describía la globalidad del Universo en términos relativamente simples; el Almagesto se ocupaba casi exclusivamente del cálculo matemático de las posiciones planetarias y éste se correspondía perfectamente con la cosmología aristotélica. Las obras de estos filósofos se tradujeron hacia finales del siglo xii, pero hasta mediados del xv los europeos no produjeron una tradición propia capaz de rivalizar con la obra de Ptolomeo.
En lo que respecta a las matemáticas y a la física (fenómenos del movimiento), los eruditos medievales analizaron los textos aristotélicos y comenzaron el estudio del movimiento en los siglos xiii y xiv, fundamentalmente en el Merton College de la Universidad de Oxford y en la Universidad de París. En Oxford trabajaron en ello Robert Grosseteste (1175-1253), Roger Bacon (1214-1294), Thomas Bradwardine (1290-1349) y William Heytesbury (1313-1372); en París, Jean Buridan (1295-1358), Alberto de Sajonia (1316-1390) y Nicolás de Oresme (1323-1382). Los estudios matemáticos relativos al movimiento fueron realizados como ejercicios, es decir, como simples posibilidades en el terreno de la lógica, sin ser considerados jamás como hipótesis verdaderas acerca del mundo físico. Estos análisis llevados a cabo por mertonianos y parisinos fueron realizados dentro de la más estricta tradición escolástica y sin abandonar los fundamentos de la doctrina de Aristóteles, eran críticas a la explicación de los fenómenos del lanzamiento de proyectiles y a la caída libre, en particular, donde señalaban que matemáticas y física eran géneros diferentes y era imposible mezclarlos.
En el siglo vi, Juan Filopón retoma el concepto de impetus de Hiparco, como crítica y explicación alternativa a las teorías aristotélicas sobre el lanzamiento de proyectiles y caída de los cuerpos. La teoría del impetus fue utilizada por Jean Buridan y sus ideas son extendidas y profundizadas por su discípulo, Nicolás de Oresme, quien critíca la refutación que hace Aristóteles de la teoría de Heráclides, que explicaba el movimiento diario de las estrellas mediante la rotación de una Tierra central. Oresme no cree en la rotación de la Tierra, solamente señala que ningún argumento lógico, físico o incluso bíblico puede refutar la posibilidad de una Tierra en rotación. Oresme estudió la comprobación de las demostraciones aristotélicas y buscó nuevas doctrinas alternativas, que generalmente se descartaban una vez que se había demostrado su posibilidad lógica.
Al final del siglo XIV, una versión de la teoría del impetus, similar a la expuesta por Buridan y Oresme, había reemplazado la defectuosa explicación aristotélica del lanzamiento de proyectiles en prácticamente todas las obras científicas medievales. Así se enseñaba en Padua, cuando Copérnico fue a la universidad y Galileo la aprendió en Pisa de su maestro Bonamico (1565-1603). Esta teoría jugó un importante papel en la revolución copernicana y aparece en casi todos los argumentos en donde se considera como posible el movimiento terrestre, sin que los cuerpos lanzados desde la superficie de la Tierra se queden atrás. También en Inglaterra, en el Merton College de Oxford, con base en la teoría del impetus se desarrollaron alternativas para la explicación del movimiento. Durante el siglo xiv, tanto en Oxford como en París, se tenía una marcada actitud empírica y se realizaban elaborados cálculos matemáticos. Conceptos y definiciones básicas en este campo (que muchos atribuyen a Galileo) fueron establecidas por mertonianos y parisinos. En Oxford se manejaban definiciones de movimiento con rapidez uniforme y uniformemente acelerado, tal y como fueron adoptadas más tarde por Galileo. También aparece la definición de velocidad instantánea, casi exactamente igual a la utilizada por el físico italiano tres siglos más tarde. La famosa “regla mertoniana” o “teorema de la velocidad media” fue establecida allí, y es considerada como la más simple y primordial contribución de la ciencia medieval a la física. Una demostración original de este teorema fue realizada por Oresme alrededor de 1350 y señalaba que: “un cuerpo que se mueve uniformemente adquiriendo o perdiendo un determinado incremento [de rapidez] recorrerá en algún tiempo dado una distancia completamente igual a aquella que debería recorrer si se estuviera moviendo con rapidez uniforme durante el mismo tiempo con el grado medio [de velocidad]”.
Los siglos xiii y xiv contribuyeron a un progreso de la lógica y las matemáticas, pero faltaban dos elementos necesarios para dar a la ciencia un avance decisivo: emancipar por completo el cálculo del lenguaje cotidiano y romper totalmente con la concepción cualitativa de la ciencia.
El Renacimiento
El Almagesto seguía siendo “la biblia” de la astronomía hasta principios del siglo xvii, pues no existía otra obra que fuera tan amplia y detallada como ésta, pero en el siglo xv se manifestó una abierta rebelión debida al descontento que provocaba entre los astrónomos la imprecisión y extremada complejidad de este paradigma ptolemeico.
Esta rebelión aparece abiertamente en la obra de Nicolás de Cusa (1401- 1464), que fue el primero en oponerse a la estructura del Universo medieval. En su De docta ignorantia, escrita en 1440 e impresa en 1514, afirmó que el mundo no tenía límites ni periferia ni centro. El mundo no era infinito, sino “tan sólo indeterminado”. Nicolás de Cusa no era un astrónomo de profesión y no construyó ningún sistema, pero su doctrina confirma que mucho antes que Copérnico ya era seriamente cuestionada la cosmología aristotélica y el modelo ptolomeico.
Otros que conocían la obra del cusano fueron el astrónomo alemán Georg von Peuerbach (1423-1461) y su discípulo Johann Müller (1436-1476), quienes fueron figuras de transición y suscitaron en Europa la renovación de la astronomía como ciencia exacta.
En 1543, Copérnico recibe en su lecho de muerte un ejemplar de el De revolutionibus orbium coelestium. Pasarían cerca de cincuenta años sin que esta obra provocara la menor conmoción en la sociedad, y sólo hasta entonces el modelo copernicano empezaría a popularizarse y a establecerse definitivamente.
El paradigma ptolomeico estaba íntimamente relacionado con el aristotélico y este último comprendía una cosmología que correspondía con una física particular; por lo tanto, para poder establecer el modelo heliocéntrico de Copérnico era necesario elaborar una física del movimiento acorde con la idea de una Tierra móvil alrededor del Sol.
La astronomía se fue alejando de su concepción instrumentalista, debido a los desacuerdos que había entre las observaciones y la teoría pero, sobre todo, a la ya mencionada complejidad exagerada que presentaba. La lucha por el establecimiento del modelo heliocéntrico se dio en dos frentes del conocimiento científico: en la astronomía y en la física del movimiento.
En lo que respecta a las matemáticas, cuando los europeos de la baja Edad Media y del Renacimiento recuperaron el conocimiento clásico enfrentaron el dilema planteado por los dos tipos de matemáticas: las auténticas parecían ser las de la geometría deductiva de los griegos, pero no podían negar la utilidad y eficacia de la aritmética y el álgebra que se venía desarrollando, los cuales, por su parte, no tenían una fundamentación lógica.
El primer problema que enfrentaron fue el de qué hacer con los irracionales. El matemático italiano Luca Pacioli (1445-1514), el monje alemán y profesor de matemáticas Michael Stifel (1486-1567), el físico, matemático y erudito Jerome Cardan (1501-1576)y el ingeniero militar Simon Stevin (1548-1620) utilizaron los números irracionales siguiendo la tradición de los hindúes y los árabes e introdujeron más y más elementos a esta clase de números. François Viète (1540-1603) realizó aproximaciones para el número por medio de polígonos regulares de 4, 8, 16,... lados inscritos en un círculo de radio unitario. Los números irracionales fueron usados libremente en una de las nuevas creaciones del Renacimiento: los logaritmos, inventados por John Napier (1550-1617), que fueron bien recibidos por el resto de los matemáticos debido al ahorro de trabajo que aportaban, aun cuando los logaritmos de los números positivos son en su mayoría irracionales. Los cálculos con irracionales fueron muy utilizados, pero el problema de si eran realmente números preocupaba a algunos que trabajaban con ellos.
Los europeos tuvieron también que enfrentarse a los números negativos, pues los llegaron a conocer por medio de los textos árabes, pero la mayor parte de los matemáticos de los siglos xvi y xvii no los aceptaron como números o no los consideraban como raíces de ecuaciones. Nicolás Chuquet y Michael Stifel en el siglo xvi se referían a ellos como números absurdos. Cardan planteó números negativos como raíces de ecuaciones, pero los consideraba soluciones imposibles, meros símbolos, por lo que las llamó soluciones ficticias, mientras a las positivas las nombró reales.
Uno de los primeros algebristas que colocó un número negativo dentro de una ecuación fue el astrónomo Thomas Harriot (1560-1621), quien no aceptaba las raíces negativas y “demostró” que tales raíces eran imposibles. Rafael Bombelli, en el siglo xvi, dio definiciones bastante claras de los números negativos pero no pudo justificar las reglas de las operaciones, pues todavía no se disponía de la fundamentación necesaria, incluso para los positivos. Por otro lado, Michael Stevin utilizó coeficientes positivos y negativos en las ecuaciones y aceptó las raíces negativas.
En general, no fueron muchos los matemáticos de los siglos xvi y xvii que se sintieron cómodos con los números negativos o los aceptaron y, por supuesto, no los reconocieron como soluciones o verdaderas raíces de las ecuaciones. Incluso ya en pleno siglo xvii, Pascal (1623-1662) consideraba la sustracción de cuatro a cero como un absurdo.
Bombelli y Stevin propusieron una representación que contribuyó a la aceptación final del sistema completo de los números reales. Bombelli supuso que existe una correspondencia exacta entre los números reales y los segmentos sobre una recta (habiendo elegido una unidad) y definió para las longitudes las cuatro operaciones básicas. Consideraba los números reales y sus formas de operar como definidos por esas longitudes y las correspondientes operaciones geométricas. De esta forma, el sistema de los números reales fue racionalizado sobre bases geométricas.
Sin haber resuelto todavía sus dificultades con los números irracionales y los negativos, los europeos aumentaron su pesada carga al tropezar con los que hoy conocemos como números complejos. Éstos también fueron objeto de incomprensión durante algún tiempo, incluso por los más ilustres pensadores como Leibnitz y Newton.
Durante los siglos en que los europeos lucharon por entender los distintos tipos de números, surgió otro problema lógico de importancia: el de aportar al álgebra una fundamentación lógica. El primer libro que organizó de forma significativa los nuevos resultados fue el Ars magna de Cardan, en el cual mostraba cómo resolver ecuaciones particulares de tercer y cuarto grado. Otro algebrista que había desarrollado fórmulas para resolver una clase particular de ecuaciones de tercer grado fue Niccolo Fontana, mejor conocido como Tartaglia (Tartamudo). El Tartamudo era también hábil para solucionar ecuaciones algebraicas y participaba en competencias para resolverlas; también se interesó en problemas físicos de artillería. Durante unos cien años fueron añadiéndose al cuerpo del álgebra una gran cantidad de resultados sin demostraciones, sugeridos por ejemplos concretos.
Hasta antes del trabajo de Vieta, los matemáticos resolvían ecuaciones lineales, cuadráticas, de tercer y cuarto grado con coeficientes numéricos particulares, y eran consideradas diferentes unas de las otras. Por tanto, había muchos tipos de ecuaciones del mismo grado y cada una era tratada por separado. La aportación de Vieta consistió en introducir coeficientes literales, de esta forma todas las ecuaciones del mismo grado, podían ser tratadas de una sola vez. Vieta llamó a su nueva álgebra logistica speciosa (cálculo con letras), en contraposición a la logistica numerosa (cálculo con números), distinción con la que trazó la línea entre la aritmética y el álgebra. Sin embargo, aún no se definían bien ni se aceptaban todos los distintos tipos de números, así que su aportación fue de una generalidad limitada. El mismo Vieta rechazó los números negativos y los complejos. Las reglas de las operaciones para los números negativos existían desde hacía unos ochocientos años y daban resultados correctos. Vieta no podía oponerse a esas reglas, porque eso era más o menos todo lo que el álgebra tenía que ofrecer en esa época, pero éstas carecían del significado intuitivo y físico que poseían los positivos. Parece claro que no era la lógica sino la intuición la que determinaba lo que los matemáticos estaban dispuestos a aceptar. Fue hasta 1657 cuando Johann Hudde (1633-1704) aceptó que estos coeficientes literales representaban tanto números negativos como positivos. A partir de ese momento, la mayoría de los matemáticos lo hicieron sin reserva.
La segunda innovación que dio impulso al álgebra fue el uso de fórmulas algebraicas para representar en la física cantidades relacionadas entre sí. El brío del álgebra fue pronto reconocido hasta tal punto que los matemáticos comenzaron a usarla ampliamente y pasó a ocupar una posición preponderante sobre la geometría.
Kepler
“Johannes Kepler, Keppler, Khepler, Kheppler o Keplerus, fue concebido el 16 de mayo de 1571 a las 4:37 de la mañana y nació el 27 de diciembre a las 2:30 de la tarde, después de un embarazo que duró 224 días, 9 horas y 53 minutos”. Así empieza la biografía que Arthur Koestler realiza del gran astrónomo alemán, quien elaboró su propio horóscopo, y en el cual resalta la importancia que tenían para él los números y la precisión, mostrando además que creía que la realidad última, la verdad y la belleza radicaba en el lenguaje de los números, contrastando con la forma imprecisa de escribir su nombre.
Kepler se graduó en la Universidad de Tübingen, en la Facultad de Artes, a la edad de veinte años. Ahí conoció a Michael Maestlin, su profesor de astronomía, quien lo inició en el estudio de la obra de Copérnico. A la edad de veinticuatro años, en julio de 1595, en Gratz, se le aparece como una auténtica revelación divina que el Universo está construido con base en ciertas figuras geométricas. Los sólidos perfectos o pitagóricos: tetraedro, cubo, octaedro, dodecaedro e icosaedro. Dado que son simétricos, cada uno puede ser inscrito dentro de una esfera, de modo que sus vértices se apoyen en la superficie de la misma. Del mismo modo, cada uno de ellos puede ser circunscrito en torno a una esfera, de forma que ésta toque el centro de cada una de las caras del sólido correspondiente. Euclides había demostrado que sólo pueden ser construidos esos cinco sólidos con esas características. En aquel entonces sólo se conocían seis planetas (Mercurio, Venus, Tierra, Marte, Júpiter y Saturno) entre cuyos espacios —pensó Kepler— se podían insertar los cinco sólidos pitagóricos. Para él era muy difícil creer que esto fuera producto del azar y no de la disposición divina. Esta coincidencia respondía a que sólo había seis planetas conocidos y no veinte o cien, también permitía comprender el porqué de las distancias entre las órbitas planetarias; éstas debían estar dispuestas de tal manera que los cinco sólidos pudieran encajar perfectamente dentro de ellas. Al interior de la órbita o esfera de Saturno, Kepler inscribió un cubo, y dentro del cubo otra esfera, que era la de Júpiter; inscrita en ésta se hallaba el tetraedro e inscrita en él la esfera de Marte. Entre las esferas de Marte y la Tierra estaba el dodecaedro; entre la Tierra y Venus el icosaedro; entre Venus y Mercurio estaba el octaedro. El misterio del Universo había sido resuelto por el joven Kepler y así lo expresa en el Mysterium Cosmographycum.
Kepler estaba convencido de la realidad de su anhelo y empezó a trabajar para hallar los datos que lo comprobarían; sin embargo, éstos no encajaban con su modelo. En un principio lo atribuyó a la inexactitud de la información que poseía, provenientes de Copérnico y Ptolomeo; así que desvió su atención hacia otro problema y tuvo una idea que nunca se le había ocurrido a ningún otro astrónomo: buscar una relación matemática entre la distancia que separaba a un planeta del Sol y el tiempo que necesitaba para completar una revolución. Los periodos orbitales se conocían desde la Antigüedad con suficiente precisión y no coincidían con la distancia del planeta al Sol, suponiendo el principio del movimiento orbital con rapidez uniforme. Kepler encontró que los planetas se movían más deprisa cuando se encontraban más cerca del Sol y su movimiento se tornaba más lento cuando se alejaban, así que se preguntó: ¿por qué esto es así?, ¿por qué había sólo seis planetas? La primera pregunta resultó enormemente fecunda y la segunda científicamente estéril. Se trataba no solamente de describir los movimientos planetarios utilizando algún modelo geométrico, sino también de explicar por qué ocurría de esa manera, es decir, asignarles un origen físico. La respuesta de Kleper fue que la causa radicaba en el Sol, pues obligaba a los planetas a girar en torno suyo; y la razón por la que a veces los planetas se movían más rápido y otras más lento era porque había una resistencia a moverse que radicaba en el planeta mismo. La primera idea es el embrión de la ley de la atracción gravitacional y la segunda de la propiedad de inercia. Esta explicación revela la unión de física y astronomía por medio de las matemáticas después de dos mil años de divorcio.
Volviendo con el problema del ajuste entre los datos observacionales y el modelo de los sólidos pitagóricos, Kepler se dio cuenta que para lograr el ajuste deseado necesitaba tener información confiable, y sólo había un hombre que poseía lo que necesitaba: Tycho Brahe. La unión del trabajo de estos dos hombres dio como resultado el nacimiento de la astronomía moderna. Kepler publica sus tres leyes de los movimientos planetarios en Astronomía nova (primera y segunda) y en Harmonice mundi (tercera).
Kepler es el primer constructor de leyes de la naturaleza, y lo que le permitió lograr eso fue, primero, mantener la creencia de regularidades matemáticas dentro de los movimientos planetarios y, segundo, la introducción de la causalidad física en la geometría formal de los cielos. Mientras que la cosmología estuvo regida por reglas puramente geométricas, independientemente de las causas físicas, las discrepancias entre teoría y hechos podían ser superadas insertando otra rueda dentro del sistema.
Galileo
Al final del siglo xvi, aun con todas las críticas y explicaciones alternativas a la teoría de Aristóteles sobre el movimiento, no existía ninguna teoría que pudiera rivalizar con su interpretación global del Universo. Todas las descripciones alternativas surgieron de los restos del pensamiento aristotélico, desgarrado por la crítica escolástica, y fueron el telón de fondo que posibilitó el desarrollo conceptual en el siglo xvii. Ahora bien, ¿cuál es la diferencia entre lo que hacían los mertonianos y parisinos y la actitud de Galileo (1564-1642), si utilizaban prácticamente las mismas definiciones en sus respectivos análisis del movimiento?
En lo que respecta a los estudios del movimiento, Galileo hizo sus análisis de manera similar a como lo hacían los pensadores medievales con la regla mertoniana de la velocidad media, y utilizó muchas de las argumentaciones hechas por los nominalistas y los filósofos de la teoría del impetus. La diferencia es que cuando Galileo aplicaba la regla mertoniana estaba describiendo cómo caen “realmente” los cuerpos. La naturaleza de la transición que diferenció la revolución científica de la ciencia medieval radica en diversos factores; uno de ellos es fundamental y consiste en el papel que juegan las hipótesis y la explicación en la ciencia. No se trataba de “salvar las apariencias”, sino de plantear hipótesis verdaderas respecto de la realidad del mundo físico. En este sentido, es diferente el uso que hacían los eruditos medievales de las matemáticas (pues sólo eran ejercicios lógicos), del uso que Galileo hace de ellas y que se refieren al mundo físico. También es dispar la actividad empírica que los eruditos medievales realizaban en comparación con la “interrogación metódica” de la naturaleza que realizaba Galileo, que fue la base del experimento moderno.
En la obra de Galileo Galilei se ve reflejado todo el desarrollo de la revolución científica de los siglos xvi y xvii. Tal vez la característica más notable de su obra es que, por un lado, se da en la convergencia de varias tradiciones de pensamiento y, por otro, su obra no obedece a ninguna filosofía previa en particular.
Galileo aporta un espíritu realmente nuevo a la ciencia, al margen de todo esquema preestablecido y, paradójicamente, ésta es la razón por la cual la obra galileana es emparentada con diversas filosofías: la platónica, la aristotélica, la atomista, el empirismo, etcétera. Galileo utilizó muy hábilmente elementos platónicos renacentistas, apeló al “verdadero Aristóteles”, inventó hechos y resultados acordes con el marco teórico que iba desarrollando, recurrió continuamente a la anamnesis platónica y escribió en forma de diálogos su obra de difusión. Todo lo anterior lo realizó de una manera extraordinariamente flexible sin parangón en la historia de la ciencia. La obra galileana, tan vasta y compleja, es utilizada como base o referente de prácticamente cualquier análisis que se haga de las metodologías científicas en la actualidad.
La obra de Galileo presenta múltiples y variados aspectos, y en lo que se refiere a la relación entre física y matemáticas aparece nuevamente la unión entre ambas disciplinas, después de siglos de divorcio impuesto por la filosofía aristotélica. Además, inicia la construcción de una sola física para las regiones terrestre y celeste.
Galileo inicia sus estudios del movimiento en el punto donde habían llegado los seguidores de la teoría del impetus medieval. Concretamente, estudia el fenómeno de la caída de los graves y el lanzamiento de proyectiles. Estaba consciente también de la estrecha relación que había entre física y cosmología; si quería convencer a sus contemporáneos de la teoría heliocéntrica, tenía que construir una física acorde con la idea de una Tierra en movimiento.
Para Galileo, la caída de un cuerpo se efectúa debido a una fuerza constante: su peso (o gravedad); por lo tanto, ésta no puede tener otra velocidad que la constante. La velocidad no está determinada por algo exterior al cuerpo, sino que es algo inherente y propio del objeto. Así, a un cuerpo con mayor peso le corresponde una mayor velocidad y a un cuerpo de menor peso le corresponde una menor velocidad. De esta manera —señala en De Motu— la velocidad de caída de un cuerpo es proporcional a su peso y de un valor constante para cada uno.
Sin embargo, Galileo estaba obligado a reconocer que una piedra que cae lo hace cada vez más rápido y esta aceleración ocurre hasta que el cuerpo adquiere su velocidad característica; a partir de este momento su movimiento se efectúa con una velocidad constante; y esta velocidad está en función del peso, pero no del peso absoluto, sino del peso específico de los cuerpos. Un pedazo de plomo caerá más rápido que uno de madera, y dos pedazos de plomo caerán con igual velocidad. Más aún, Galileo introdujo en su física que no se trata del peso específico absoluto de los cuerpos, sino de su peso específico relativo.
No obstante, Galileo continuó con sus estudios sobre la caída de los cuerpos, la velocidad en ese entonces, no estaba definida por su peso absoluto, sino por el específico y relativo. Estas precisiones le permitieron trascender el aristotelismo y la dinámica del impetus, al hacer la sustitución de la contraposición de cualidades (levedad y gravedad) por una escala cuantitativa y este método le fue proporcionado por la hidrostática de Arquímedes: un trozo de madera que cae en el aire, se elevará si es colocado en el fondo del agua. Así, la fuerza (y la velocidad) con la cual desciende o sube un objeto, está en proporción con la diferencia entre el peso específico del objeto y el peso de un volumen del medio que es desalojado por el mismo cuerpo; concluye que no hay cuerpos leves, todos son graves.
A partir de aquí, Galileo comenzó a construir la nueva física, donde el único movimiento natural que reconoce es el de los cuerpos pesados que son atraídos hacia abajo. La distinción entre peso absoluto y relativo y la repetida afirmación de que la velocidad de caída de un cuerpo está en función de su peso relativo en un medio determinado (y no de su peso absoluto), conduce a la inevitable conclusión de que es en el vacío, y sólo en él, donde los cuerpos tienen un peso absoluto y todos caen con la misma velocidad, ésta es la mitad de la ley de la caída de los cuerpos, la otra mitad es cuando establece que la distancia recorrida es proporcional al cuadrado del tiempo, relacionando así dos cantidades físicas por medio de una expresión matemática. El físico italiano, además, realiza otra serie de experimentos en los que demuestra la trayectoria seguida por un móvil después de abandonar un plano inclinado: línea semiparabólica.
Aunque Galileo hereda el pensamiento platónico sobre la existencia de regularidades matemáticas en la naturaleza, tiene una diferencia fundamental con Platón pues, según éste, sólo se puede acceder a la auténtica realidad del mundo mediante la razón, mientras que para Galileo estas regularidades se pueden hallar sabiendo preguntar a la naturaleza; aquí nace la experimentación en el sentido moderno. Galileo fue consciente de que sólo abstrayendo las propiedades (matemáticamente hablando) de un objeto real, a fin de transformarlo en un objeto geométrico, se podía adecuarlo para un análisis cuantitativo. El genio galileano conjuga razón y experiencia, matemáticas y física, en contra de la posición aristotélica de no mezclar géneros.
Galileo se percató de la diferencia entre lo abstracto y lo concreto, pero supo igualmente reconocer las similitudes entre uno y otro. También se percató de esa asombrosa concordancia entre teoría y observación y las conjuga para iniciar la construcción de la nueva ciencia. Realizó experimentos aplicando, en muchos casos, un análisis matemático ideal (plano liso sin fricción, bola perfectamente esférica) a una situación real (plano rugoso con fricción, bola cuasiesférica), lo cual demuestra cómo se comenzaba a reconocer la importancia de la abstracción matemática en la descripción de los fenómenos naturales. Esto, además, nos muestra una característica importante de la epistemología galileana, que es la de ofrecer experimentos construidos a partir de una teoría, y en donde el papel de ellos es confirmar la validez de esta última. En la obra de Galileo aparecen los fundamentos de la nueva física: el movimiento en el vacío, el movimiento como un estado, el principio de la inercia, la matematización del mundo físico, la geometrización del espacio, la concordancia entre la teoría y la observación, etcétera.
Galileo contribuye de manera esencial a la unión entre matemáticas y física a partir de la herencia que recibe, principalmente de Pitágoras, Platón y Arquímedes. Esta actitud epistemológica caracteriza la ciencia actual y puede ser resumida en una famosa cita de Il Saggiatore: “la filosofía está escrita en ese grandioso libro que está continuamente abierto ante nuestros ojos (lo llamo Universo). Pero no se puede descifrar si antes no se comprende el lenguaje y se conocen los caracteres en que está escrito. Está escrito en lenguaje matemático, siendo sus caracteres triángulos, círculos y figuras geométricas. Sin estos medios es humanamente imposible comprender una palabra; sin ellos, deambulamos vanamente por un oscuro laberinto”.
|
|||||||||||
Referencias Bibliográficas
Antaki, Ikram. 1989. La cultura de los árabes. Siglo XXI, México.
Galilei, Galileo. 1623. Il Saggiatore. Aguilar, Buenos Aires. 1981.
_____. 1632. Diálogo sobre los dos máximos sistemas del mundo: ptolomaico y copernicano. Aguilar, Buenos Aires. 1980.
_____. 1638. Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Editora Nacional, Madrid. 1981. Koyré, Alexandre. 1981. Estudios galileanos. Siglo XXI, Madrid. Uritam, Rein A. 1974. “Medieval science, the Copernican revolution and physics teaching”, en American Journal of Physics, vol. 42, núm. 10, pp. 809-819. |
|||||||||||
Nota
La primera parte de este texto apareció en el número 113-114 de la revista Ciencias: La relación entre física y matemáticas a lo largo de la historia: de Pitágoras a Galileo (parte I).
|
|||||||||||
_____________________________ |
|||||||||||
José Luis Álvarez García
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Es físico y maestro en ciencias por la Facultad de Ciencias de la UNAM; es doctor en filosofía de la ciencia por la Facultad de Filosofía y Letras y el Instituto de Investigaciones Filosóficas de la UNAM. Actualmente es profesor titular del Departamento de Física de la Facultad de Ciencias, UNAM. Sus áreas de trabajo son la enseñanza de la física y las matemáticas, así como la historia y la filosofía de la física.
Damián Flores Sánchez
Colegio de Ciencias y Humanidades,
Universidad Nacional Autónoma de México.
Damián Flores Sánchez es físico por la Facultad de Ciencias, UNAM. Sus áreas de trabajo son la enseñanza de la física y las matemáticas. Actualmente trabaja en el Colegio de Ciencias y Humanidades de la UNAM.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Álvarez García, José Luis y Flores Sánchez, Damián. 2015. La relación entre física y matemáticas a lo largo de la historia. De Pitágoras a Galileo (parte II) Ciencias, núm. 117, julio-septiembre, pp. 64-74. [En línea].
|
del mar |
![]() |
|
||||||||||||||||
Los rápidos submarinos
del Golfo de California
|
![]() |
|||||||||||||||||
Manuel López Mariscal
y Julio Candela Pérez
|
||||||||||||||||||
Mucha gente ha visto los rápidos en algún río o
arroyo, esas zonas en donde los ríos se hacen más someros, angostos y el agua fluye más rápido. Este aumento de la velocidad en los rápidos es una consecuencia de la conservación de masa, ya que si el río tiene un transporte o gasto (volumen por unidad de tiempo) constante, entonces el mismo volumen de agua tiene que pasar por una sección del río cuya área es más pequeña y eso hace que la velocidad aumente. La velocidad del río también puede aumentar por un incremento en la inclinación del fondo. Aunque en el Golfo de California o Mar de Cortés no hay rápidos, existen corrientes profundas pegadas al fondo que tienen un comportamiento similar al de los rápidos de un río, en donde la trayectoria de la corriente la lleva a lugares más angostos y menos profundos y, posteriormente, a fluir a lo largo de pendientes pronunciadas.
La línea de costa y la batimetría (topografía del fondo marino) de la parte norte del Golfo de California, son sumamente accidentadas y complejas (figura 1). Esta zona está poblada de islas, estrechos, canales y cuencas. Canal de Ballenas es sin duda la cuenca más impresionante de esta parte del golfo, y se extiende desde la isla San Lorenzo hasta la parte norte de la isla Ángel de la Guarda (aproximadamente 170 km) alcanzando profundidades de 1 600 metros. La batimetría de las cuencas de Canal de Ballenas y de Delfín hace que sus aguas profundas por abajo de 400 metros estén aisladas del resto del golfo norte.
La mayoría de las cuencas del golfo norte están conectadas entre sí mediante zonas poco profundas y estrechas denominadas umbrales. Los umbrales son puntos silla de caballo en donde la profundidad alcanza un valor mínimo en la trayectoria de una cuenca a otra, pero a la vez también es la profundidad máxima en la dirección aproximadamente perpendicular a esa trayectoria. Algo parecido a Cerro de la Silla cerca de Monterrey, pero formando parte del fondo marino. Toda el agua profunda que pasa de la cuenca San Pedro Mártir a Canal de Ballenas tiene que pasar por el umbral San Lorenzo. Lo mismo ocurre entre las cuencas Tiburón y Delfín en donde el intercambio profundo tiene que pasar por el umbral Delfín.
Corrientes profundas
La renovación del agua profunda de Canal de Ballenas y de Cuenca Delfín se da mediante corrientes que pasan por los umbrales de San Lorenzo y Delfín, en donde la corriente promedio cerca del fondo siempre va en dirección a Canal de Ballenas y a Cuenca Delfín, es decir, hacia el noroeste. Los vectores de velocidad horizontal de la figura 2 se obtuvieron con mediciones de corrientes hechas por más de un año en ambos umbrales, utilizando instrumentos instalados muy cerca del fondo que son capaces de medir las corrientes en casi toda la columna de agua mediante ondas acústicas. Es importante mencionar que los vectores de la figura 2 representan las corrientes horizontales que son mucho mayores a las corrientes verticales en el océano. Por ello, una flecha apuntando hacia arriba en dicha figura representa la velocidad del agua hacia el norte y no la velocidad del agua hacia arriba, tal y como lo indican las flechas etiquetadas con los símbolos de norte (N) y este (E). En tales corrientes el agua en el umbral es más densa que la de la cuenca profunda y, por tanto, el agua fluye por diferencia de densidad desde el umbral hasta la parte más profunda de la cuenca a lo largo del fondo que tiene una pendiente relativamente pronunciada.
La figura 3 muestra una sección vertical de la densidad del agua de mar a lo largo del umbral de San Lorenzo desde Cuenca San Pedro Mártir hasta Canal de Ballenas. Estos datos se obtuvieron bajando un instrumento desde un barco en diferentes posiciones a lo largo del umbral de San Lorenzo. De hecho, las cruces en la parte superior de la figura muestran las posiciones donde se tomaron los datos. El instrumento baja desde la superficie del mar hasta el fondo y mide continuamente los parámetros necesarios para calcular la densidad del agua de mar. La densidad en el océano es ligeramente mayor a 1 000 kg/m3 y varía muy poco, generalmente menos de 1%, y a esto se debe la costumbre en oceanografía de restarle 1 000 a los valores de densidad dados en unidades de kg/m3. Por ello, las líneas de igual densidad en la figura 4 están etiquetadas entre valores que van de 22 a 27, es decir, una variación de 5 kg/m3.
En la figura 3 se muestra cómo la densidad justo en el fondo del umbral de San Lorenzo a 400 m de profundidad es ligeramente mayor que la densidad que se encuentra a 1 000 m de profundidad en el fondo de Canal de Ballenas. De hecho, el campo de densidad es marcadamente diferente en ambos lados del umbral. En la cuenca San Pedro Mártir la densidad tiende a incrementarse monotónicamente con la profundidad por debajo de 400 m, pero en Canal de Ballenas la densidad tiende a mantenerse constante a lo largo del fondo desde el umbral hasta unos 1 000 m de profundidad. Lo que evidencia una corriente densa que desciende hasta grandes profundidades en Canal de Ballenas.
Al fluir pendiente abajo, la corriente se mezcla de manera turbulenta con el agua más ligera que está por arriba de ella misma, provocando que su densidad disminuya. En el caso del umbral San Lorenzo, la inclinación del fondo es como de 5%, lo cual es un valor alto comparado con las pendientes típicas que se encuentran en el océano. Estas pendientes altas provocan que el agua de la corriente de fondo se mezcle rápidamente corriente abajo del umbral y por ello hay una disminución significativa de la estratificación (variación vertical de la densidad) justo pasando el umbral.
Es importante mencionar que en las figuras 3 y 4 las inclinaciones del fondo están muy exageradas debido a las diferentes unidades en el eje vertical (metros) y en el horizontal (kilómetros). Todas las figuras que representan una parte vertical y otra horizontal del océano muestran tal distorsión en las inclinaciones del fondo, lo cual necesariamente tiene que ser así, ya que la profundidad promedio de todos los océanos es de aproximadamente cuatro kilómetros y sus extensiones horizontales son de miles o decenas de miles de kilómetros. En otras palabras, los océanos, y la atmósfera también, son capas delgadas de agua y aire cuando tomamos en cuenta que su extensión vertical es muy pequeña comparada con su extensión horizontal que se prolonga sobre toda la superficie de nuestro planeta en el caso de la atmósfera, y de más de 70% de la superficie terrestre en el caso del océano. En la figura 3, la extensión horizontal es de unos 30 km, pero aun así sigue siendo bastante mayor que la máxima profundidad de un kilómetro.
Las velocidades promedio más intensas de estas corrientes están cerca del fondo y son de unos 33 y 17 cm/s para los umbrales de San Lorenzo y Delfín respectivamente. Dichas velocidades no son muy altas comparadas con las de los ríos, pero la cantidad de agua que transportan sí es considerable. Utilizando los perfiles de velocidad que aparecen en la figura 2 y las secciones transversales estimamos un transporte promedio de 80 000 y 90 000 m3/s para tales umbrales. Estos transportes juntos equivalen más o menos a la descarga del río Amazonas, el más caudaloso del mundo. Sin embargo, dichos valores son pequeños cuando los comparamos con los transportes de las grandes corrientes, oceánicas como la corriente de Yucatán que fluye hacia el Golfo de México entre la península de Yucatán y Cuba y que transporta, en promedio, casi 24 millones de metros cúbicos por segundo.
El efecto fertilizador
El transporte de agua profunda hacia las cuencas del golfo norte tiene consecuencias importantes para la renovación de las aguas de esa zona del Golfo de California y para su gran productividad biológica. Utilizando el volumen de agua de las cuencas de Canal de Ballenas y de Cuenca Delfín, así como los transportes mencionados anteriormente, estimamos que el agua de ambas cuencas se renueva en un periodo aproximado de 150 días. Utilizando el área que éstas ocupan, también se puede estimar una velocidad vertical promedio de cinco metros por día. Aunque esta velocidad puede parecer muy baja, en realidad es una velocidad muy alta comparada con las velocidades verticales observadas en otras partes del océano. Por ejemplo, las aguas profundas de todos los océanos se renuevan por hundimiento de agua cerca de las regiones polares que posteriormente asciende en las regiones tropicales y templadas de los océanos con una velocidad vertical inferida de sólo un centímetro por día (la circulación y ascenso de las aguas profundas en las cuencas del golfo norte se muestran esquemáticamente en la figura 4).
Esta renovación rápida de las aguas en las cuencas del golfo norte tiene consecuencias biológicas muy importantes. El fitoplancton (algas microscópicas en suspensión que son la base de la cadena trófica o alimentaria en el mar) florece únicamente en la zona donde penetra la luz, que generalmente comprende unas cuantas decenas de metros cerca de la superficie. Sin embargo, los nutrimentos (fertilizantes naturales) que requiere el fitoplancton para crecer y reproducirse se encuentran en las aguas profundas a donde llega toda la materia orgánica que se descompone transformándose en nutrimentos. Por ello, en lugares de aguas profundas ricas en nutrimentos, cuando éstos llegan a la zona donde penetra la luz, florece el fitoplancton, que a su vez da origen a comunidades abundantes de organismos que ocupan lugares superiores en la cadena trófica. Esta situación es precisamente la que se da en la parte norte del Golfo de California, en donde la renovación rápida de las aguas en sus cuencas más profundas da origen al constante surgimiento de aguas ricas en nutrimentos que crean en la superficie una zona exuberante de vida marina, incluyendo una enorme variedad de comunidades abundantes de peces, aves y mamíferos marinos. Es entonces la constante renovación y ascenso de sus aguas lo que hace de la parte norte del golfo una de las zonas oceánicas más productivas del planeta.
|
|
|
|
|||||||||||||||
Referencias bibliográficas
López, Manuel y Joaquín García. 2003. “Moored observations in the northern Gulf of California: A strong bottom current”, en Journal of Geophysical Research, vol. 108, pp. 30.1-30.18.
López, Manuel, Julio Candela y María L. Argote. 2006. “Why does the Ballenas Channel have the coldest sst in the Gulf of California?”, en Geophysical Research Letters, vol. 33. López, Manuel, Julio Candela y Joaquín García. 2008. “Two overflows in the Northern Gulf of California”, en Journal of Geophysical Research, vol. 113. Sheinbaum, Julio, Julio Candela, Antoine Badan y José Ochoa. 2002. “Flow structure and transport in the Yucatan Channel”, en Geophysical Research Letters, vol. 29, núm. 3, pp. 10.1-10.4. Talley, Lynne D., George L. Pickard, William J. Emery y James H. Swift. 2011. Descriptive Physical Oceanography: An Introduction. Elsevier, Burlington. |
||||||||||||||||||
_______________________________________________ | ||||||||||||||||||
Manuel López Mariscal y Julio Candela Pérez
Centro de Investigación Científica y de Educación
Superior de Ensenada.
|
||||||||||||||||||
_________________________________________________ | ||||||||||||||||||
cómo citar este artículo →
López Mariscal, Manuel y Candela Pérez, Julio. 2015. Los rápidos submarinos del Golfo de California. Ciencias, núm. 117, julio-octubre, pp. 48-51. [En línea].
|
de la solapa |
![]() |
|
|||||||||||
Pròs Bíon: reflexiones sobre arte, ciencia y filosofía
|
![]() |
||||||||||||
María Antonia González Valerio (coord.).
Facultad de Filosofía y Letras-UNAM. México, 2014.
|
|||||||||||||
¿Cómo distinguir el arte de la ciencia? Tal pregunta
no tiene sentido sino hasta el Renacimiento (antiguamente se pudo decir que hubo tejné que producía episteme), cuando las artes “bellas” comenzaron a separarse de las artesanías y cuando surgieron las ciencias modernas con sus métodos de verificación y observación empíricos. El tema de la verdad y el estatuto espistémico será siempre fundamental. Algo se orienta del lado del ser y algo del lado del no-ser. Y poco a poco se van ganando las autonomías: arte autónomo (en esto la tercera crítica de Kant jugó un papel esencial), ciencia autónoma (la física del siglo xvii sería la punta de lanza).
Los saberes se vuelven pretendidamente autónomos —quizá, incluso, autosuficientes. Se genera la idea de unidad y, aunada a ella, la de sistematicidad y método. ¿Cómo pensar la unidad de la ciencia y también la del arte? ¿Cómo inventar una autonomía (y luego socavarla)? Así como se buscó con ahínco lo que automatiza y proporciona identidad —qué distingue un saber de otro—, se ha buscado también lo que reúne. Uno de los ensambles que más mueve a la reflexión acerca de lo que reúne es el uso de la técnica y la tecnología en las artes y en las ciencias, aunque con objetivos distintos. Se ha dicho mucho que las artes han usado los desarrollos científicos para sus propias producciones. Desde las matemáticas (exempli gratia, la perspectiva) y la química (exempli gratia, los pigmentos), hasta la tecnología (exempli gratia, la fotografía). También hay que considerar la creación de máquinas en ambos terrenos. Asimismo, se ha jugado a cierta “estetización” de la ciencia porque lo que produce puede ser bello (los axiomas o la visualización de los fractales) o porque hay invención e imaginación. Los puntos en los que podríamos marcar la relación entre arte y ciencia en un posible mapa son muchísimos, y no es necesario tratar de enlistarlos aquí. Para nuestra contemporaneidad, los momentos paradigmáticos de usos tecnológicos compartidos serían, por un lado, la inserción de la técnica fotográfica y del video y, por otro, la de las computadoras. Es a tal punto paradigmático que es casi imposible pensar en el arte actual sin incluir fotografía, video y computación, con lo que se hace patente la inserción de las artes en la llamada era de la tecnociencia.
El modelo de las artes en los años ochentas y noventas estuvo fuertemente marcado, e incluso determinado, por aquello que se llamó “nuevos medios”, es decir, por la inclusión de las tecnologías electrónicas hasta el punto en que se convirtieron en medio y tema del arte.
Es posible decir, sin dubitaciones, que el uso de la tecnología es un lugar común para el arte y la ciencia, pues sin ella no pueden habérselas hoy día. Lo que habría que discutir, en todo caso, es si se trata de la misma tecnología: ¿las artes llegan después a los desarrollos tecnológicos de punta? Esta pregunta la podemos extender: ¿cuando el arte trabaja con la ciencia, siempre va a la zaga de las investigaciones y descubrimientos científicos? ¿Para qué trabajaría el arte con la ciencia, específicamente con sus temas y contenidos? ¿Es esto posible?
En vez de continuar por el camino de dichos cuestionamientos —que serán abordados y desbordados en las páginas de este libro— regresemos al tema de la trama y digamos que la atropellada relación entre arte y ciencia está marcada por dos puntos básicos: el estatuto epistémico, es decir, la verdad de la ciencia enfrentada a la falsedad del arte (las implicaciones y consecuencias de ello siguen siendo contundentes para nuestra actualidad), y el uso necesario de la tecnología.
Ahora habrá que hablar de la pericia. Lo primero será poner en cuestión el estatuto epistémico y el modelo de verdad que está detrás de éste. Lo segundo será desplazar la concordancia en el uso de la tecnología hacia la concordancia en los temas y materiales de investigación (para que se produzca discordancia en el uso de la tecnología a partir de la prosecución de un fin harto diferente). Y habrá que poner un tercer elemento: el desplazamiento desde la física, las matemáticas, la electrónica y la computación, como centros de la discusión, hacia la biología, la cual es por supuesto deudora de lo anterior, pero no reductible a enfoques físico-químicos (aunque esto es un punto álgido del debate actual).
Planteemos entonces la relación entre arte, ciencia y filosofía, al decir, por lo pronto, que a aquel paradigma epistémico —que tal vez comienza con la condena platónica de la poesía y que señala las artes como no-verdaderas— podemos oponer un paradigma que piensa arte, ciencia y filosofía como modelos de comprensión de lo real, los cuales, lejos de pretender asemejarse o emparentar sus métodos, entendidos éstos más griega que modernamente, afirman de modo productivo sus diferencias. Mas para ello primero tendrán que haber devenido distintos: no se trata del arte inserto en la institucionalidad del museo y del mercado, es decir, no es el arte la consciencia estética. No se trata de la ciencia que afirma conocer la verdad sin mediaciones, esto es, la que lejos de hablar de modelos o metáforas habla de lo efectiva y empíricamente real. No se trata de la filosofía que recusa la metafísica y se limita a preguntar por las ciencias segundas y sus procederes, es decir, aquella que no puede y no quiere pensarse primeramente como ontología.
La pericia en esta trama se encuentra marcada, entonces, por tales personajes; una filosofía que se quiere ontológica, a saber, un modelo de comprensión de lo real; un arte que se reconoce como productor del mundo, esto es, un modelo de comprensión de lo real, y una ciencia que se asume como interpretación de la complejidad que deviene, es decir, un modelo de comprensión de lo real.
Lo que encontraremos serán híbridos artístico-filosófico-científicos que han cruzado e imbricado sus saberes para producir “cosas” indiscernibles, pero no son indiscernibles visuales, porque el tema no está en su (in)diferenciación del objeto cotidiano, sino en tanto que son modelos e interpretaciones del mundo.
¿Qué importa aquí si se trata de ciencia, de arte o de filosofía? Se está produciendo algo, se está operando una peripecia en una pretendida trama que modifica los sentidos y que disloca las identificaciones. Pero no hay que precipitarse en esto, no se trata de decir que todo es hibridación, sino más bien de señalar que una de las posibilidades más contundentes de la relación entre arte, ciencia y filosofía, en los últimos quince años, ha sido la producción de hibridaciones.
|
|||||||||||||
(Fragmentos de la Introducción). | |||||||||||||
_______________________________________________ | |||||||||||||
María Antonia González Valerio
|
|||||||||||||
_________________________________________________ | |||||||||||||
cómo citar este artículo →
González Valerio, María Antonia . 2015. Pròs Bíon: reflexiones sobre arte, ciencia y filosofía Ciencias, núm. 117, julio-octubre, pp. 77-78. [En línea].
|