revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
 Entrada109A01   menu2
 
 
   
   
Mariana Espinosa Aldama      
               
               
La gravedad existe, a todos nos consta. Es de las primeras
cosas que siente un bebé cuando sale de su bolsa de líquido amniótico, y todos la estudiamos a conciencia a los pocos meses de haber nacido al tirar una y otra y otra vez la comida al suelo mientras nuestras desesperadas madres hacen el reiterado esfuerzo de levantar los alimentos arrojados y limpiar por enésima ocasión el piso. La gravedad hace que las frutas se caigan de los árboles y atrae la Luna a la Tierra y la Tierra a la Luna. Desde el punto de vista más clásico, se trata de una fuerza central, atractiva, que decae conforme aumenta la distancia y depende directamente de la masa. Su carácter de universal no se debe a que sea válida en todo el Universo, sino al hecho de que ocurre entre todos los cuerpos que se hallan en éste y entre todas las partes de los cuerpos, afectando la totalidad de las partículas sin excepción, incluyendo los fotones. Su ámbito de validez, en cambio, no es universal en el sentido más amplio, pues sabemos que en sistemas microscópicos y menores priman la fuerza electromagnética, la nuclear débil y la nuclear fuerte. Y a pesar de que la gravedad es la más evidente, también es la más misteriosa de las cuatro interacciones fundamentales pues, a diferencia de las otras tres, todavía no hemos podido explicar satisfactoriamente cómo se da y se transmite la información gravitacional.
 
Las reglas para filosofar
 
Isaac Newton no se ocupó de explicar las causas de esta fuerza, solamente de construirla, pero muy acertadamente, pues predice el movimiento de todos los planetas del sistema solar, con excepción de Mercurio cuyo perihelio varía unos 43” de arco cada 100 años debido a efectos relativistas. Para encontrar la fuerza de gravedad, Newton puso en acción sus tres leyes (inercia, F = ma, acciónreacción), apoyándose en los fenómenos observados (las distancias medias al Sol y los tiempos periódicos de las órbitas de la Luna, de los planetas y los satélites galileanos), utilizando ciertas definiciones, entre ellas la de la masa y la cantidad de movimiento, recurriendo a la deducción mediante razonamientos matemáticos, utilizando la hipótesis de un espacio y un tiempo absolutos, y aplicando sus cuatro reglas para filosofar: 1) “no debemos para las cosas naturales admitir más causas que las verdaderas y suficientes para explicar sus fenómenos”; 2) “por consiguiente, debemos asignar tanto como sea posible a los mismos efectos las mismas causas”; 3) “las cualidades de los cuerpos que no admiten intensificación ni reducción, y que resultan pertenecer a todos los cuerpos dentro del campo de nuestros experimentos, deben considerarse cualidades universales de cualesquiera tipos de cuerpos”; y 4) “en filosofía experimental debemos recoger proposiciones verdaderas o muy aproximadas, inferidas por inducción general a partir de fenómenos, prescindiendo de cualesquiera hipótesis contraria, hasta que se produzcan otros fenómenos capaces de hacer más precisas esas proposiciones o sujetas a excepciones [...] Hemos de seguir esta regla para que el argumento por inducción no pueda ser eludido por hipótesis”.

Las reglas 1 y 2 nos dicen, básicamente, que no hay que dar explicaciones de más o redundantes; la tercera hace la caracterización de la universalidad y la cuarta resume de manera muy apretada el precepto básico de la corriente filosófica empirista moderna. En efecto, el empirismo de la edad moderna es la forma de acercarse al mundo a partir de la experimentación, de cuantificar los fenómenos y formular relaciones en función de esas mediciones (lo cual siempre se reduce a medir distancias, tiempos y cantidad de materia) y, por último, confirmar las relaciones comparando nuestras predicciones con una gran cantidad de fenómenos y así, por medio de la inducción, encontrar las leyes que rigen el Universo.

Una de las mayores motivaciones de Newton para escribir Los principios matemáticos de la filosofía natural era mostrar que las reglas para filosofar de los aristotélicos, en especial las del francés René Descartes y su modelo del mundo, eran equivocadas. En su introducción a la segunda edición de los Principia, Roger Cotes expresó estas motivaciones: “Los que han abordado la filosofía natural pueden reducirse a tres clases aproximadamente. De entre ellos, algunos han atribuido a las diversas especies de cosas cualidades ocultas y específicas, de acuerdo con lo cual se supone que los fenómenos de cuerpos particulares proceden de alguna manera desconocida. El conjunto de la doctrina escolástica, derivada de Aristóteles y los peripatéticos, se apoya en este principio. Estos autores afirman que los diversos efectos de los cuerpos surgen de las naturalezas particulares de esos cuerpos. Pero no nos dicen de dónde provienen esas naturalezas y, por consiguiente, no nos dicen nada. Como toda su preocupación se centra en dar nombres a las cosas, en vez de buscar en las cosas mismas, podemos decir que han inventado un modo filosófico de hablar, pero no que nos hayan dado a conocer una verdadera filosofía.”

“Otros han intentado aplicar sus esfuerzos mejor rechazando ese fárrago inútil de palabras. Suponen que toda materia es homogénea, y que la variedad de formas percibida en los cuerpos surge de algunas afecciones muy sencillas y simples de sus partículas componentes. Y procediendo de las cosas sencillas a las más compuestas toman con certeza un buen camino, siempre que no atribuyan a esas afecciones ningún modo distinto del atribuido por la propia Naturaleza. Pero cuando se toman la libertad de imaginar arbitrariamente figuras y magnitudes desconocidas, situaciones inciertas y movimientos de las partes, suponiendo fluidos ocultos capaces de penetrar libremente por los poros de los cuerpos, dotados además de una sutileza omnipotente y agitados por movimientos ocultos, caen en sueños y quimeras despreciando la verdadera constitución de las cosas, que desde luego no podrá deducirse de conjeturas falaces cuando apenas logramos alcanzarla con comprobadísimas observaciones. Los que parten de hipótesis como primeros principios de sus especulaciones —aunque procedan luego con la mayor precisión a partir de esos principios— pueden desde luego componer una fábula ingeniosa, pero no dejará de ser una fábula.”
“Queda entonces la tercera clase, que se aprovecha de la filosofía experimental. Estos pensadores deducen las causas de todas las cosas de los principios más simples posibles; pero no asumen como principio nada que no esté probado por los fenómenos. No inventan hipótesis, ni las admiten en filosofía, sino como cuestiones cuya verdad puede ser disputada. Proceden así siguiendo un método doble, analítico y sintético. A partir de algunos fenómenos seleccionados deducen por análisis las fuerzas de la naturaleza y las leyes más simples de las fuerzas, desde allí, por síntesis, muestran la constitución del resto. Ese es el modo de filosofar, incomparablemente mejor, que nuestro célebre autor ha abrazado con toda justicia prefiriéndolo a todo el resto por considerarlo único merecedor de ser cultivado y adornado por sus excelentes trabajos”.

Descartes es uno de los máximos representantes del racionalismo, corriente epistemológica que propone llegar a la verdad por medio de la razón, tomando como fundamento los conocimientos más seguros y verdaderos (como la lógica, la geometría y las matemáticas). Es decir, propone que se haga uso del método deductivo acompañado de hipótesis razonables. Sobre esta base se comparan las conclusiones con las observaciones y se valida el camino recorrido. Descartes, de hecho, recomendaba hacer caso omiso de lo falso o verdadero que pudiera parecer nuestro fundamento, pues dudar era su regla número uno. Dudar de todo, excepto de la existencia de dios y de que uno existe afortunadamente también recomendaba no aplicar esa duda a la vida práctica.

En realidad, se hace y siempre se ha hecho filosofía natural combinando el método inductivo con el deductivo, pues ambos son eficaces en la inteligencia de que si nuestra aproximación al mundo fuera dogmática en un sentido u otro, caeríamos, por el lado empirista, en la simple descripción del mundo, olvidando el objetivo de comprender los procesos causales; si nuestra aproximación fuera ultrarracionalista, podríamos caer fácilmente en sueños y quimeras, que aun cuando estén bien construidas matemáticamente, no reflejen la realidad del mundo. La historia de la gravitación y la cosmología nos da muchos ejemplos de este ir y venir del racionalismo al empirismo, del método deductivista al inductivista y de vuelta.

Así, en 1846, el francés Urbano Le Verrier y el inglés John Adams calcularon con 1º y 12º de error la posición en la que habría de buscarse un planeta que explicara las perturbaciones que se observaban en la órbita de Urano. En vista del éxito obtenido, Le Verrier supuso que la precesión del perihelio de Mercurio también se debía a otro planeta ubicado más cerca aún del Sol; murió pensando que Vulcano existía, pero nunca se le vio. La órbita de Mercurio se volvió, en consecuencia, un problema para la teoría de la gravitación.

 
Un nuevo punto de vista
 
En el siglo XIX, las nuevas ideas vinieron de Alemania, en especial de la Universidad de Göttingen, donde los matemáticos hicieron escuela. Ahí, Bernhard Riemann, animado por su tu
tor, el gran Carl Friedrich Gauss, presentó en 1854 su famosa ponencia “Sobre las hipótesis en que se funda la geometría”, explicando cómo el espacio que aparece ante nuestros sentidos es un caso particular de tres dimensiones de los muchos espacios que se puede imaginar e incluso posiblemente existir. Los espacios se distinguen en particular por la manera en que se definen las distancias (no es lo mismo una línea recta en un plano que en la superficie de una esfera), y sólo al establecerse dichas relaciones métricas puede definirse la curvatura o el tipo de espacio que se tiene. Las relaciones métricas pueden obtenerse únicamente a partir de la experiencia, es decir, por medio de observaciones astronómicas y experimentos. Riemann además explicó la manera de extender la geometría diferencial a n dimensiones utilizando tensores para expresar la curvatura; sus trabajos fueron esenciales para concebir el espacio-tiempo de cuatro dimensiones y la relatividad general.

Cuando Albert Einstein trabajaba en la oficina de patentes en Berna, el espacio ya había perdido su rigidez clásica. También había más dimensiones, campos electromagnéticos, luz que viajaba a velocidad constante, leyes físicas que dependían del marco de referencia y un misterioso éter que no se dejaba explicar. La teoría de la relatividad especial o restringida flotaba en el aire y se requirió la inspiración del genio rebelde para dudar también de lo absoluto del tiempo, concluyendo que aquello que medimos (tiempos, distancias y cantidad de materia) difiere para observadores en distintos marcos de referencia. La relatividad especial es una teoría muy rica que relaciona la masa con la energía y que permitió entender las simetrías de las leyes electromagnéticas, pero no trata de la gravedad.

En realidad, Einstein no estaba satisfecho con ella, pues buscaba una ley que explicara no sólo la física en sistemas inerciales, sino también en los sistemas acelerados. De hecho, pretendía unificar la teoría electromagnética con la gravitatoria. Él mismo cuenta que, en 1907, mientras trabajaba en un artículo titulado “Sobre los principios de la relatividad y sus consecuencias” tuvo “la idea más feliz de su vida”: para un observador cayendo libremente desde el techo de una casa no existe campo gravitacional. Esto le iluminó el camino para desarrollar la teoría de la relatividad general, con ecuaciones de movimiento que fueran válidas para cualquier sistema de referencia, acelerado o no. Le llevó casi nueve años encontrar las ecuaciones que describieran bien esta situación (que fueran covariantes) y como no contaba con la pericia matemática necesaria, acudió a varios matemáticos. En el verano de 1915, el gran matemático David Hilbert lo invitó a Göttingen para que diera un seminario sobre su teoría. Tras esta estancia, y una serie de intercambios epistolares, ambos genios derivaron las ecuaciones tan buscadas. Como buen matemático, Hilbert buscó una técnica general que se aplicase a cualquier espacio, recurriendo nuevamente al principio de mínima acción; pero a Einstein le interesaba sólo una ecuación, la que representara el espacio físico. Detrás de las ecuaciones generales de gravitación está la idea, indudablemente de Einstein, de que la gravedad no es un campo como el electromagnético, sino una manifestación de la curvatura del espacio-tiempo mismo, debido a la presencia de masa. Éste es el principio de geometrización (o de métrica) y en él se sostienen casi todas las teorías gravitatorias desarrolladas durante el siglo XX y hasta nuestros días.

Para probar la teoría de Einstein, su amigo y colega, el astrofísico inglés Arthur Eddington fue a la isla Príncipe, en el golfo de Guinea, con el fin de fotografiar las estrellas alrededor del Sol durante el eclipse de 1919. Siete de las diez placas fotográficas se le echaron a perder por no haber previsto el calor y la gran humedad del ecuador. Las tres restantes mostraron que las estrellas se encontraban desviadas de su sitio, lo que corroboraba el efecto de lente gravitacional predicho por Einstein. Igualmente, pudo describir la precesión de Mercurio. Muchos otros experimentos se han realizado en el sistema solar encontrando que la teoría funciona, sin embargo, ni la mecánica clásica ni la teoría de la relatividad general logran describir el veloz movimiento de sistemas más lejanos y masivos como las galaxias; tampoco explican la acelerada expansión del Universo, ni las lentes gravitacionales producidas por cúmulos galácticos sin hacer mayores suposiciones.
 
Dos oscuros problemas
 
Durante el decenio de 1930, Fritz Zwicky, astrónomo suizo que trabajó durante gran parte de su vida en el Instituto Tecnológico de California, realizó una serie de investigaciones y propuestas que han contribuido enormemente a la cosmología y que en tiempos recientes han cobrado gran valor. Entre ellas, Zwicky conjeturó, en 1933, la existencia de gran cantidad de materia inobservable (que denominó “materia oscura”) tras estimar la masa del cúmulo galáctico Coma al medir su luminosidad y la velocidad de sus galaxias. Para explicar la dinámica de Coma según las leyes de Newton y Einstein, Zwicky llegó a la conclusión de que debía haber 400 veces más masa de la que se veía. Sin embargo, en aquellos años, los instrumentos disponibles sólo captaban la luz visible y se pensaba que con nuevos telescopios de luz infrarroja, rayos X o microondas aquella materia podría verse.

A finales de los sesentas, la astrónoma estadounidense Vera Rubin utilizó un nuevo espectrógrafo de gran sensibilidad para estimar la velocidad de las estrellas en el disco de la galaxia espiral de Andrómeda, la más cercana a la Vía Láctea. Para su sorpresa, la velocidad de las estrellas no disminuía conforme la distancia al centro aumentaba, como sucede en el Sistema Solar, sino que se mantenía prácticamente constante. Vera midió más de doscientas galaxias y encontró en todas el mismo fenómeno: el aplanamiento de las curvas de rotación de los discos galácticos. Al igual que en el caso de los cúmulos galácticos que estudió Zwicky, la fuerza centrífuga que debieran sentir las estrellas ubicadas en las partes más externas de las galaxias debía haber provocado ya su dispersión a manera de rehilete de agua. Como no se ve que esto suceda, se ha supuesto que existe una mayor fuerza gravitatoria que mantiene unidas a las galaxias y que dicha fuerza debe ser provocada por una gran cantidad de materia dispuesta en halos que las rodea. Desde entonces, dicho fenómeno ha sido observado en galaxias elípticas, cúmulos globulares, galaxias enanas esferoidales, cúmulos galácticos y supercúmulos. En todos los sistemas en donde la masa y la distancia son de gran magnitud, la velocidad es mayor a la que predice Newton.

Por otro lado, la forma en que se curva la luz al pasar cerca de cúmulos galácticos, las llamadas lentes gravitacionales, no se puede explicar con la teoría de Einstein sin invocar nuevamente grandes cantidades de materia invisible.

Los fenómenos oscuros o, por decirlo más francamente, inexplicables, provocan comezón en muchos científicos. Lo que particularmente suscita dudas y perplejidades puede resumirse de la siguiente forma: en primer lugar, el hecho de que la materia oscura no haya podido ser observada en otras longitudes de onda, por lo que se infiere que no hay interacción electromagnética y, por lo tanto, de naturaleza exótica. Y, en segundo, el que la materia oscura no esté compuesta por protones y neutrones (no es bariónica) y no absorbe ni emite radiación, no se agruma, sino que más bien se comporta como un fluido, atraviesa la materia ordinaria y es, hasta la fecha, indetectable e irreproducible, incluso con los aceleradores más potentes y los telescopios más sofisticados. Asimismo, la materia oscura tampoco entra dentro del modelo estándar de partículas que recientemente se completó con la detección del bosón de Higgs. A pesar de todo lo anterior, sigue sosteniéndose la hipótesis de que la materia oscura comprende más de 80% de la materia del Universo.

Recientemente, los científicos del Gran Colisionador de Hadrones ubicado en Ginebra, Suiza, presentaron resultados negativos en sus experimentos al no poder detectar ni reproducir la materia oscura. Igualmente, el cosmólogo mexicanobritánico Carlos Frenk, director del Instituto de Cosmología Computacional de la Universidad de Durham, Inglaterra, quien realizó la famosa “simulación del milenio” de la distribución de materia oscura, admitió que el modelo de la materia oscura en su versión fría —partículas que viajan a baja velocidad— no puede explicar el comportamiento de las galaxias enanas esferoidales (sistemas pequeños de entre mil y un millón de estrellas que giran alrededor de la Vía Láctea y que son los que más materia oscura requieren), y que por tanto se debe considerar otras formas de materia oscura, como la templada, que viaja a velocidades relativistas. Esto recuerda los tiempos renacentistas cuando los astrónomos aferrados al modelo geocéntrico colocaban epiciclos sobre epiciclos a las órbitas planetarias para poder describir sus movimientos, con tal de no tumbar el paradigma que significaba la perfección del círculo y el geocentrismo.

En 1998 se comenzó a observar sistemáticamente ciertas supernovas llamadas SN1a; este tipo de explosiones tiene una duración de semanas y su curva de luminosidad es muy característica. Fritz Zwicky las propuso en 1938 como candelas estándar para estimar distancias en el espacio más profundo. Al graficar su distancia contra su velocidad (corrimiento al rojo), puede verse que se están alejando unas de otras, pero que este movimiento es cada vez más acelerado, lo que hace pensar que el Universo se está expandiendo cada vez más rápido, contrario a lo que se esperaría, como si existiera una energía de repulsión en el vacío intergaláctico. Este es un nuevo fenómeno que la teoría de Einstein tampoco explica.
 
Algunas teorías alternas de gravitación
 
A lo largo del siglo XX se han propuesto decenas de teorías alternas a la relatividad general por distintos motivos. Einstein mismo trabajó sin éxito en la búsqueda de otras teorías capaces de unificar el electromagnetismo con la gravedad. La mayoría de las alternas son métricas y son teorías covariantes que se distinguen por el uso de distintos campos: escalares, vectoriales, tensoriales, quasilineares...

La relatividad general de Einstein se describe con tensores, y es en realidad el caso más sencillo de toda una familia de teorías gravitacionales tensoriales, llamadas F(R), que se obtienen mediante la técnica variacional de David Hilbert. Matemáticamente es posible construir otras ecuaciones que describan de igual manera los fenómenos relativistas, pero la mayor razón por preferir las ecuaciones de Einstein es la simplicidad. Éste no es un principio filosófico suficiente para preferir una teoría.

Theodor Kalusa y Oskar Klein elaboraron, por ejemplo, en los veintes, un modelo geométrico de un espacio-tiempo de cinco dimensiones a fin de unificar la gravitación con el electromagnetismo. Sobre la base de este modelo se han construido otros de más de cinco dimensiones y, además, en él se apoya la teoría de supercuerdas; pero hasta la fecha ninguno de esos modelos e hipótesis ha encontrado el sustento experimental necesario.

Algunos, como Paul Dirac, han pensado en la posibilidad de que la constante de gravitación G no fuera en realidad constante. Las motivaciones de Dirac eran más bien numerológicas y metafísicas, pues tenían que ver con su hipótesis de los números grandes que relaciona diversas cantidades cosmológicas curiosamente coincidentes. La constante de gravitación coincide con el inverso de la edad del Universo y, para mantener esta equivalencia, Dirac sugirió que G variara con el inverso del tiempo. En la misma línea Pascual Jordan, en 1959 y, más tarde, en 1961, Carl H. Brans y Robert H. Dicke elaboraron una teoría gravitacional sustituyendo la constante de gravitación universal G por una función que varía en el tiempo y el espacio.

Una propuesta similar es la del físico canadiense John W. Moffat, quien tuvo la fortuna de cartearse en su juventud con Albert Einstein. El objetivo de Moffat al proponer en 1992 su teoría de Gravitación Asimétrica (Nonsymetric Gravitational Theory, NGT), ahora conocida como MOG (Modified Gravity) era resolver los problemas de la materia oscura y la energía oscura variando G en el tiempo y el espacio, pero además, propone que la velocidad de la luz tampoco ha sido constante en el tiempo y que en los inicios del Universo ésta tenía un valor muchísimo mayor.

Entre las teorías alternas recientes dirigidas a resolver el problema de las curvas de rotación de las galaxias espirales se destaca la de Mordehai Milgrom, formulada en 1982. El físico israelí notó que dicha anomalía sucede en los sistemas que sufren cambios diminutos en la velocidad, y calculó la aceleración crítica a partir de la cual la dinámica de Newton cambia: a0 = 0.00000000012 m/s2 (figura 1). Curiosamente, esta aceleración crítica es proporcional a la constante de expansión del Universo de Hubble multiplicada por la velocidad de la luz. El razonamiento de Mordehai Milgrom fue el siguiente: “todas las determinaciones de la masa dentro de las galaxias y sistemas galácticos hacen uso de una relación virial de la forma V 2 = MG/r, donde V es la velocidad típica de las partículas en el sistema, M es la masa a ser determinada, G es la constante de gravitación y r es el radio del sistema.
Las principales suposiciones en que la relación virial están basadas son: a) la fuerza que gobierna la dinámica es la gravedad; b) la fuerza gravitacional en una partícula depende, en un modo convencional, de la masa de la partícula y la distribución de la masa que produce la fuerza; c) la segunda ley de Newton se mantiene válida; y d) la velocidad de las partículas está medida correctamente por el corrimiento al rojo con la relación usual del efecto Doppler.
 
 Figura2109A01
Figura 1. El desplazamiento de las estrellas binarias separadas por más de 1000 UA no coincide con el predicho por la ley universal de gravitación elaborada por Newton. La discrepancia se observa a partir del punto en que la aceleración sufrida por las estrellas es menor a la aceleración de Milgrom (a0). La velocidad orbital de las binarias extendidas se vuelve constante a partir de a0. La fuerza deja de ser inversamente proporcional a r2 y comienza a ser inversamente proporcional a r, confirmando la predicción de la teoría de gravitación extendida.

Milgrom optó por pensar que la suposición c no era correcta, que la reacción de un cuerpo frente a una fuerza dada es diferente a lo que Newton pensaba, pero que la fuerza producida por los objetos es la misma. Así, propuso una ecuación alterna a la segunda ley de Newton incorporando la ahora llamada aceleración de Milgrom.

A partir de su propuesta, conocida como MoND (Modified Newtonian Dynamics), han surgido numerosas variantes MoNDianas que han logrado describir algunos casos particulares como la rotación de las galaxias espirales o los cúmulos galácticos, pero que no consiguen describir todos los sistemas a la vez, incluyendo el solar (figura 2). Además, las fórmulas que presentan son rebuscadas y no permiten la solución práctica de problemas concretos. Estos modelos han sido ampliados con versiones relativistas, como es el caso de TeVeS (TensorVectorScalar Gravity), desarrollado por Jacob Bekenstein en 2004, de una gran complejidad matemática que muy pocos en el mundo dominan y que casi nadie se atreve a abordar. Pero más allá de las fórmulas resultantes, el problema de MoND radica propiamente en la intención de modificar la segunda ley de Newton que, por consenso desde el siglo XIX, es considerada la definición del concepto de fuerza. MoND no es una teoría gravitatoria, tan sólo es un modelo un tanto irracional para los más ortodoxos que, sin embargo, ha dado mucha luz al problema.
 
Figura2109A01
Figura 2. Diagrama de espacio fase de X. Hernández, que relaciona la extensión de los sistemas astronómicos con su masa. Se señalan dos escalas críticas: el radio de Shwarzchild rs = 2GM/c2 que marca el punto en que una estrella se convierte en un hoyo negro; y el radio de Milgrom:
rM = (GM/a0)1/2 que marca la transición entre el régimen newtoniano al mondiano.
 
 
Extendiendo la gravedad
 
En agosto de 2010, los astrofísicos mexicanos Sergio Mendoza, Xavier Hernández, Juan Carlos Hidalgo y Tula Bernal del Instituto de Astronomía de la UNAM se dispusieron a investigar la opción b de Milgrom con una aproximación empirista, partiendo de los fenómenos, dudando de que la fuerza de gravedad fuera la misma a grandes escalas y prescindiendo de la hipótesis de la materia oscura. Para ello tomaron en un extremo la ley de gravitación universal de Newton (la cual ha sido más que probada con gran precisión por la NASA y demás centros de investigación) y en el otro una función de fuerza que decae con el inverso de la distancia, determinada por la aceleración crítica de Milgrom, que marca la zona de transición entre los dos ámbitos. Así, a partir de un análisis dimensional y una simple interpolación, calibraron una nueva relación de fuerzas que además coincidió con el movimiento de múltiples sistemas de escalas intermedias, como galaxias elípticas y galaxias enanas esferoidales:
 
g = GM/ R2 — (a0GM)1/2 / R
 
Durante 2011, Xavier Hernández continuó buscando casos que falsearan la hipótesis oscura, como los sistemas de baja masa en donde las teorías de materia oscura no aplican, entre los que se hallan las estrellas binarias abiertas, separadas por distancias entre cien y un millón de veces la distancia de la Tierra al Sol y que giran en torno al centro de masa del par. El equipo de Hernández analizó dos catálogos de este tipo de estrellas con más de 2.5 millones de ejemplares, encontrando que, cuando la separación es mayor a mil unidades astronómicas, es decir diez veces la distancia del Sol al cinturón de Kuiper que rodea el sistema solar, la curva de rotación también se aplana, como si empezaran a sentir de pronto una mayor fuerza de atracción, proporcional no al inverso del cuadrado de la distancia que las separa, sino solamente al inverso de la distancia. Este caso puede verse como un experimento crucial que marca el límite de validez de la ley universal de Newton.

Hernández verificó la nueva relación para la gravedad con múltiples sistemas a diversas distancias y escalas. Tras estos estudios, afirmó que no hay un sólo sistema de alta aceleración que se conozca donde la curva de rotación se aplane, y que no se ha encontrado un sólo sistema de baja aceleración donde la curva de rotación no se aplane. Una excepción a cualquiera de estas dos reglas pondría en jaque la teoría de gravitación extendida, pero esa es una condición deseable para una teoría científica.
Por su parte, Mendoza y su equipo desarrollaron la versión relativista de la teoría siguiendo el camino de Hilbert. La gravedad extendida es una teoría métrica, covariante, del tipo F(R) con un campo tensorial, pero que parte de una expresión más completa de la fuerza de gravedad. Aquí c, g y a0 son constantes, pero surge una nueva relación entre la materia y el espacio, una suerte de densidad superficial con la que es posible caracterizar los distintos ámbitos del cosmos. Los más recientes trabajos de Mendoza, aplicados a problemas cosmológicos, indican que la gravedad extendida podría explicar también el problema de la energía oscura.
 
La gravedad y el modelo cosmológico
 
Las nuevas técnicas de observación astronómica, los megatelescopios y detectores satelitales han permitido ver el espacio más profundo y analizar la luz más antigua. La cosmología del siglo XXI cuenta con evidencias, observaciones y experimentos concretos que las diversas teorías deben reproducir para seguir vivas. Entre las pruebas que cualquier teoría tiene que reproducir está el perfil de cuerpo negro de la radiación de fondo cósmica, la gráfica de formación de estructura y las lentes gravitacionales. En esa dirección van los actuales trabajos de Hernández y Mendoza.

La de gravitación extendida, aunque sea una teoría alterna, no rompe con el paradigma de Newton, de hecho rescata el concepto de fuerza, y tampoco con Einstein, pues mantiene sus principios; en cambio enriquece el entendimiento de la relación materiaespacio. Llegar a ello sí ha requerido un cambio en la forma de pensar el problema y de interpretar los fenómenos, de considerar que la física a grandes escalas puede no ser la misma que a escala del sistema solar, de la misma manera en que la física a escalas muy pequeñas es cuántica y a grandes velocidades es relativista.

Mientras la disputa no se resuelva con resultados y comprobaciones empíricas nos quedaremos lucubrando sobre la naturaleza de la fuerza universal: si su alcance es infinito o no y si existe una quinta fuerza fundamental de mayor magnitud que rige otros ámbitos o simplemente que la fuerza cambia de forma; también pudiera ser que la materia oscura exótica no exista y que por tanto la materia observada represente más de 90% de la existente, lo que nos llevaría a cambiar por completo el modelo cosmológico actual, toda una revolución. El camino por recorrer es aún largo, pues la ciencia no sólo requiere buenas teorías y comprobaciones experimentales, también necesita la prueba del tiempo, convencer a mucha gente para intentar nuevos caminos, modificar programas institucionales y vencer viejos dogmas. En todos estos ámbitos la filosofía de la ciencia puede contribuir con su capacidad para afinar conceptos y análisis.
     
 
Referencias bibliográficas

Hacyan, Shahen. 2009. “What does it mean to modify or test Newton´s second law?”, en The American Journal of Physics, vol. 77, núm. 7.
Hawking, Stephen e Werner Israel. 1987. 300 Years of Gravitation. Cambridge University Press, Cambridge.
Hernández, Xavier. 2012. “A Phase Space Diagram for Gravity”, en Entropy, vol. 14, núm. 5, pp. 848-855.
Hernández, Xavier, M. A Jiménez y C. Allen. 2012. “Wide binaries as a critical test of classical gravity”, en European Physical Journal C, vol. 72, núm. 2.
Mannheim, Philip D. 2005. “Alternatives to Dark Matter and Dark Energy”, en Astrophysics. Julio.
Marquina, José. E. 2005. “La construcción newtoniana de la gravitación universal”, en Revista Mexicana de Física, vol. 51, núm. 1. Junio pp. 45-53.
Mendoza, Sergio, Xavier Hernández, Juan Carlos Hidalgo, Tula Bernal. 2011. “A natural approach to extended Newtonian gravity: tests and predictions across astrophysical scales”, en Monthly notices of the Royal Astronomical Society, vol. 411, núm. 1, pp. 226–234.
Milgrom, Mordehai. 1983. “A Modification of the Newtonian dynamics as a possible alternative to the hidden mass hypothesis”, en Astrophysical Journal, vol. 270.
Moffat, John W. 2008. Reinventing Gravity. Versión de HarperCollins libro electrónico.
Newton, Isaac. 1726. Principios Matemáticos de Filosofía Natural. (Antonio Escohotado, trad.). Tecnos, Madrid. 2011.

     
________________________________________      
Mariana Espinosa Aldama
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.

Es física, fotógrafa y maestra en comunicación de la ciencia. Trabajó durante cinco años al frente del Departamento de Difusión del Instituto de Astronomía de la UNAM. Actualmente estudia el doctorado en filosofía de la ciencia en el Instituto de Investigaciones Filosóficas de la UNAM y se especializa en temas de cosmología.
     
_____________________________________________________
 
como citar este artículo →
     

de venta en copy
Número 142
número más reciente
 
142In

   
eventos Feriamineriaweb
  Presentación del número
doble 131-132 en la FIL
Minería

 


novedades2 LogoPlazaPrometeo
Ya puedes comprar los 
ejemplares más
recientes con tarjeta
en la Tienda en línea.
   

  Protada Antologia3
 
Está aquí: Inicio revistas revista ciencias 109-110 Gravitación: los límites de una ley universal
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License