revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
 
 
     
Metafísica experimental y mécanica cuántica
 
Luis de la Peña y Ana María Cetto
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Cada vez que ha surgido una nueva rama de la física —sea la mecánica clásica, la óptica, el electromagnetismo, u otra— su desarrollo ha implicado la necesidad de revisar preconcepciones y de crear conceptos apropiados para entender, describir y relacionar los nuevos fenómenos en cuestión. Este tipo de trabajo, el de construcción de la base conceptual de una nueva teoría, normalmente implica una confrontación de visiones; y en el camino suelen presentarse fuertes desacuerdos y resistencias a la aceptación de las nuevas ideas, antes de quedar establecido un andamiaje conceptual más o menos completo y coherente, que sirva de soporte para la nueva teoría.
 
El desarrollo de la mecánica cuántica no ha sido la excepción. El hecho de que los fenómenos típicamente cuánticos se presenten normalmente en sistemas de pequeñísima dimensión, no susceptibles a observación directa, abre la posibilidad a diferentes lecturas del mundo cuántico, que conducen a esquemas conceptuales discrepantes entre sí. Si bien uno de ellos ha adquirido amplia popularidad, no puede decirse siquiera que esté libre de severas dificultades conceptuales. Detrás de cada uno de estos esquemas se encierra toda una forma de leer la naturaleza y de interpretar sus mensajes; el asunto por lo tanto tiene profundas implicaciones metafísicas. No es gratuito que los debates en torno a la interpretación de la mecánica cuántica hayan llenado algunas de las páginas más notables de la historia de la física del siglo pasado.
 
 
En el proceso de construcción y consolidación del andamiaje conceptual, los experimentos juegan a menudo un papel privilegiado. Más allá de confirmar las predicciones del nuevo formalismo, y de explorar los límites de su aplicabilidad, pueden ayudar a profundizar en la comprensión de los nuevos fenómenos, o inclusive a someter a prueba su ropaje interpretativo. Así, en las últimas décadas se ha realizado toda una serie de complejos y delicados experimentos con el propósito de confirmar la interpretación que oficialmente acompaña a la mecánica cuántica —y que es considerada parte integral de esta teoría.
 
Tales experimentos se han hecho posibles gracias a que hoy día se cuenta con instrumentos capaces de crear condiciones muy especiales —como cavidades microscópicas que encierran una o dos partículas en su interior bajo condiciones controladas, átomos en estados bien definidos, haces de luz de muy baja intensidad, etcétera. La motivación para llevarlos a cabo no es solamente de origen metafísico; una buena parte de este trabajo experimental tiene implicaciones importantes en áreas de investigación de avanzada, como la computación cuántica y la transmisión de mensajes codificados. Tal circunstancia ayuda, naturalmente, a mantener en estado de buena salud financiera a estos proyectos experimentales.
El indeterminismo cuántico
 
Una de las características de la mecánica cuántica más extensamente discutidas en la literatura que aborda los problemas conceptuales de esta teoría, ya sea a nivel profesional o de divulgación, es su indeterminismo.
 
El que una teoría física no sea determinista no representa en sí ningún problema, si lo consideramos una propiedad de nuestra descripción, más que una propiedad ontológica del sistema examinado o descrito. Y en efecto, el que el comportamiento de un sistema físico o de cualquier otra índole sea descrito como tal no significa, sino que el cúmulo de factores que determinan detalladamente su comportamiento ha sido dejado a un lado al separar, conceptualmente, el modelo que se discute de una parte de su entorno. Veamos un ejemplo para ser claros: consideremos un recipiente cerrado que contiene únicamente algún gas, y que se encuentra a una temperatura fija (por ejemplo, la del medio ambiente). Sabemos bien que existen leyes relativamente simples que nos permiten determinar la presión del gas en términos del volumen y la temperatura; como ambos son fijos, también la presión es fija. Todo parece estar determinado. Pero en realidad no, pues basta que nos preguntemos con qué velocidad se mueve una cierta molécula (alguna en particular, arbitraria y libremente escogida de entre los cuadrillones que contiene el frasco) para advertir, de inmediato, que no tenemos información alguna para contestar: la velocidad puede ser prácticamente cualquiera. Lo que las simples leyes de la termodinámica nos permiten determinar con precisión es la velocidad promedio de las moléculas o la velocidad más probable, y otras cantidades como éstas, pero no más.
 
La descripción termodinámica es global, no entra en los detalles del movimiento de cada molécula, sino que contempla sólo algunas de sus propiedades estadísticas. Se trata así de una descripción muy simple y útil —pero claramente incompleta. Los movimientos particulares de cada una de las moléculas quedan indeterminados, o sea que la teoría proporciona una descripción indeterminista. Sin embargo, nadie dudaría que hay factores físicos que determinan con precisión el movimiento de cada molécula —al menos mientras consideremos al sistema dentro de los cánones de la física clásica—, aunque no lo conozcamos. El sistema es determinista; lo indeterminista es la descripción que de él hacemos.
 
El meollo del problema con la teoría cuántica es que percibimos el indeterminismo de los sistemas por ella descritos, pero a la vez consideramos esta descripción como acabada, como la más completa posible. Esto usualmente se entiende en un sentido estricto, es decir, no como la descripción más completa de que disponemos hoy en día, sino la más completa en principio, ahora y para siempre.
 
Recurramos otra vez a un ejemplo sencillo para aclarar el punto. Pensemos esta vez en una pizca de un material radioactivo con una vida media de algunos minutos. Esto quiere decir que cualquiera de los (muchísimos) núcleos radioactivos de la muestra puede decaer en el curso de los próximos minutos, aunque también puede no hacerlo. Precisar cuales núcleos decaerán en los próximos cinco minutos y cuales no, queda fuera de las posibilidades de la teoría, que sólo puede decir qué fracción del total decaerá en ese lapso. Además, en cada decaimiento el correspondiente núcleo emite una partícula —supondremos que son electrones, pero podría ser otra cualquiera— que sale en un caso en una dirección, en el siguiente en otra dirección cualquiera, y así sucesivamente. El resultado es que cuando decaen muchos núcleos, salen electrones uniformemente repartidos en todas las direcciones. A pesar de que cada decaimiento se produce en un momento preciso y emite un electrón en una dirección bien establecida, la descripción cuántica —la mejor con que contamos— no nos permite determinar estos datos precisos, sino sólo la probabilidad de que un núcleo dado que aún no ha decaído, lo haga dentro del plazo dado, como hemos dicho, y la probabilidad de que el electrón emitido caiga o no dentro de la ventana estrecha de un detector colocado en las cercanías. La naturaleza decide con precisión; nosotros únicamente calculamos con probabilidades.
 
Si se creyera —que, como hemos visto, no es el caso— que la situación es análoga a la de la molécula del gas, no habría nada de extraño en el comportamiento cuántico. Pero la convicción prevaleciente de que hasta aquí podemos —y podremos— llegar con nuestras descripciones del mundo cuántico, convierte a este indeterminismo en algo esencial. Como este fenómeno es omnipresente en la teoría cuántica, suele interpretársele como manifestación de una nueva propiedad de la materia: si no es el caso que la propia naturaleza es indeterminista, lo son al menos y de forma irremediable e irreductible nuestras descripciones de ella, como lo expresan formalmente las llamadas relaciones de indeterminación de Heisenberg (conocidas también bajo otros nombres y significados, pero esto lo podemos dejar de lado), o como indeterminismo ontológico, o indeterminismo epistemológico, pero indeterminismo al fin.
 
Iconoclasia de las variables ocultas
 
Para muchos espíritus este estado de cosas resulta poco satisfactorio: es posible entenderlo como un resultado de nuestros procedimientos de investigación y descripción, o como una característica del conocimiento alcanzado, pero no como una ley de la naturaleza. Sin duda alguna, el más conocido de los físicos que de manera abierta se negó a aceptar como definitiva a la mecánica cuántica (con todo y su ropaje interpretativo), precisamente por su indeterminismo esencial, es Einstein, a quien no tenemos necesidad de presentar. A su lado ha alineado toda una fila de científicos realistas que, al igual que él, ven en la teoría actual un magnífico logro, pero no una teoría final, acabada. Naturalmente, las razones y circunstancias de cada uno de estos disidentes son muchas y muy variadas, de tal manera que no podemos decir que se trate de una escuela, sino más bien de una posición común de principio.
 
En la mente de muchos de estos iconoclastas surge la idea de que debe ser posible construir una teoría más refinada y rica que la actual, la cual contenga variables de algún tipo hoy desconocidas que sean las responsables de los diversos posibles comportamientos; su conocimiento detallado explicaría el del sistema cuántico, y el indeterminismo desaparecería. Por ejemplo, en el caso del gas clásico, se trataría de todo el conjunto de velocidades y posiciones de las otras moléculas, más los datos del recipiente, lo que determinaría detalladamente la velocidad y posición de la molécula de nuestro interés. Basta esta imagen para entender la razón por la cual a estas hipotéticas variables, que transformarían en deterministas a los sistemas cuánticos, se les conoce bajo el nombre genérico de variables ocultas. En ellas radicaría el misterio que los físicos deterministas desearían resolver.
 
Para que una teoría de variables ocultas tenga interés físico y perspectivas de éxito debe cumplir varios requisitos indispensables. Dos de ellos son obvios: las variables deberán ser distribuidas, y la teoría resultante deberá ser plenamente compatible con la mecánica cuántica actual y reproducir sus resultados dentro de los estrechos límites que fijan los experimentos. La primera simplemente dice que es en las diferentes realizaciones de tales variables en donde debemos encontrar la razón de los diferentes resultados observados o predichos por la teoría, con lo cual el actual indeterminismo se transforma en el mero resultado de las realizaciones azarosas de las posibilidades, que naturalmente se dan en el sistema. La segunda condición resulta del hecho de que las predicciones de la teoría cuántica contemporánea, que cubren un impresionante rango de fenómenos físicos de muy diversas escalas y estructuras, nunca han sido fallidas, y que algunas de ellas han sido verificadas con la increíble precisión de diez dígitos. Sirva de referencia que en la ingeniería usual una exactitud de una parte en mil ya es considerada como ingeniería de precisión y difícilmente se alcanza la de una parte en diez mil, salvo en aplicaciones muy especiales, como sucede en la óptica.
 
Pero aún hay más (como nos enseñara a decir uno de los más profundos filósofos de la televisión nacional): es claro que si la intención al introducir las variables ocultas es darle a la teoría una estructura conceptual aceptable dentro de los cánones del realismo, estas variables a su vez deberán tener propiedades plenamente aceptables según los mismos cánones. Aquí es donde vuelven a complicarse las cosas. La historia de este asunto es compleja y larga —pues se inicia en 1932, muy pocos años después del nacimiento de la teoría cuántica que hoy manejamos y que podemos situar en el curso de los años 1925 a 1927—, por lo que sólo haremos referencia a los puntos centrales, sin pretensión alguna ni de totalidad ni de apego a la cronología del tema. En aquel año, 1932, apareció publicado el primer texto de mecánica cuántica escrito por un matemático, el húngaro-norteamericano Johann von Neumann —por cierto, uno de los verdaderamente grandes matemáticos del siglo xx, quien, entre tantas otras cosas, fue uno de los creadores de la actual computadora digital. En su libro, von Neumann incluyó una famosa demostración sobre la imposibilidad de construir una teoría de variables ocultas consistente con la mecánica cuántica. Con esto, el sueño realista se quedaba en esto, un sueño. Naturalmente los esfuerzos en esta dirección se redujeron drásticamente, mientras su descrédito se extendía. Peor aún, como respuesta a las limitaciones que se le encontraron al teorema de von Neumann en el curso de las décadas, aparecieron otros teoremas similares (de Kochen y Specker, de Gleason, etcétera), que venían a reforzar el clima contra la propuesta realista.
 
Las desigualdades de Bell
 
De entre todos estos esfuerzos el que indudablemente tuvo mayor éxito fue el del físico inglés John Bell, con su famoso teorema de 1966. En realidad se trata de un teorema muy simple y general que debe cumplir cualquier teoría realista cuántica —el que una descripción del sistema cuántico sea realista significa que se puede hacer, al menos en principio, en términos de las trayectorias seguidas por las partículas— con propiedades físicamente aceptables (como las citadas arriba), a lo que se agrega la demostración, vía un ejemplo específico, de que la teoría cuántica viola tal teorema en situaciones apropiadas. La amenaza de muerte de las intenciones realistas parecía cumplirse finalmente.
 
El resultado vino a ser un tanto paradójico, pues la intención de Bell, al enfocar sus esfuerzos en este tema, era precisamente la opuesta a lo que emergió de su empeño. Bell analizó la interpretación causal de la mecánica cuántica propuesta desde 1952 por el físico estadounidense (a pesar de Estados Unidos) David Bohm, que es una teoría de variables ocultas plenamente consistente con el formalismo cuántico (pues se trata sólo de una relectura de sus resultados, en términos realistas). Luego la mera existencia de la teoría de Bohm desdecía el teorema de von Neumann y mostraba que algo esencial estaba mal en todo este entramado. Para Bell, esto significaba que la sentencia de muerte del realismo no estaba realmente dictada, lo que le complacía, pues él mismo era un físico realista. Sin embargo, prestó de inmediato atención a una propiedad central y no precisamente atractiva de esta teoría, y se preguntó si ella era inevitable en cualquier teoría de variables ocultas, o bien se aplicaba específicamente a la teoría de Bohm. Fue en la búsqueda de la respuesta a esta interrogante que Bell llegó a su teorema.
 
 
El punto en cuestión es que la teoría de Bohm no es local. Esto puede sonar demasiado abstracto a algunos e irrelevante a otros, pero se trata de algo fundamental e incompatible con principios centrales de la física no cuántica (y del resto de las ciencias naturales). La no localidad significa que un cuerpo puede actuar sobre otro a distancia. Tal acción ocurre en la mecánica cuántica que es no relativista de manera instantánea, pero podemos achacar esto al carácter no relativista de la teoría, o sea al hecho de que el formalismo cuántico usual no es consistente con la teoría de la relatividad —deficiencia que se corrige con una versión relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a distancia no desaparecería aun en la versión relativista. El punto es si en efecto un cuerpo puede actuar sobre otro sin conexión causal aparente o, en términos más simples, sin que medie fuerza alguna entre ellos. Hasta se estremece uno un poco con esta pregunta, la cual parece pertenecer más bien al terreno de lo sobrenatural. La respuesta que da la física no cuántica es un rotundo no. Y esa misma respuesta quisiera poder darla un sector importante de los físicos realistas, aunque no todos, en el caso de la física cuántica. Por ejemplo, Bohm, el propio Bell y muchos otros físicos e incluso filósofos de la ciencia, han asumido la no localidad cuántica como algo que nos impone la naturaleza y que debemos aceptar, gústenos o no. Si ello contradice nuestra intuición o visión filosófica, peor para nosotros, nos dirían, pues no nos queda más que cambiarla si deseamos profesar una filosofía compatible con las leyes naturales; es decir, debemos dejar que la naturaleza nos imponga sus leyes, en vez de tratar de imponerle las nuestras.
 
Sin embargo, para el sector de físicos realistas que se estremece con la pregunta sobre la localidad, la respuesta anterior aparece como la aceptación de una comunión entre la magia y la ciencia. El precio que se está pagando por eliminar el indeterminismo resulta demasiado alto. Para el sector de iconoclastas empedernidos es tan inaceptable la no localidad, como el indeterminismo esencial. Lo que se antoja es una teoría a la vez realista y local, en vez de la actual teoría indeterminista o no local.
 
A diferencia de resultados anteriores, como el teorema de von Neumann y otros, el teorema de Bell tiene dos características de gran relevancia. Una es la simplicidad y generalidad de su derivación, que lo torna transparente y difícilmente rebatible. Otra, la que ha determinado su éxito, es que su enunciado es tal, que se hace posible llevarlo al experimento. Se trata de verificar en el laboratorio que los sistemas cuánticos cumplen las predicciones de la teoría cuántica y violan ciertas desigualdades matemáticas, que Bell obtuvo a partir de las demandas de determinismo y localidad (y nada más, fuera de relaciones probabilistas muy generales y elementales). Así, lo que se pretende probar en el laboratorio es si los sistemas cuánticos contradicen o no la demanda de realismo local, que se refiere más a un principio metafísico que físico. Con esto se han abierto las puertas a un nuevo terreno, hasta hoy totalmente impensado, al que algunos autores comienzan a llamar metafísica experimental. Quizá sea un poco exagerado hablar en tales términos en este momento; pero sí es un hecho que las fronteras de lo físico y experimentable se han recorrido significativamente con estos estudios.
 
Las predicciones de la teoría cuántica han sido tantas y tan bien verificadas que la mayoría de los físicos no dudaría en suponer que en estos experimentos también se cumplirán. Hay quienes, incluso, han insistido en que no se requiere hacer ninguno nuevo: la simple extrapolación de nuestra experiencia cuántica nos hace saber que los sistemas cuánticos pueden violar las desigualdades de Bell. ¿Para qué malgastar tiempo, esfuerzo y dinero en lo obvio?
Sin embargo, cuando se trata de principios generales y profundos hay quienes perseveran. Es posible que la naturaleza sea como se nos dice, nos guste o no creerlo; pero esto no ha sido demostrado, sino simplemente aceptado como resultado de ver y leer el formalismo de la mecánica cuántica desde una cierta perspectiva, la ortodoxa. No estamos obligados a rechazar a priori otras posibilidades, como la que precisamente postula el realismo local. Por tanto, la realización de los experimentos tiene sentido, pues se trata de certificar o negar predicciones que son específicas de la teoría cuántica. Y el argumento se ha reforzado profundamente de la manera más convincente y simple posible: diversos autores han construido modelos realistas locales de los dispositivos experimentales que satisfacen cumplidamente los resultados. Esto refuta de manera evidente la convicción generalizada y popular de que los experimentos realizados han demostrado la incompatibilidad entre el realismo local y el comportamiento de la naturaleza.
 
Son varios los que se han hecho —en realidad no con partículas, sino con luz, pero formalmente las cosas son equivalentes para la mecánica cuántica a través de la dualidad onda-corpúsculo— y todos parecen conducir a conclusiones consistentes con las predicciones cuánticas. Con ello suele justificarse la conclusión mencionada líneas arriba sobre el realismo local. Sin embargo, aun aquí hay gato encerrado, pues diversos análisis detallados de los experimentos han mostrado que todos contienen algún punto débil: o enfrentan problemas de muestreo estadístico, o bien debido a la baja eficiencia de los detectores, o a la necesaria supresión del ruido de fondo, o a la introducción obligada de hipótesis adicionales no verificadas (en ocasiones incluso inverificables). De manera que siempre hay alguna vía de escape que permite la construcción de un modelo realista local capaz de reproducir los resultados observados, e incluso, en varios casos, de ir más allá. Basta la existencia de un solo modelo de esta naturaleza consistente con la mecánica cuántica, para que pierda toda su fuerza el correspondiente experimento como refutación del realismo local. Es claro que hasta que no se haya realizado simultáneamente un experimento libre de todas las escapatorias conocidas, no se deberá considerar como ganada la ofensiva contra el realismo local.
 
¿Qué tan definitivo es lo concluido?
 
Las desigualdades originales de Bell no son homogéneas en las probabilidades de coincidencia, o sea que están relacionadas con números absolutos. Pero verificar relaciones de este tipo está más allá del límite de las posibilidades tecnológicas contemporáneas, básicamente debido a la baja eficiencia de los detectores. Lo que se puede poner a prueba en el laboratorio son otras desigualdades, de tipo homogéneo, que se derivan de las de Bell, a costa de agregar hipótesis suplementarias sobre el comportamiento de los detectores, los polarizadores, etcétera. Como éstas no han sido verificadas, no queda excluida la posibilidad de que sean ellas las responsables de la supuesta violación del realismo local, sin que ello cree ningún problema mayor.
 
A lo anterior podemos añadir consideraciones de otra naturaleza, que permiten rescatar el realismo local sin afectar la teoría cuántica. Una primera muy básica es la siguiente: los estados cuánticos que conducen a la violación de las desigualdades de Bell son los conocidos como estados entrelazados (entangled) entre dos partículas. Estos son estados que se refieren simultáneamente y de manera indisoluble a las dos partículas de una pareja y no permiten hacer una afirmación sobre el posible estado de cada una por separado. Mucho se ha escrito sobre ellos, pero poco se les entiende realmente; poseen multitud de propiedades anti-intuitivas y son en buena medida responsables de una variedad de sorprendentes, cuasi mágicos, fenómenos cuánticos. Lo que nos importa resaltar aquí es que las correlaciones entre las dos partes entrelazadas del sistema que tienen propiedades son locales. De hecho, es esta ausencia de localidad la que pone en evidencia las desigualdades de Bell.
 
En otras palabras, la no localidad está ya en cada una de las correlaciones que se miden en los experimentos, por lo que es perfectamente posible, al menos en principio, olvidarse de las desigualdades de Bell si de lo que se trata es de evidenciar la falta de localidad cuántica, y medir sólo las correlaciones entre la pareja de partículas entrelazadas. El resultado será tan no local como lo que intenta ponerse en evidencia con los experimentos más complejos como los de Bell. Luego lo que está realmente a discusión es si las propiedades no locales de un sistema entrelazado se preservan intactas cualquiera que sea la distancia, aun macroscópica, entre las dos partes del sistema, o si hay límites espacio-temporales, aún no establecidos, para la preservación de la integridad de estos estados.
 
Este es un tema que en varias formas se encuentra también en escrutinio activo, bajo el nombre genérico de decoherencia. Y poco a poco se está abriendo paso la idea de que, en efecto, existen factores naturales que limitan la vida de la coherencia cuántica. El tema es de gran importancia práctica, aunque parezca increíble, pues es precisamente el fenómeno de entrelazado el que sirve de soporte a las ideas relacionadas con temas tan actuales como la computación cuántica, la (mal) llamada teleportación, el cifrado seguro de mensajes, etcétera. Seguramente dentro de muy poco tiempo tendremos mucho más que decir respecto a estos asuntos; hoy por hoy no sabemos con certeza en qué sentido habrán de evolucionar nuestros conocimientos al respecto.
 
Un segundo comentario, que surge de manera natural, se refiere al sentido físico que pudieran tener las variables ocultas. Si se tratara de un esquema meramente formal, es decir, con las variables adicionales introducidas ad hoc con el solo propósito de recuperar la causalidad, no sería mucho lo que se ganaría en comprensión física. En alguna forma esto es lo que se hace en la teoría de Bohm, donde a la propia función de onda cuántica se le asigna el papel de un campo físico sui generis, generador de la fuerza no local que conduce al comportamiento cuántico. En ésta no se introducen elementos físicos nuevos; se trata de la vieja mecánica cuántica vestida con un ropaje diferente.
 
Pero hay otras alternativas más ricas, una de las cuales, la electrodinámica estocástica, nos parece que tiene un buen porvenir. En esta teoría se toma seriamente al campo de radiación de fondo, el llamado campo de punto cero o de vacío, que es un ruido electromagnético que persiste aun a temperatura cero. Se trata de un campo bien conocido dentro de la electrodinámica cuántica, pero tomado usualmente en ella como un campo virtual, responsable apenas de algunas correcciones menores a los resultados predichos por la mecánica cuántica. Si se considera que el espacio está ocupado al menos por este campo de vacío, la imagen de la dinámica de los electrones atómicos cambia sustancialmente, pues cada uno de ellos se encontrará en permanente e inevitable interacción con este campo estocástico, lo que le imprimirá un movimiento azaroso.
 
He aquí un mecanismo simple que explica de inmediato no sólo el aparente indeterminismo de los átomos, sino su estabilidad, problema cuya comprensión física se le escapa a la mecánica cuántica. En efecto, cada estado estacionario atómico puede entenderse ahora como un estado donde la potencia media extraída del campo por el electrón se compensa en promedio con la potencia radiada por éste. Incluso la misteriosa causa que vincula electrones separados distancias apreciables en los estados entrelazados (aunque siempre dentro de la escala atómica) y da lugar a la aparente no localidad discutida arriba, queda explicada en principio. Puesto que las longitudes de onda de los componentes del campo de vacío que determinan los rasgos esenciales de la dinámica (de unos miles de ángstroms) se extienden normalmente por muchas distancias atómicas (que son apenas de algunos). Es de esperar entonces que tienda a establecerse una correlación importante entre los movimientos de partículas relativamente separadas, pero que comparten un mismo (o varios) componentes relevantes del campo de fondo: quedan ellas vinculadas dinámicamente a distancia a través de este campo.
 
La somera descripción anterior puede verse como una propuesta concreta para construir una teoría alternativa, que sirva de fundamento a la mecánica cuántica contemporánea y brinde una explicación racional, causal y realista a sus propiedades misteriosas. De hecho, con esta intención se le ha ido investigando y elaborando durante las últimas décadas, pero puede tomarse otra perspectiva menos comprometida, reduciéndose a ver en la electrodinámica estocástica un ejemplo que muestra la posible existencia de vías alternas capaces de ofrecer una salida interesante y enriquecedora a los problemas que confronta la actual mecánica cuántica. Lo que parece menos prometedor es dejar las cosas como están, que es, en el fondo, lo que propone la ortodoxia de los textos.
 
De todo lo anterior puede concluirse, con optimismo, que la mecánica cuántica está lejos de ser una teoría acabada, y que tanto en el terreno teórico como en el experimental hay aun un enorme trabajo por delante, cuyos resultados podrán tener consecuencias importantes importantes en ámbitos tan distantes como la metafísica y la alta tecnología.Chivi66
Referencias bibliográficas
 
Bell, John S. 1966. “On the Problem of Hidden-Variables in Quantum Mechanics”, en Rev. Mod. Phys., vol. 38, núm. 447.
. 1987. Lo decible y lo indecible en mecánica cuántica. Alianza Universidad, vol. 661 Alianza Editorial, Madrid, 1990.
Ferrero, Miguel y Emilio Santos. 1997. “Empirical Consequences of the Scientific Construction: The Program of Local Hidden-Variables Theories in Quantum Mechanics”, en Found. Phys., vol. 27, núm. 765.
Laloë, Frank. 2001. “Do we really understand Quantum Mechanics? Strange Correlations, Paradoxes and Theorems”, en Am. J. Phys., vol. 69, núm. 655.
Patiño Jaidar, Leonardo. 2001. “¿Es no separable la mecánica cuántica?”, en Rev. Mex. Fís., vol. 47, núm. 181.
De la Peña, Luis. y Ana María Cetto. 1995. The Quantum Dice. An Introduction to Stochastic Electrodynamics. Kluwer Academic Press., Dordrecht.
Selleri, Franco. 1990. Quantum Paradoxes and Physical Reality. Kluwer Academic Press., Dordrecht.
. 1986. El debate de la teoría cuántica. Alianza Editorial, Madrid.
Sulcs, Sue y Graham Oppy. “The Rejection of Local Realism is Premature”, en Found. Phys. Lett., vol. 13. núm, 521.
Wick, David. 1996. The Infamous Boundary. Seven Decades of Heresy in Quantum Physics. Copernicus (Springer-Verlag), Nueva York.
 

Luis de la Peña
Instituto de Física,
Universidad Nacional Autónoma de México.
 
Ana María Cetto
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
como citar este artículo
De la Peña, Luis y Cetto, Ana María. (2002). Metafísica experimental y mecánica cuántica. Ciencias 66, abril-junio, 16-23. [En línea]
    Regresar al índice artículo siguiente

Você está aqui: Inicio Búsqueda Autor revistas revista ciencias 66 Metafíscia experimental y mécanica cuántica