De las virtudes de la iconoclasia: una mirada a la obra de Tomás Brody |
En mayo de 2006 se inauguró en el Centro Universitario de los Lagos (Jalisco) la Cátedra Tomás Brody. El presente trabajo recoge la conferencia magistral que Luis de la Peña dictó en tal ocasión. En él se revisan muy someramente algunas de las importantes contribuciones de Brody a la filosofía de la ciencia y a la interpretación realista y objetiva de la mecánica cuántica.
|
|
Luis de la Peña
conoce más del autor
|
||
HTML ↓ | ←Regresar al índice ⁄artículo siguiente→ | |
I. Tomás Brody tuvo la fortuna de gozar de un cerebro privilegiado y el privilegio de gozar en su uso. Lo llenó de conocimientos que cubrían un amplísimo espectro; los mantenía ordenados y despiertos y le daban la capacidad de discutir a profundidad sobre una enorme variedad de temas con sus especialistas en pie de igualdad. Tomás no era físico, al menos no tenía diploma alguno que lo reconociera como tal, pero nos legó muy importantes contribuciones a la física, trabajos que nos obligan a reconocerlo como uno de nuestros físicos importantes. Tanto se le reconocía en la práctica que con frecuencia la gente hablaba del doctor Brody. Recibió, pues, el más efectivo de los doctorados: el que otorga el reconocimiento de los pares. Tampoco era filósofo, o sea, tampoco poseía diploma alguno que lo acreditara como filósofo, pero su legado en esta rama es de seguro más trascendente que el de tantos filósofos cuyos diplomas de doctorado lucen hermosos en la pared más visible de su sala o cubículo. Y a todo esto debemos agregar la temprana capacidad mostrada en muy diversas formas y ocasiones por Tomás Brody en el terreno de la computación, en particular —pero no exclusivamente— en la numérica. No creo que en la década de los sesentas tuviéramos en la unam, y probablemente en el país, un experto en cómputo y en métodos numéricos de mayor calibre que él. Para fijar ideas y mostrar que no se trata de exageración alguna baste recordar la elaboración por Brody y Marcos Moshinsky de las tablas de paréntesis de transformación para cálculos nucleares en 1964. Sin duda alguna los cálculos requeridos para la elaboración de estas tablas, que son la contribución de Brody a esta obra, fueron los más complejos, sofisticados y largos realizados en nuestro país en aquellas épocas. Fue su uso lo que mostró que ya podíamos hacer cómputo electrónico serio en nuestro país.
Me concreto sólo a estas tres expresiones de Tomás porque son aquellas en las que produjo una amplia obra publicada. Sin embargo antes de entrar en detalle alguno permítanme insistir en algo que de no ser mencionado desfiguraría y empobrecería su recuerdo y obra de manera no sólo injusta, sino definitivamente inapropiada por ajena a él. Me refiero al hecho de que Tomás no fue un investigador de torre de marfil, sino un ser de su tiempo, preocupado por los problemas de su momento y su medio. No sólo se expresó sistemáticamente al respecto, sino que produjo varios trabajos sobre política científica y educativa, así como algunos escritos en los que despliega con amplitud su clara percepción social de los problemas y su patente intención de ayudar al lector a la comprensión más profunda y cabal del origen de las dificultades y del posible camino hacia su solución, siempre desde una perspectiva de avanzada, altamente original y creativa. II Con el objetivo de ilustrar aunque sea de manera mínima la capacidad analítica y creativa de Brody en el terreno de la filosofía de la física, recurriré a un ejemplo por demás significativo. ¿Cómo resuelve Tomás el añejo problema de la inducción en la ciencia? Es posible que la mayoría de ustedes ni siquiera haya tenido la oportunidad de enterarse que hay un problema con la inducción y de que este tema ha estado en discusión por parte de los filósofos de la ciencia durante casi doscientos años, lo que bien mide la importancia que se le atribuye. No debo ni puedo entrar en una discusión a profundidad del tema, por lo que me limitaré a dar una idea somera del asunto. Para ello voy a recurrir a un famosísimo y viejo ejemplo propuesto (por Carl Hempel en 1935) con otro objetivo, aunque no desconectado del tema. Imaginemos que deseo elaborar una teoría sobre los cuervos; empiezo por examinar tantos de estos animalitos como me es posible y pronto llego a la observación de que todos ellos son negros. Así, mi teoría contendrá el postulado todos los cuervos son negros. Aquí surge ya el problema: ¿cómo puedo saber que todos los cuervos son negros, si sólo alcanzo a observar algunos de ellos? Es claro que nunca podré examinar todos los cuervos, así que no me es posible confirmar que todos son negros, y con ello no puedo garantizar la validez de la teoría. Pero sin el postulado tampoco tengo teoría. La transición de mi observación de algunos cuervos a mi afirmación sobre todos los cuervos es un ejemplo de inducción. Aquí es conveniente aclarar, para evitar posibles confusiones, que el término “inducción” se utiliza con dos o tres significados diferentes, uno de los cuales es problemático, precisamente el que estoy discutiendo aquí. Así pues, he llegado a mi teoría por inducción. Es claro que la inducción no es una deducción lógica; de hecho, se trata de dos procesos mentales complementarios y excluyentes. Mientras que una deducción lógica va de lo general a lo particular, sigue reglas definidas y es única a partir de las premisas (suponiendo que lo hacemos bien), la inducción va de lo particular a lo general, y no es única, precisa ni garantizada. Como debido a esto no me es posible garantizar la validez de mi teoría, se ha propuesto como alternativa determinar para ella una probabilidad de ser correcta. Simplemente, los datos que utilicé para su construcción son claramente insuficientes para darla por demostrada, pero sí bastan para hacerla más o menos plausible, es decir, más o menos probable. Así, se habla de la probabilidad de las teorías, aunque deba reconocerse que éste es un término introducido por los filósofos de la ciencia; pero no es común su empleo entre los científicos. Además, debe quedar claro, determinar la probabilidad de una teoría no sólo no es tarea simple, sino que jamás se ha logrado hacer de manera persuasiva y útil. Así que mejor dejamos este punto de lado. Debo agregar también que se han propuesto varios otros criterios para la aceptabilidad de una teoría, pero como esto se aleja mucho de nuestro tema tampoco entraremos en su discusión.
En lo que se da por llamar el método científico, la inducción juega un papel central, pues es precisamente el paso que nos conduce de lo observado a lo general. Y no hay reglas para dar este paso, ya que, hasta donde hoy sabemos, no existen pautas para la invención. Y la inducción es eso, exactamente: una invención, una creación libre de la mente, empleando los términos de Einstein. Recuerdo bien que en nuestras discusiones y pláticas sobre estos asuntos, Tomás y yo habíamos decidido que en vez de hablar de inducción debería hablarse precisa y llanamente de invención. Ante los psicólogos y demás estudiosos de la mente humana, si desea entenderse el de la inducción, está por delante la tarea de desentrañar el misterio, hoy todavía profundo, de los mecanismos y leyes —si las hay— de la invención. Pero regresemos a nuestro problema: ¿cómo puedo garantizar la validez de mi teoría en estas condiciones? ¿Cómo puedo saber si una teoría científica es cierta o no, considerando que todas ellas se basan en inducciones? Como respuesta parcial, y sin pretensiones de resolver con ello el problema, durante mucho tiempo —desde Stuart Mill para ser específicos, es decir, desde las primeras décadas del siglo xix— se consideró que una teoría científica se confirma si los nuevos datos predichos por ella son convalidados por el experimento. De no ser así, debe regresarse al principio e intentar modificar la hipótesis o sustituirla por una nueva, lo que no es sino hacer una nueva inducción o una nueva invención, como prefieran decirlo, hasta que el proceso converja. De hecho, seguramente esto lo han oído muchas veces figurando como parte integral del llamado “método” científico (que no lo es tanto, en cuanto que involucra algo tan ajeno a una regla como “andar haciendo” invenciones). Vemos que según este esquema una teoría se confirma por medio de su “verificación”. Pero más adelante el destacado filósofo inglés Karl Popper argumentó que las instancias positivas no son suficientes para confirmar una teoría, pero que basta una sola instancia negativa para invalidarla. De aquí se infiere que toda teoría científica debe ser “falseable”. Por ejemplo, ninguna religión es falseable, lo que significa que ninguna es científica. Y, en efecto, ellas son religiones, no ciencias, pues se construyen no por acumulación de conocimiento verificado, sino vía la fe. Vemos que para mostrar la validez de una teoría se requiere un número ilimitado de experimentos (deberé observar todos los cuervos de todos los tiempos y todos los lugares para verificar que mi teoría es correcta), pero bastará encontrar un solo cuervo verde —es decir, una sola instancia negativa— para concluir que ella es falsa: un número infinito de observaciones para validar la teoría; una sola para refutarla. Pareciera que las cosas son en efecto así, pues ciertamente pese a los millones de veces que las leyes de la mecánica clásica se han confirmado por doquier, bastaría que una canica empezara a acelerarse por sí sola para concluir que algo está mal en la mecánica clásica. Ello nos obligaría a sustituir la mecánica de Newton por otra teoría más abarcadora. Algo como esto pasó a principios del siglo xx, cuando se comenzaron a realizar experimentos con los átomos y se encontró que ellos no obedecen las leyes de la mecánica clásica, es decir, que esta teoría falla en el nivel submicroscópico. Encima de ello, la teoría de la relatividad vino a mostrarnos que cuando los cuerpos se mueven con velocidades comparables a la de la luz, tampoco se cumplen las leyes de la mecánica newtoniana. Así, se nos dice, los nuevos conocimientos condujeron a la construcción de dos nuevas mecánicas, la cuántica y la relativista, que vinieron a sustituir la vieja teoría que se había mostrado insuficiente.
El concepto de la sustitución de una teoría por otra que muestra ser más exacta o general —es decir, “mejor”, pues cubre un más amplio conjunto de fenómenos o casos— es usual. La nueva teoría actúa algo así como sepulturera de la anterior. Se agrega que ésta es una vía hacia el progreso, pues con este procedimiento cada día tendremos teorías más exactas y de mayor cobertura. Sin embargo, por muy extendida que esté tal noción, basta echar un vistazo a lo que en realidad pasa para observar que las cosas no son así, al menos no en todas las instancias. Regresemos al caso de la mecánica clásica; en efecto se hizo necesario construir la mecánica cuántica para disponer de una teoría del comportamiento de los átomos y las moléculas. También fue necesaria la construcción de la teoría de la relatividad para estar en condiciones de tratar los problemas que involucran muy altas velocidades, o la cosmología, o, incluso, al campo electromagnético, el cual es por esencia relativista, ya que la luz viaja a la velocidad de la luz. Sin embargo todo esto de ningún modo significa que no sigamos usando la mecánica clásica: ella conserva toda su validez y uso para los problemas cotidianos en la industria, el taller, los transportes, etcétera. Ningún ingeniero utilizaría la mecánica cuántica para construir un puente, a pesar de que está hecho de átomos y moléculas. E incluso cuando se calculan las complicadas órbitas de los cohetes espaciales que van a visitar los planetas de nuestro sistema solar, no se utiliza la teoría de la relatividad, sino la vieja teoría gravitacional clásica heredada de Newton. Simplemente, las tres mecánicas coexisten y operan, “cada una en su campo de competencia”.
La observación que acabamos de hacer contiene la clave para la solución del problema de la inducción. Vemos que las teorías no necesariamente se sustituyen unas a las otras, sino que cada una (de las correctas) coexiste con las demás y opera en un intervalo de aplicabilidad limitada. En esto no hay ninguna sorpresa: por principio, toda teoría científica es de aplicación limitada a un sector de la naturaleza o la sociedad. Es claro que normalmente no sabemos a priori con detalle cuáles son esas limitaciones. Eso lo averiguamos poco a poco, conforme ponemos a prueba las teorías. Con la mecánica clásica esto sucedió cuando se pudo operar con átomos aislados, por ejemplo. Así pues, un experimento que da un resultado diferente del esperado, no necesariamente invalida la teoría ni implica que la debemos abandonar, sino determina un límite de su aplicabilidad. Todo esto es común en la práctica científica (muy particularmente en la física), pero por una razón u otra los filósofos de la ciencia lo han omitido de sus consideraciones. En conclusión: una parte muy importante del trabajo científico cotidiano consiste en probar si en las condiciones del nuevo experimento la teoría aún trabaja o hemos llegado a su límite de aplicabilidad. Es decir, estriba en determinar los límites de aplicabilidad de la teoría, lo que Tomás Brody llamó el alcance de la teoría. La noción de alcance de una teoría es fundamental, por mucho que ni la filosofía de la ciencia ni la práctica cotidiana de la propia ciencia le asignen el papel preponderante que le corresponde. Cuando nace una teoría normalmente se tiene sólo una idea de su alcance, de hasta dónde podemos efectivamente llegar con ella. Cuando Newton creó la mecánica clásica, muy probablemente suponía que era aplicable a todos los casos, incluyendo la mecánica celeste. Luego se encontró que el alcance de esta teoría termina donde empiezan a manifestarse los efectos directos de la estructura atómica de la materia. A su vez, cuando se construyó la mecánica cuántica se suponía que era aplicable al estudio de átomos y moléculas, pero no mucho más allá. Para sorpresa de todos, incluyendo sus descubridores, pronto se encontró que la mecánica cuántica sí puede aplicarse a sistemas muchísimo más pequeños que los átomos, como son los núcleos atómicos e incluso sus constituyentes, las partículas elementales y los componentes de éstas, los cuarcs (o quarks). El alcance de la mecánica clásica ha quedado ya bastante bien establecido, pero el de la mecánica cuántica se amplió más allá de lo previsto y todavía no conocemos hasta dónde podremos llegar con ella. Por el contrario, determinarlo es aún una tarea abierta. Vemos que en el lenguaje cotidiano el alcance de una teoría queda especificado por sus límites de aplicabilidad: se trata, pues, del descubrimiento, no del hilo negro, sino de una nueva manera de hilvanarlo. La noción de alcance nos aclara que cuando se pone a prueba una teoría (o, más simplemente, cuando se le usa) no necesariamente estamos verificando su validez, sino que bien puede ser que estemos determinando si nos encontramos aún dentro de su alcance. Que la teoría falle no significa así necesariamente una falla de la teoría, sino de su aplicación, que cayó más allá de su límite. Por lo tanto, se trata en realidad de una contribución adicional a la determinación del alcance, proceso que puede ser muy complejo y requerir mucho trabajo. Por ejemplo, se requirieron cosa de tres siglos para determinar el alcance de la mecánica newtoniana. Y aún no conocemos el de la teoría cuántica ni tampoco el del electromagnetismo o el de otras teorías de la física. Apliquemos ahora la noción de alcance de una teoría al problema de la inducción. Puesto que la inducción se acepta porque funciona en muchos casos, su validez misma es inductiva. Tratar de justificarla nos lleva simplemente a un círculo vicioso del cual no tenemos salida. Y si no validamos la inducción perdemos la posibilidad de validar cualquier teoría científica. Hay aquí un punto neurálgico que normalmente no se considera, pero que nos saca del embrollo: la inducción no es una generalización que habrá de cubrir necesariamente todos los casos. Por ejemplo, al momento de construir la teoría no sabemos si los cuervos de alguna isla perdida en el Pacífico son verdes o negros. O sea, no sabemos si la teoría se aplica en todo el planeta o su alcance es más limitado. Serán las futuras exploraciones las que precisarán esto y, con ello, hasta dónde llega la teoría. Que podamos construir o no una teoría de mayor dominio es otro problema. Con esto se evapora el problema de la validación de las teorías científicas: todas las teorías que son en alguna medida correctas están plenamente justificadas dentro de su respectivo alcance. Las instancias negativas lo que hacen es acotar el difuso alcance de la teoría. En consecuencia, tanto instancias positivas como negativas son propias de los resultados de las teorías: ninguna de las dos posibilidades es suficiente por sí misma para validar o negar una teoría. Las teorías viven su vida y se refuerzan con resultados positivos y negativos. Ambos son propios de toda teoría. Vemos que en un lenguaje más apropiado en vez de hipótesis o postulados como base para la formulación de la nueva teoría deberíamos llamarles conjeturas, siguiendo el buen ejemplo de los matemáticos. Resulta asimismo que no necesitamos recurrir a la vaga noción de probabilidad de una teoría, pues dentro de su límite de precisión y de los propósitos que persigue, toda teoría científica está justificada por sus instancias positivas. Mejor aún, sólo es posible determinar la probabilidad de una teoría si se conoce su alcance, y una vez conocido éste la noción de probabilidad resulta prescindible.
El ejemplo que veremos y que superficialmente podría parecer un tanto juguetón, ha merecido seria atención por parte de los filósofos de la ciencia por su naturaleza paradójica y su importancia. Observamos que desde el punto de vista lógico, las frases: “todos los cuervos son negros” y “todos los no-negros son no-cuervos” son estrictamente equivalentes. Regresemos al problema de la validación de mi hipotética teoría sobre los cuervos teniendo presente esta observación. Cada vez que vea yo un lápiz amarillo en mi escritorio, es decir, un no-negro que es no-cuervo, doy un paso en la confirmación del segundo aserto. Y esto sucederá cuando vea mi cuaderno blanco, mi pantalón azul, mi pizarrón verde, etcétera, pues todos estos no-negros son efectivamente no-cuervos. Con cada paso que doy, haciendo casi cualquier cosa, aumento la probabilidad de la teoría que dice que todos los no-negros son no-cuervos. Pero como esto es lógicamente equivalente a la primera afirmación, la que dice que todos los cuervos son negros, concluyo que ¡toda observación irrelevante a mi teoría incrementa la probabilidad de su certeza! ¿Cómo podemos salir de esta paradoja? Como dije poco antes, para los filósofos ocupados de este problema la paradoja está en pie. Pero veamos ahora el asunto a la Brody. La solución emerge de manera natural cuando observamos que el conjunto de instancias que pertenecen al alcance de cada una de estas dos teorías, es decir, sus respectivos referentes, son enteramente diferentes, e incluso con frecuencia resultan ajenos uno al otro. La primera teoría tiene que ver con los cuervos; la segunda con cosas totalmente otras, los objetos no negros. Estamos frente a dos problemas de naturaleza diferente y, por lo tanto, dos teorías que, aplicadas al mundo, no son en realidad equivalentes, aunque lo sean desde el punto de vista de la lógica. Aquí también se ha disuelto la paradoja. No se olviden: no todo lo racional es lógico. III Pasemos ahora, aunque sea de manera muy somera, a otro de los grandes amores de Tomás, la mecánica cuántica. Esta teoría constituye en la actualidad el soporte indispensable de casi todas las ramas de la física desarrollada durante el siglo pasado. Sin mecánica cuántica no hay física atómica, molecular, del estado sólido, nuclear, de partículas elementales, etcétera. Hasta la astrofísica ha pasado a requerir de la teoría cuántica. Pese a esta riqueza enorme de aplicaciones y de su consecuente inmensa capacidad predictiva, esta teoría, uno de los orgullos de la física teórica del siglo xx, no sólo no está exenta de problemas, sino que abunda en ellos. Para ser objetivos debemos decir de inmediato que no todos los físicos estarían de acuerdo con lo último que acabo de decir. Hay algunos físicos, y quizá no pocos, que hasta saltarían enojados al oírme decir tal necedad y, dando un manotazo en la mesa, negarían la existencia de cualquier problema que pudiera afectar a la más fundamental de las teorías físicas modernas. Esto mismo es señal de las complicaciones del asunto: no es que la teoría falle en el sentido de que proporcione resultados erróneos. Hasta donde hemos llegado, aparentemente ella jamás ha fallado y sus predicciones, pese a ser de naturaleza estadística, resultan sorprendentemente atinadas. El problema tiene más fondo y consiste en que la teoría nos coloca en la posición de obligarnos a aceptar una colección de paradojas o al menos propiedades exóticas e insólitas de los sistemas cuánticos, que van directamente en contra de esa intuición que un científico desarrolla conforme más profundiza en la comprensión de los motores de la naturaleza. Aceptemos que cuando se aprende algo nuevo e importante de la naturaleza se revela mucho de inesperado, lo que nos obliga a reajustar continuamente nuestra intuición. La intuición de un científico se moldea a lo largo de muchos años de formación; no hay nada de sorprendente en que la aparición de una teoría fundamental de lo ultramicroscópico nos lleve hacia un mundo nuevo con leyes y conductas nuevas. Así también sucedió con la teoría de la relatividad, la que nos ha abierto todo un mundo de posibilidades insospechadas y extrañas. Pero, y es en los peros donde con frecuencia anidan los problemas, lo que demanda de nosotros la mecánica cuántica como hoy la conocemos, es la renuncia a principios realmente fundamentales de la ciencia. Nos pide, por ejemplo, que abdiquemos de la causalidad completa y total, y con ello del determinismo. Nos pide que renunciemos al realismo, en el sentido de la preservación de la realidad permanente del corpúsculo en su movimiento. Nos pide que aceptemos que hemos alcanzado un límite para nuestro conocimiento del mundo físico que no es ya posible rebasar; es decir, que aceptemos que hemos encontrado ya la física que habrán de usar todas las futuras generaciones. Nos pide, en fin, que aceptemos que la naturaleza es no local, es decir, que una parte de un sistema puede ejercer una acción inmediata sobre otra, sin mediar entre ellas interacción alguna conocida. La posición de principio de un físico es lealtad a la naturaleza. Si ella, la naturaleza, nos muestra que su manera de actuar no corresponde a lo que esperábamos, aceptamos sin protestar cambiar nuestra forma de pensar para hacerlo de acuerdo con la lección recién aprendida: aprendemos de la naturaleza sin pretender que ella respete nuestros prejuicios. A esta aparente docilidad se contrapone otra actitud relativamente frecuente, que es el conservadurismo, llamémosle defensivo, del conocimiento establecido, que conduce a la rigidez intelectual. Pareciera, pues, que la resistencia a hacer nuestra buena parte de aquello que emerge de la física cuántica no es sino otra manifestación de ese conservadurismo “protector”. La esencia del problema radica, sin embargo, en que cuando se trata de abandonar principios tan profundos y generales como los de localidad, realismo o causalidad, lo menos que podemos esperar es que se demuestre la necesidad incuestionable, irrefutable, de tal proceder.
Es ahí donde se encuentra la raíz del problema: no para todo mundo resultan convincentes los argumentos que han sido esgrimidos para aceptar la interpretación usual, común, ortodoxa o de Copenhague, de la mecánica cuántica. Y en efecto, para aceptar una renuncia tan radical de los principios básicos heredados de la protofísica general, es justo demandar que la necesidad de abandonar principios fundamentales como los ya mencionados se demuestre con procedimientos estrictamente físicos e incuestionables. Y este no es el caso. Lo que realmente sucedió durante la construcción de la teoría fue que, una vez encontrado —bastante azarosamente, por cierto— el formalismo matemático requerido, se le fue vistiendo con un ropaje hecho a la medida y escogido al gusto de los sastres, es decir, de los fundadores, quienes en su mayoría resultaron ser positivistas. Este ropaje es, precisamente, la interpretación física que debía asignarse al formalismo, esto es, empleando un término más técnico, la correspondiente semántica. Como el nombre lo indica, la semántica de una teoría física es el conjunto de reglas interpretativas que asigna un significado físico preciso a cada uno de los símbolos matemáticos de la teoría que tienen sentido físico directo. Sin semántica, es decir, sin interpretación, la teoría es una estructura matemática carente de sentido físico, son matemáticas puras, ajenas a la realidad física. La tarea de construir la semántica cuántica no fue un asunto trivial; de hecho, requirió varios años y muchas discusiones e incluso generó complejas objeciones desde un principio, elevadas por varios de los propios fundadores de la teoría, como Einstein, De Broglie, en algún sentido específico el propio Schrödinger, para citar sólo figuras de primera línea. Recurramos a un ejemplo específico para concretar un poco lo que estoy diciendo. La mecánica cuántica nos permite hacer sólo predicciones de tipo estadístico. Muchas y muy variadas situaciones nos pueden servir para ilustrar esto. Un ejemplo común es el caso de una pequeña muestra radiactiva: podemos calcular con precisión cuánto tiempo tardará en desintegrarse, digamos, la mitad de sus átomos. Pero no podemos determinar si el siguiente átomo de la muestra en decaer es éste o aquél; tampoco podemos predecir en qué dirección habrá de salir la partícula emitida. Algo similar ocurre con la posición de un electrón en su átomo: lo más que la teoría nos permite predecir es la probabilidad de que se encuentre en una u otra pequeña zona de la región del espacio ocupada por el átomo. En todos los ejemplos de este tipo nos encontramos con una dicotomía: nosotros sólo podemos determinar qué tan probable sería un posible resultado u otro si hiciéramos la observación respectiva. Pero si efectivamente hacemos tal observación se obtiene en cada caso un resultado preciso. Es decir, la naturaleza sí determina el resultado; nuestra teoría, no. Si aceptamos que la descripción que nos brinda la teoría cuántica es estadística, esta observación no resulta extraña, pues de antemano sabemos que toda descripción estadística es incompleta. Análogamente, sólo podemos calcular la probabilidad de que nuestro billete salga premiado en el próximo sorteo de la lotería; pero cuando se realice el sorteo, saldrá o no premiado, sin indeterminación alguna. Pero no es éste el punto de vista que se adopta en la interpretación usual. Encontramos aquí al menos dos problemas severos. El primero es que en la interpretación usual de la mecánica cuántica se insiste en que ella describe casos concretos, es decir, un átomo específico y único, o un electrón dado en los ejemplos anteriores. Y ese átomo específico decae en un momento específico que no podemos determinar. Además, puesto que el electrón en que hemos fijado nuestra atención tiene una probabilidad dada de encontrarse en un cierto lugar, y otra de estar en otro, y así sucesivamente, la interpretación usual, al ver un único electrón, le asigna todos esos lugares de manera simultánea, es decir, ve al electrón como una nube distribuida en el volumen atómico: el electrón como corpúsculo desaparece y se transforma con ello en una especie de onda ampliamente distribuida en el espacio. Pero con esta solución no sólo hemos creado el problema conceptual evidente, consecuencia de la transmutación, sino otros. Por ejemplo, dado que el electrón posee masa y carga eléctrica, éstas quedan también distribuidas en todo el volumen atómico. No deja de ser extraño que la carga eléctrica del electrón, que consideramos indivisible (no hay fracciones libres de la carga eléctrica del electrón; al menos nunca las hemos observado), se distribuya de manera continua en regiones arbitrariamente extensas del espacio. Podemos aún agregar que es común considerar que la información que proporciona la mecánica cuántica es la máxima que puede obtenerse. Si creemos que la teoría intenta describir la realidad, entendida ésta en alguna forma apropiada, resulta que o la tal realidad se nos esconde parcialmente y nos impone un límite a su conocimiento detallado; o bien, que ella, la realidad, vive en un permanente estado de indeterminación, que sólo se colapsa en una situación definida cuando hacemos una medición específica. De lo que acabo de decir, por extraño que suene, y de muchas cosas más que no resultan menos insólitas, está colmada la mecánica cuántica. Son estas peculiaridades, que emergen de la interpretación usual del formalismo cuántico, lo que ha conducido a muchos físicos a preguntarse si no será posible construir un camino alterno, libre del mayor número posible de ellas o, mejor aún, de todas ellas. En la lista de estos físicos iconoclastas figuraba Tomás Brody. Su visión materialista y realista le hacía demandar de una teoría física fundamental, características que, como se infiere de lo que hemos dicho, no posee la mecánica cuántica en su versión oficial. Su fino espíritu crítico le condujo a estudiar con detalle varios de estos problemas y a profundizar en sus vericuetos. El volumen que estaba preparando en la época de su muerte recoge una buena parte de los resultados de esas preocupaciones, así como un número de la Revista Mexicana de Física dedicado a los artículos sobre el tema que dejó inéditos. En esos volúmenes se encuentran discutidos con bastante detalle un buen número de importantes problemas interpretativos y conceptuales de la mecánica cuántica, para los cuales Tomás ofrece con frecuencia puntos de vista originales muy interesantes. Todos aquellos interesados en tales temas encontrarán en estas obras una riquísima fuente de inspiración y conocimientos. IV Una posibilidad de solución a fondo de los problemas conceptuales de la mecánica cuántica que mucho atrajo la atención de Tomás y que tuvimos oportunidad de discutir en varias ocasiones, es la teoría que varios investigadores de diversos países hemos venido desarrollando desde hace algún tiempo, teoría que llamamos electrodinámica estocástica y que, en nuestra versión particular actual, toma una forma más evolucionada que designamos como electrodinámica estocástica lineal. Dada su relativa reciente creación (sus inicios datan de hace cosa de diez años) Tomás no conoció esta última versión de la teoría, pero puedo decir con plena seguridad que le hubiera agradado sobremanera. La razón de ello es muy simple: es ésta la versión de la electrodinámica estocástica que más se ha acercado a los objetivos que se persiguen con esta teoría, es decir, dar una explicación física y conceptualmente aceptable de los fenómenos cuánticos. La idea fundamental que define a la electrodinámica estocástica fue para él tan atractiva —sumada a una serie de resultados satisfactorios que esta teoría generó desde el principio de su estudio— que pronto se convirtió en su mejor propagandista: cuanta oportunidad tuvo Tomás la utilizó para dar a conocer los intentos y esfuerzos que se estaban realizando por desarrollar la electrodinámica estocástica y sus resultados. Permítanme describir de manera somera la idea básica de esta teoría, pues puede resultar interesante para algunos de ustedes, al menos para quienes tengan su corazón cercano a la física. En todo caso seré muy breve para no correr el riesgo de agobiarles. Vamos a ver el problema desde una perspectiva intuitiva, que tiene la doble ventaja de introducirnos al principio que constituye el punto de partida de la teoría y nos sugerirá a la vez el camino a la solución de dos problemas fundamentales de la teoría cuántica: el origen de la estabilidad atómica, es decir, el porqué los átomos existen y no se colapsan, y el mecanismo de su cuantización, es decir, la razón por la que sólo se realizan ciertas órbitas estables que poseen energía bastante precisa. Pensemos en un electrón atómico que imaginamos revoloteando alrededor del núcleo del átomo, más o menos (más bien menos que más, pero en fin, sirva de punto de partida) como nos lo pintan en los dibujos del átomo estilo Walt Disney. Aquí aparece de inmediato un problema, pues si una carga eléctrica, como es el electrón, se mueve en esta forma (acelerada) necesariamente radia, es decir emite ondas electromagnéticas, similares a las de radio. Es así precisamente, ustedes lo saben, como se emiten las ondas de radio y de televisión: se ponen electrones a vibrar en la antena mediante una corriente eléctrica y la antena radia. Pero radiar significa emitir energía, por lo que los electrones del átomo en cuestión están perdiendo su energía. Y tan no es poca que un calculito nos muestra que en bastante menos de un billonésimo de segundo cada electrón atómico debería perder toda su energía, conduciendo al colapso del átomo. Pero los átomos no se colapsan, sino que se mantienen estables a través de los milenios. Algo importante, pues, nos está faltando. Aunque la respuesta va a ser simple y natural, vale la pena recordar que éste fue un problema que se planteó a la física y no encontró solución de amplia aceptación durante largo tiempo, debido tal vez a los prejuicios de la época. Lo usual, lo “natural” desde la perspectiva dominante durante la etapa de construcción de la física cuántica —y de hecho desde antes y hasta bastante después— era ver un átomo como un sistema aislado del resto del mundo. Esta perspectiva es usual en la física, en la que se acostumbra considerar al sistema estudiado como algo desconectado de sus alrededores. En la separabilidad de los sistemas físicos se basa buena parte del éxito de esta ciencia, pero también es claro que debe tenerse cuidado en decidir cuál es la porción del mundo físico de interés que resulta separable. Parte importante del éxito o del fracaso del estudio depende de esta decisión. Pero visto así nuestro problema simplemente no tiene solución, al menos dentro de la física clásica, que era la única que se conocía en las primeras décadas del siglo xx. Nuestro análisis nos proporciona, sin embargo, si estamos dispuestos a abandonar el prejuicio mencionado, la clave para salir adelante. Vimos que cada electrón atómico emite radiación; si ahora pensamos en todos los átomos del universo, percibimos de inmediato que el espacio debe de estar lleno de esta radiación, emitida desde todos sus átomos, cercanos y lejanos. Luego el átomo que estamos estudiando también está inmerso en ella y sus electrones responderán absorbiendo parte de la energía del campo. Esto significa que los electrones están todo el tiempo absorbiendo y emitiendo energía en forma de radiación electromagnética. Puesto que los átomos son estables deberá suceder que existen órbitas para las cuales en promedio se emite tanta energía como se absorbe. Si la teoría confirma la existencia de tales órbitas estables, tendríamos aquí identificado el mecanismo que brinda su estabilidad a los átomos. La electrodinámica estocástica recoge esta observación y la convierte en su principio rector. Postula que en el universo existe un campo electromagnético de fondo, llamado de vacío, sumamente complejo y azaroso, en el seno del cual se encuentran inmersos todos los átomos. En consecuencia el movimiento de los electrones resulta azaroso y muy complicado. Esto tiene secuelas importantes; por ejemplo, implica que no podemos conocer con detalle el movimiento al que está sujeto en un momento dado un electrón determinado, y que sólo lo podremos describir de manera estadística. A lo largo del tratamiento matemático de este problema, que es bastante complejo, se hace necesario introducir una serie de aproximaciones para su simplificación, pero se encuentra posible prestar atención exclusivamente a los movimientos que conducen a situaciones estadísticas estables. Resulta, como es de esperar intuitivamente, que tales condiciones se dan sólo para ciertas órbitas estocásticas (azarosas), pues la gran mayoría de los posibles movimientos no conducen al equilibrio energético, lo que identifica el mecanismo de la cuantización atómica. Vemos de esta manera que, pese a la simplicidad conceptual de la teoría, ella sugiere amplias posibilidades para entender y explicar el comportamiento cuántico de la materia. En otras palabras, de la teoría se desprende que las propiedades cuánticas de la materia, contrario a lo que hoy se estima, no son intrínsecas a ella, sino adquiridas, inducidas por su contacto estrecho, íntimo, inevitable con el resto del mundo por medio del campo de fondo de vacío. Para un físico y un filósofo de la ciencia esta conclusión es sumamente interesante, pues representa un vuelco en nuestra comprensión de la estructura de la materia. Nuestras conclusiones nos invitan a pensar que la electrodinámica estocástica contiene efectivamente el germen de la explicación física del comportamiento cuántico de la materia. Incluso la famosa dualidad onda-corpúsculo tan propia de la física cuántica, es decir, el hecho de que hay situaciones en las cuales los corpúsculos cuánticos se comportan precisamente como tales, como partículas, pero que hay otras, no infrecuentes, en las que se comportan como ondas. Esta propiedad, cuyo origen resulta un misterio para la teoría usual, adquiere aquí visos de plausibilidad, pues cada sistema cuántico contiene como elemento fundamental además de sus partículas, el campo. En aquellas circunstancias en que este último logre imponer su marca ondulatoria sobre el movimiento de aquellas, éstas reaccionarán manifestando un aparente comportamiento ondulatorio. Hasta donde la teoría ha llegado, esto queda confirmado por los cálculos. El desiderátum de Einstein de alcanzar una descripción determinista no se realiza en la presente teoría. Sin embargo, tal y como él lo esperaba, las ecuaciones iniciales de la electrodinámica estocástica lineal, las que describen el comportamiento de un electrón único, son perfectamente deterministas. No entra en ellas ninguna noción estadística y, en principio, describen de manera detallada el destino de cada electrón. Y lo conoceríamos, si fuera dable averiguar el campo de vacío específico en que tal electrón habrá de moverse. Pero esto queda fuera de nuestro alcance; pues se trata de un campo que se da de manera azarosa, imposible de prever en cada caso y al cual no podemos tener acceso detallado. La situación no es conceptualmente muy diferente de lo que sucede con las moléculas de un volumen de gas encerrado en una botella. Puesto que son billones de billones las moléculas ahí contenidas; es claro que no podemos conocer cómo se mueve cada una de ellas en un momento dado. Así pues, para describir lo que sucede no sólo tenemos, sino debemos recurrir a métodos estadísticos, que es lo que nos proporciona la descripción termodinámica del gas en términos de un número muy reducido de características, como la presión y la temperatura, en vez del absurdo multibillonario de pretender describir cada molécula, lo que a nadie interesaría, suponiendo que se pudiera hacer. Como decíamos, en el caso del electrón sucede algo similar: la enorme, enormísima complejidad del campo de fondo y su total desconocimiento pormenorizado en cada caso, hacen simplemente imposible y a la vez indeseable intentar una descripción detallada de su accidentado movimiento. Lo razonable y deseable a la vez es precisamente recurrir a una descripción estadística. Es así como la electrodinámica estocástica da un contenido fundamental y claro al hecho de que la descripción cuántica sea meramente estadística. Vemos que se trata de la existencia de fluctuaciones que son enteramente causales, pese a que su descripción deba hacerse en términos probabilistas y que resulta imposible evitar el carácter estadístico, y por lo tanto, incompleto de la descripción. En otras palabras y como conclusión, la mecánica cuántica usual debe interpretarse siempre en términos de conjuntos estadísticos y no en términos de un único sistema, como usualmente se pretende. Espero que esta pequeña narración pueda servir como una invitación para que algunos de ustedes, o muchos, o todos, se animen a conocer de cerca la obra de Brody. Pueden estar seguros de que siempre la encontrarán interesante y muy original, como es la propia de un pensador creativo. |
||
Nota
Este texto fue leído con motivo de la Inauguración de la Cátedra Tomas Brody del Centro Universitario de Lagos, Lagos de Moreno, Jalisco, mayo de 2006. Referencias bibliográficas Brody, T. A. y M. Moshinsky. 1964. Tables of Transformation Brackets. Gordon and Breach, Nueva York. Brody, T. A. 1993. The Philosophy Behin d Physics, L. de la Peña y P. Hodgson (eds.). Springer-Verlag, Berlín. De la Peña, L. y A. M. Cetto. 1996. The Quantum Dice. An Introduction to Stochastic Electrodynamics, Kluwer Academic Publishers, Dordrecht. T. A. Brody, Inedited papers-Artículos inéditos, A. M. Cetto y L. de la Peña (comps.). 1989, en Revista Mexicana de Física, 35, suplemento, diciembre. _______________________________________________________________
|
||
Luis de la Peña
Instituto de Física, Universidad Nacional Autónoma de México. Es ingeniero en electrónica y doctor en ciencias físico-matemáticas. Investigador emérito de la unam y del SNI. Labora en el Instituto de Física y en la Facultad de Ciencias. Su área de investigación es la física teórica, fundamentos de la teoría cuántica y procesos estocásticos. Autor de diez libros, un centenar de artículos de investigación y ochenta ensayos de política científica y divulgación.
|
||
como citar este artículo → De la Peña, Luis. (2008). De las virtudes de la iconoclasia: una mirada a la obra de Tomás Brody. Ciencias 89, enero-marzo, 16-28. [En línea]
|
||
←Regresar al índice ⁄ artículo siguiente→ |