revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
01 012b
     
2005, voltear al pasado para mirar al futuro
 
El 14 de marzo se festejó el aniversario 126 del nacimiento de Einstein. Poco después, el 18 de abril, se recordaron los cincuenta años de su muerte.
Luis de la Peña
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
 
El 14 de marzo se festejó el aniversario 126 del nacimiento de Einstein. Poco después, el 18 de abril, se recordaron los cincuenta años de su muerte. Pero durante todo el año, en innumerables actos esparcidos por el mundo, se celebra el primer centenario de los trabajos que publicó durante su anno mirabilis, aquel 1905. Con frecuencia, los trabajos escritos y los publicados por un investigador en un año no coinciden. Para ser más realistas, normalmente no lo hacen, y menos en la actualidad pues es usual que una revista demore cerca de un año, y en ciertas especialidades mucho más, en publicar los textos recibidos. Aunque al inicio del siglo xx los plazos eran bastante más cortos —entre 3 y 4 meses—, de los cinco trabajos que Einstein escribió en 1905 sólo se publicaron cuatro ese año —el último apareció en 1906. Es bien sabido que con ellos abrió tres capítulos fundamentales de la física: la teoría de la relatividad, la teoría fotónica de la radiación —el efecto fotoeléctrico— y la teoría de los procesos estocásticos —el movimiento browniano.
 
A la teoría de la relatividad dedica dos trabajos. Con el primero, una de las obras maestras de la ciencia del siglo xx, nace esta teoría que ofrece una descripción de la cinemática y dinámica de los cuerpos congruente con el principio —formulado por el propio Einstein— de la constancia de la velocidad de la luz para todos los observadores. Es la forma que debe adquirir la vieja mecánica newtoniana para hacerla congruente con la teoría electromagnética y emerge de una profunda revisión de los conceptos de espacio y tiempo, los cuales pierden su carácter de absolutos para depender del estado de movimiento de los cuerpos. Esta es la razón del nombre de la teoría.
 
En el segundo, concibe lo que hoy representa la fórmula más famosa de la física, E=mc2, la cual establece la equivalencia entre masa y energía. Lo inesperado de este resultado puede sentirse con el siguiente razonamiento. Pensemos en un cuerpo cualquiera que ponemos en movimiento. Esto significa que le hemos suministrado energía —asociada al movimiento impartido, es decir, cinética. Siguiendo la fórmula de Einstein resulta que como el cuerpo posee más energía, también posee más masa. En otras palabras, la teoría de la relatividad predice que la masa de un cuerpo crece con su velocidad. Desafortunadamente esto no sirve para transformar un kilo de manzanas en dos, pues tendríamos que lanzarlas a una velocidad cercana a 87% de la velocidad de la luz, lo cual sería más costoso que el kilo extra de manzanas. Sin embargo, el ejemplo ilustra la riqueza de resultados —y de sorpresas— que brinda la teoría de la relatividad.
 
El primer trabajo que publicó en 1905 está dedicado al estudio de la absorción y emisión de la luz. En él propone la idea de concebir la luz —en general, la radiación electromagnética— como constituida por parcelas independientes de energía definida, los corpúsculos luminosos conocidos hoy como fotones. Idea trascendente y audaz, cuya importancia creció con el tiempo al convertirse en fundamento de la teoría cuántica de la radiación. La ruptura conceptual propuesta con este trabajo puede apreciarse si recordamos que en la época de su publicación toda la física estaba inmersa en el concepto de continuo; ni siquiera la materia se entendía como un medio discreto.
 
Los dos trabajos dedicados al movimiento browniano —uno publicado en 1906, porque su autor lo utilizó como tesis doctoral— representan otro gran paso en nuestro conocimiento del mundo físico. Con ellos inicia el estudio de los sistemas físicos sujetos a la acción de fuerzas aleatorias; es decir, la teoría —tanto física como matemática— de los procesos estocásticos, cuya importancia puede estimarse al recordar que uno de estos artículos se ha mantenido a través de las décadas como el trabajo más citado de Einstein —los otros ya son tan clásicos que no se citan. Es interesante señalar que tales citas provienen con mucha frecuencia del campo de la ingeniería química, concretamente de la industria de coloides, ya que resultan fundamentales en ambas especialidades.
 
El primer trabajo de Einstein sobre el movimiento browniano aborda y resuelve con mucha creatividad un añejo problema: abrir una vía para demostrar experimentalmente la realidad de las moléculas. Hasta ese momento, la idea de que la materia está compuesta de moléculas era una simple —pero muy útil— hipótesis, sin base experimental, fuertemente rechazada por un amplio sector de físicos y químicos, aunque atractiva para otros. En este trabajo propone un método para medir las dimensiones de una molécula de agua a partir de las propiedades estadísticas del movimiento de una partícula muy pequeña —por ejemplo, un grano de polen o de pigmento— suspendida en agua. La idea es que la partícula en suspensión es golpeada constantemente por un gran número de moléculas —en realidad, millones de ellas—, lo que debe imprimirle un constante movimiento errático. Este es el movimiento browniano, llamado así porque fue el biólogo escocés Robert Brown —quien identificó el núcleo celular— el primero en reportarlo en 1827. La causa de este movimiento perenne no fue entendida hasta que Einstein publicó su trabajo titulado “Determinación de las dimensiones de una molécula”. Poco después, los experimentos fueron realizados por el físico francés Jean Perrin, quien alrededor de 1910 anunció el éxito de su empresa: los átomos son una realidad física, no una útil ficción.
A pesar de esquemática y breve, la anterior descripción permite entrever una de las características de la investigación científica que con mayor frecuencia se entiende mal, particularmente por quienes desean planificarla o dirigirla hacia fines aplicados apremiados por las necesidades locales. Los trabajos de Einstein pertenecen al terreno de la física teórica. Ninguno fue realizado con un fin predeterminado diferente del puramente científico. Sin embargo, a la larga, todos encontraron aplicaciones de gran importancia. No sólo las inmensas consecuencias de toda índole que se derivaron del conocimiento de la estructura molecular de la materia, sino resultados directos de aplicación de los nuevos conocimientos establecidos en tales trabajos.
 
Por ejemplo, la teoría del movimiento browniano en la industria química. El efecto fotoeléctrico, cuya teoría fundamental Einstein esboza en el trabajo de la cuantificación de la radiación, tiene un gran número de aplicaciones —una variante moderna de uso cotidiano lo encontramos en los controles remotos infrarrojos de los aparatos electrodomésticos. La teoría cuántica del campo de radiación, cuyo germen es el mismo trabajo, también condujo a una gran variedad de aplicaciones, entre las que el láser es de las más extendidas. La transformación relativista de masa en energía es la base de los reactores nucleares. Aunque también de las bombas nucleares.
 
Probablemente éste sea un buen ejemplo de lo que declaró un antiguo presidente de la Royal Society de Londres: “únicamente hay ciencia aplicada y aún no aplicada; sólo es cuestión de tiempo”. Otro excelente ejemplo lo brinda la teoría de los números. ¿Que rama de las matemáticas podemos concebir más alejada de lo mundano, del terreno de lo práctico, que la teoría de los números? Sin embargo, ella ha encontrado aplicación concreta en el diseño de sistemas inviolables de transmisión de información. Pero hay una contraparte, restringir la investigación científica a la dirigida hacia aplicaciones inmediatas equivale a cerrar su futuro. El motor fundamental de varias ciencias —matemáticas, astronomía, física, etcétera— es interno; los problemas importantes que les dan vida y dirección las más de las veces emergen de ellas mismas, no del exterior. Es claro que deben investigarse los problemas propios del entorno y, en particular, los más apremiantes y de mayor utilidad social, es decir, utilizar la ciencia en nuestro beneficio y para crear nuestra tecnología. Pero esta tarea, urgente e importante, no debe realizarse a expensas de la igual de urgente e importante tarea de avanzar en la construcción del conocimiento científico. Son dos caras de una moneda, la cual deja de ser moneda si carece de cualquiera de ellas. Trágicamente, esto se pierde de vista en nuestros países, los llamados, de manera más optimista que realista, en vías de desarrollo.
 
Asomándonos al futuro cercano
 
Durante toda su vida, Einstein se mantuvo activo en los tres frentes de la física que abrió: el relativista, el cuántico y el estadístico. Por etapas, se dedicaba a uno o al otro con mayor o menor empeño, pero sin abandonar por entero los otros dos. Su más reconocido éxito lo obtuvo con la Teoría general de la relatividad en 1915, cuya formulación constituye una de las mayores proezas intelectuales de todos los tiempos. En el fondo, es una teoría de la gravitación que tiene la peculiaridad —no se conoce otro ejemplo similar y aquí brilla único el genio de Einstein— de que en ella la geometría del espacio no está fijada de entrada, sino que resulta determinada por la propia teoría en cada caso. Durante la última etapa de su trabajo —los últimos veinte años de su vida—, emprendió una nueva y muy ambiciosa tarea, tratar de construir una teoría que unificara la gravedad y el campo electromagnético, pues en la Teoría general de la relatividad el último aparece como un elemento externo, no intrínseco, como sí lo es la gravedad. No tuvo éxito. Hoy conocemos mejor la razón de ello. No sólo fue la inmensa dificultad del problema, sino que carecía de algunas de las herramientas necesarias. Por ejemplo, en la naturaleza, además de los campos electromagnético y gravitacional, únicos conocidos por Einstein, existen otros descubiertos con el auxilio de la física cuántica. Así, para construir una teoría unificada de los campos, ésta tiene que ser cuántica y debe considerar a todos los campos.
 
El tema brinda una buena oportunidad para otear, con cautela, hacia el futuro. Durante la transición del siglo xix al xx se realizaron muchas predicciones sobre el desarrollo de la física del siglo que iniciaba. Ninguna acertó, ni siquiera de manera aproximada. En retrospectiva puede afirmarse que simplemente era imposible prever en 1900 el explosivo progreso de esta ciencia apoyado en la física clásica, la cual pronto quedó rebasada. Naturalmente, no han faltado predicciones sobre lo que sucederá con la física, y más en general con la ciencia, durante este recién estrenado siglo. Es muy probable que en poco acierten. Sin embargo, para un horizonte temporal más corto, por ejemplo las próximas dos décadas, es posible entrever algunas tendencias. Existen varias ramas de la física actual que por su relevancia, sea científica o por sus posibles aplicaciones, se encuentran en estado de ebullición.
 
Recordemos en primer lugar el estudio de los sistemas dinámicos —también conocidos como sistemas complejos o caos determinista, entre otros nombres. Probablemente, este tema provocará una apertura de los métodos de la física hacia otras ciencias, en particular la biología y algunas ramas de las ciencias sociales, lo cual conducirá a resultados y aplicaciones inesperadas. Los conocimientos de la mecánica que habrán de emerger del estudio de los sistemas complejos nos darán una visión totalmente renovada de ésta, la más vieja rama de la física, especialmente cuando se alcance a formular su teoría general, la cual está por inventarse prácticamente en su totalidad. Más aún, dada la visión holista que requiere este tipo de estudios, bien pueden impulsar la construcción de una teoría general de sistemas —aunque esto podría ser a un plazo mayor—, asunto pendiente desde hace décadas y que ha recibido relativamente poca atención.
 
Otros capítulos de la física destinados a desarrollarse explosivamente es el de las nanoestructuras y de otros sistemas mesoscópicos. Durante siglos de estudios mecánicos el nivel mesoscópico fue dejado de lado, probablemente debido a la combinación de dos factores. Primero por las dificultades para estudiarlos, pues no son aplicables las aproximaciones y simplificaciones válidas para los casos extremos de lo muy pequeño o lo muy grande —lo microscópico o lo macroscópico. Segundo, no se creía que tuvieran mayor interés, por lo que se les dejaba de lado con facilidad. Pero en las últimas décadas, algunos descubrimientos mostraron que sucede precisamente lo contrario y que en este nivel hay sistemas de enorme interés por sus extraordinarias propiedades y sus posibles aplicaciones. Prueba de ello es que varios países, particularmente los Estados Unidos y Japón, dedican varios centenares de millones de dólares anuales a estos estudios. Desafortunadamente, parece que también este tren se nos va a ir.
 
Actualmente, casi no hay campo de la física —incluida la astrofísica— que no explore terrenos novedosos. Por ejemplo, la mecánica cuántica, que hasta hace poco parecía estar hecha, ahora podría conducirnos, si se logran resolver los enormes problemas que se interponen en el camino, a las computadoras cuánticas, lo cual representaría una revolución no menor a la que generó la electrónica de estado sólido —la sustitución de los bulbos de las primeras computadoras por los dispositivos de estado sólido, primero el transistor y después su miniaturización y ultraminiaturización en los actuales chips, cada uno de los cuales puede contener algunos millones de transistores.
 
La vieja teoría electromagnética de Maxwell, construida a principios de la segunda mitad del siglo xix, unificaba en un esquema matemático común la descripción de los campos eléctrico y magnético, y describía cómo uno puede transformarse en el otro. Estos conocimientos llevaron a resultados de enorme significado práctico, aportaron la base en que se fundó la industria eléctrica y la de radiocomunicaciones, lo cual constituye otro ejemplo de la impredecibilidad de los resultados de la investigación científica —la posibilidad de comunicación con los barcos en altamar no se resolvió antes de que Hertz demostrara la existencia de las ondas electromagnéticas, predichas por la teoría de Maxwell, y la potencialidad que tienen para la radiocomunicación.
 
La unificación en un esquema matemático común del electromagnetismo y la gravitación constituiría un inmenso paso hacia la construcción de una teoría física básica de la naturaleza, propósito al que Einstein dedicó sus últimos años. Hoy, el conocimiento de los diversos campos que ocurren en la naturaleza y de las partículas elementales que constituyen nuestro mundo permite creer que el momento está maduro para proseguir esta búsqueda de la teoría unificada. Ahora, el programa es más ambicioso, porque creció el número de campos y por la naturaleza necesariamente cuántica del problema. Para muchos, este asunto constituye el problema central de la física, y, en consecuencia, el más atractivo que pueda concebirse. Es por ello que una parte significativa del esfuerzo actual en investigación física se realiza de manera paralela en diversas vertientes de este campo. Hasta el momento, los resultados distan de ser espectaculares, pero el futuro es promisorio. Qué habrá de salir finalmente de este enorme esfuerzo es una incógnita, pero la importancia intrínseca del problema bien lo merece.
 
El panorama que emerge de esta perspectiva parcial y un tanto esquemática es el de una física que profundizará y extenderá con amplitud su campo de actividad, enlazándose estrechamente con otras disciplinas y abriendo nuevas fronteras y enfoques del conocimiento científico, también promoverá novedosas e importantes aplicaciones. Si consideramos el impetuoso ritmo con el que creció la ciencia durante el siglo xx, el cual seguramente se mantendrá al menos en las próximas décadas —y que incluso tiene alta probabilidad de incrementarse, pues no hay razones para creer que el desarrollo científico actual haya alcanzado un punto de saturación— puede esperarse que las nuevas generaciones que en estos momentos se inician en las labores de investigación tendrán la oportunidad de hacer grandes contribuciones al conocimiento científico o a sus aplicaciones. Por lo tanto, podemos ser optimistas con los jóvenes físicos, por delante tienen una enorme riqueza de posibilidades. Esperemos que trabajen con ahínco y éxito.
 
Einstein pacifista
 
Sería profundamente injusto para la figura de Einstein que al recordar su obra olvidáramos otra de las vertientes en la que estuvo muy activo. Por lo más íntimo de su naturaleza, fue permanentemente un pacifista y antimilitarista nato y consistente. Al cumplir 17 años, cuando se presentó el problema de tener que cumplir con el servicio militar, sumado a que consideraba acartonada y autoritaria la enseñanza en Alemania, abandonó su país para continuar sus estudios en Suiza. No retornó hasta 1913, atendiendo una insistente invitación de Planck, Nernst y otros destacados físicos alemanes. Pero algunos años más tarde, cuando Hitler tomó el poder, Einstein se desprendió para siempre del suelo alemán.
 
Durante la primera guerra mundial, de la cual, para muchos incluyendo al propio Einstein, Alemania era la responsable, colaboró con los movimientos pacifistas a su alcance e hizo constantes pronunciamientos por un gobierno democrático para su país. En ese momento Einstein ya era una figura internacional de relieve, por lo que sus opiniones tenían amplia resonancia, aunque en la propia Alemania su orientación pacifista causaba disgusto en vastos sectores de la población. En 1920, la recién creada Liga de las Naciones, antecedente inmediato de la Organización de las Naciones Unidas (onu), formó un Comité de Cooperación Intelectual para movilizar a intelectuales de todo el mundo en favor de la paz. Einstein fue invitado a integrarse y colaboró en él durante diez años. Renunció en 1930 declarando que lo hacía por su convicción de que al Comité le faltaba la determinación necesaria para avanzar realmente hacia mejores relaciones internacionales. Einstein también fue miembro de la mesa directiva de la Liga Alemana de Derechos Humanos y como tal en 1928, cuando el movimiento nazi ya ocupaba posiciones de poder en Alemania y Mussolini en Italia, escribió que “la apatía política de la gente en época de paz hace temer que en su momento irán dócilmente hacia el sacrificio. Puesto que hoy carecen aunque sea del coraje para firmar un manifiesto en favor del desarme, mañana se verán forzados a derramar su sangre”. Trágicamente, pocos años más tarde, eso fue precisamente lo que sucedió. A partir de 1928 de manera insistente llamó a rehusar incondicionalmente participar en cualquier servicio para la guerra, directo o indirecto, y con independencia de las causas específicas del conflicto —misma actitud del gran físico y químico Michael Faraday, quien ya como figura de gran prestigio, se rehusó a colaborar en la producción de gases venenosos para ser usados en la guerra que Inglaterra sostenía contra Crimea. También trae a la mente el hecho de que una fracción importante, normalmente superior a 50% en algunos países, del actual esfuerzo de investigación en ciencia y tecnología está dirigido hacia fines militares. En otras palabras, una porción muy importante de investigadores científicos y técnicos, en particular pero no exclusivamente en los países industrializados, participan de manera voluntaria en actividades con fines militares.
 
Cuando en los años treintas del pasado siglo, se organizaron las conferencias de Ginebra en busca de acuerdos que reglamentaran los usos de las armas, Einstein declaró: “Pienso que la Conferencia va en busca de un mal compromiso. Cualquier acuerdo que se alcance sobre las armas permitidas durante la guerra será roto tan pronto ésta inicie. La guerra no puede ser humanizada. Solo puede ser abolida”. Aunque nunca abandonó sus convicciones pacifistas, a partir de 1933, con Hitler como canciller del Tercer Reich, se vio forzado a llamar a la resistencia armada como única posibilidad de derrotar la barbarie nazi. Este es el cambio que finalmente le condujo hacia su participación más conocida durante la segunda guerra mundial, la carta al presidente Roosevelt sugiriendo la integración de una comisión que estudiara la posibilidad de construir la bomba atómica en el tiempo más breve posible. Se trata de un episodio de gran relieve que conviene revisar más de cerca. Hacia 1939 se hizo de dominio público que era posible sostener una reacción nuclear en cadena a partir de la fisión del uranio.
La fisión o ruptura de un núcleo de uranio —en particular, del isótopo U235— se logra bombardeándolo con un neutrón —partícula similar a un protón, pero neutra. En condiciones apropiadas la fisión también produce, en promedio, más de un nuevo neutrón, los cuales dan lugar a nuevas fisiones y así sucesivamente (en cadena) si el volumen de uranio es suficientemente grande como para que los eventos se produzcan antes de que los neutrones escapen al exterior. El volumen mínimo requerido para sostener la reacción en cadena es la llamada masa crítica. El proceso es extraordinariamente rápido y como en cada fisión se libera energía que el núcleo original pierde, la energía total resulta enorme, produciéndose una violenta explosión. Un reactor nuclear genera energía en forma similar, pero el ritmo de la reacción se mantiene controlado, por abajo de la posibilidad de explosión. Los otros isótopos del uranio no liberan el número suficiente de neutrones como para producir la reacción en cadena; esta es la razón por la cual en la bomba se utiliza uranio muy enriquecido —por ejemplo, más de 90% de U235—, mientras que en un reactor se utiliza uranio ligeramente enriquecido —alrededor de 5% de U235. El proceso de enriquecimiento es sumamente complejo y costoso, por lo que la producción de la bomba requiere un gran esfuerzo humano y económico. Sin embargo, también países pobres han invertido en ella recursos que necesita apremiantemente para otros fines.
 
Aunque hubo intentos de mantener el conocimiento en secreto, éste se extendió. Los experimentos cruciales se realizaron en Alemania y ellos, que recientemente habían invadido Checoeslovaquia, país muy rico en minerales de uranio, prohibieron la exportación de ese elemento químico. Esto fue considerado como una evidencia de que los nazis buscaban producir la bomba por el físico nuclear húngaro Leo Szilard, quien había descubierto la reacción en cadena. Ante este temor, Szilard discutió el asunto con Einstein, con quien tenía vieja amistad desde su época en Berlín. El último estuvo de acuerdo en que la bomba nuclear solo en manos de los nazis representaba un grave peligro para la humanidad y que era necesario enfrentar el problema. Así, firmó la carta redactada por Szilard dirigida al presidente Roosevelt. En ella se explicaba la existencia de una real posibilidad de construir una bomba de gran potencia y transportable, que había síntomas de que los alemanes estaban tratando de construirla, y que podrían llegar a ella durante el curso de la guerra. Como resultado se creo un comité ad hoc y para 1945 el monstruo estaba preparado. Sin embargo, el evento que realmente con­dujo a la fabricación de la bomba fue un informe de los servicios secretos ingleses a Roosevelt en el que afirmaban que Alemania estaba trabajando sobre ella y que podrían tenerla lista para finales de 1943.
 
Desafortunadamente, en cadena también se presentaron los acontecimientos políticos. Los nazis fueron derrotados pero de forma inesperada Roosevelt murió y Truman, el sucesor, resultó insensible a los llamados de los científicos —e incluso de algunos políticos— para que por razones morales y de riesgo para la paz ulterior no se empleara la bomba contra Japón, el único país del eje —nazi-fascista— aún en guerra con los estados aliados. La tragedia que de ahí se derivó es bien conocida, en agosto de 1945 las ciudades japonesas de Hiroshima y Nagasaki fueron destruidas con sendas bombas nucleares —dos diferentes, para probarlas— con más de 200 000 muertos en el acto y miles de posteriores víctimas de cáncer y otros males. A partir de ese momento se inició una carrera armamentista, sostenida fundamentalmente por los Estados Unidos y la Unión Soviética, la cual condujo a la producción y almacenamiento de miles de bombas nucleares, además de los proyectiles balísticos y aviones para su transporte.
 
Al término de la guerra, cuando pudo revisarse los archivos y laboratorios alemanes, quedó claro que en efecto Alemania buscó la bomba, pero estaba muy atrasada en su producción cuando fueron derrotados. Einstein entonces declaró que consideraba la firma de la carta al Presidente Roosevelt como el mayor error de su vida y que si hubiera sabido que los alemanes no llegarían a la bomba, no habría movido un solo dedo. Constituye una trágica ironía que un pacifista y luchador empedernido por el desarme como lo fuera Einstein, se vio forzado por la gravedad de los hechos a empujar hacia la producción del más terrible artefacto creado por el hombre. A partir de ese momento y hasta su muerte, Einstein dedicó una parte muy significativa de su tiempo y sus fuerzas a su renovada lucha por el desarme, ahora el nuclear, y a prevenir contra los riesgos de la carrera armamentista.
 
Aunque como resultado de la suma de esfuerzos individuales y colectivos, nacionales e internacionales, se han dado algunos pasos en la dirección adecuada, como la firma de los tratados de no proliferación de armas nucleares, de no realización de pruebas nucleares, de destrucción parcial de los arsenales nucleares, de la declaración de zonas libres de armas nucleares —como el de Tlatelolco para América Latina—, en buena medida la tarea del desarme nuclear sigue en pie y representa una de las mayores responsabilidades para todos, cada quien desde su trinchera, pequeña o grande, si se quiere evitar una catástrofe producida por la inconsciencia del hombre. Más ahora, cuando es necesario generalizar la demanda hacia todo tipo de armas, pues a pesar de las prohibiciones hay fuertes sospechas de que en varios países se desarrollan en silencio armas químicas y biológicas que pasan a formar parte de sus arsenales modernos.
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

 

De la Peña, Luis. (2005). 2005, voltear al pasado para mirar el futuro. Ciencias 80, octubre-diciembre, 4-12. [En línea]

 

 
 
  ←Regresar al índice artículo siguiente→
1 12
     
Átomos, polen y probabilidades
 
Hace cien años, Albert Einstein escribió una serie de trabajos que transformaron la física de una manera sólo equiparable a lo ocurrido casi doscientos años antes con la obra de Isaac Newton.
Ramón Peralta y Fabi
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente
     
     
 
 
Hace cien años, Albert Einstein escribió una serie de trabajos que transformaron la física de una manera sólo equiparable a lo ocurrido casi doscientos años antes con la obra de Isaac Newton. En uno de ellos, el que fuera la base de su tesis doctoral, estudió un problema al que volvió muchas veces y sobre el que publicó más de una docena de artículos, su título: “Sobre el movimiento de partículas pequeñas suspendidas en un líquido en reposo, de acuerdo con la teoría cinética molecular del calor”. El polen y los átomos, los solutos y los solventes, así como las probabilidades, constituyen los ingredientes fundamentales que Einstein usó como motivación para formular y solucionar el problema, y convencer a sus contemporáneos de varios conceptos fundamentales para el posterior desarrollo de la física.
La invención del microscopio alimentó la avidez por ver lo pequeño, tal como antes ocurrió con el telescopio y lo grande. Con este maravilloso instrumento, los investigadores volcaron su atención al interior de los seres vivos y, en el siglo xvii, descubrieron la célula, aunque su estructura, significado y sentido no llegarían hasta el siglo xix. Robert Brown, distinguido botánico escocés y uno de los más notables naturalistas de su época, quien contribuyó al conocimiento de la célula descubriendo su núcleo, investigó los reportes sobre el comportamiento de granos de polen suspendidos en el agua. De acuerdo con éstos, además de sus propias y cuidadosas observaciones, los granitos exhibían una danza incesante. Antes de nutrir las especulaciones despertadas sobre lo que parecía la esencia de la vida, llevó a cabo un minucioso estudio con diversas partículas pequeñas, como polvos de origen orgánico e inorgánico, y encontró que el movimiento rápido, errático y constante, no era privativo de la materia viva. Incluso descubrió un trozo de cuarzo en el que las partículas suspendidas en una gota de agua, atrapadas tal vez durante millones de años, ofrecían un espectáculo tan fresco como el de la preparación matutina de su laboratorio. Con justicia, y el paso del tiempo, al movimiento que describió se le llamó el movimiento browniano. En 1900, la explicación seguía eludiendo a los estudiosos del tema.
Actualmente, los átomos ya no son una novedad y se acepta sin reparo su existencia, lo cual es bastante curioso, puesto que nunca los hemos visto, ni los veremos; ya que ninguno de nuestros sentidos está desarrollado para hacerlo. Aun así, es cómodo imaginarlos de alguna manera. De hecho, no es necesario verlos para cosificarlos, hacerlos nuestros y empezar a entenderlos. Para tener un asidero secreto cuando hablamos de los átomos, construimos en la mente una imagen, como la de pequeños sistemas solares, de diversos colores y formas; la experiencia es estrictamente personal. No es tan importante que nuestras abstracciones sean precisas, nunca lo serán, pero sí lo es saber que todas las cosas están hechas de un número finito, si bien muy grande, de partes que las constituyen: los átomos. Éstos, como idea filosófica, aparecen en la cultura helénica, con Demócrito, y llegan a la cultura latina a través del magno poema De Rerum Natura, de Tito Lucrecio Caro; obra que, por cierto, fue exquisitamente traducida al español, De la naturaleza de las cosas, por el entrañable universitario Rubén Bonifaz Nuño.
Hacia finales del siglo xix, los átomos pasaron de ser una especulación filosófica a una hipótesis física, ampliamente debatida desde muy diversos puntos de vista. Científicos de enorme influencia y prestigio como Ernst Mach, Pierre Duhem, Wilhelm Ostwald y Henri Poincaré, formaban parte de la comunidad en contra de las ideas atómicas; otro sector de igual estatura, principalmente en Inglaterra y Holanda, simplemente usaba las ideas sin tomarse la molestia de contestar a los críticos, salvo por el inmenso y un tanto solitario personaje de Ludwig Boltzmann, que defendía el atomismo como en una cruzada intelectual. En 1900, la realidad de los átomos aún no era aceptada por la mayoría de los físicos, si bien seguía acumulándose evidencia; en química ya eran indispensables para darle sentido a lo aprendido durante los últimos dos siglos.
 
Solutos y solventes
Una tía, que asegura no entender nada de mis quehaceres profesionales, sabe perfectamente que basta con una pequeña gota de añil para teñir su vestido más extenso o que una gota de desinfectante en una jarra es suficiente para acabar con los bichos invisibles que —dice— seguramente la acechan en el fondo. Su intuición y su experiencia son correctas, aunque no sabe por qué, ni le importa. Al olor de un perfume le ocurre lo mismo. Las partículas de añil o de desinfectante, a las que en conjunto llamamos el soluto, son introducidas, en gotas, en el solvente, que en estos casos es agua; para una flor el solvente es el aire. La difusión que ocurre consiste en que, con el paso del tiempo, todo es penetrado por el soluto. En el caso de la tinta, el fenómeno es claramente visible; la gota de color azul profundo, muy concentrada y bien localizada inicialmente, poco a poco se va disipando, tiñendo todo hasta que domina un tenue azul. El aroma de una flor es explicable en los mismos términos, aunque ahora lo percibimos a través del olfato; pasado un rato, la habitación que ocupa una discreta dama es uniformemente impregnada por su delicado perfume.
La diferencia de concentraciones entre un lugar y otro juega un papel importante en el proceso de homogeneización; qué tanto, lo determina un factor llamado el coeficiente de difusión D, cuyo valor dice que tan eficiente es la difusión de un soluto en un solvente.
 
Las probabilidades
Cuando se quiere analizar el comportamiento de un sistema físico, que usualmente representa un problema intrincado, se trata de simplificarlo al máximo, reteniendo los aspectos más conspicuos, más “gruesos” de su comportamiento. Por ejemplo, para entender el movimiento de la Luna, lo primero que se hace es considerar sólo el efecto que tiene la Tierra, ignorando la presencia de todo lo demás, de todo. El sistema Tierra-Luna, imaginado como dos puntos que se atraen, se puede resolver exactamente; si se compara con las observaciones, el resultado es sorprendentemente bueno. Para mayor precisión, hay que tomar en cuenta más detalles, como el hecho de que no son esféricos, que sus densidades no son constantes, y que hay más objetos. Después de todo, están el Sol, Júpiter y otros seis planetas con sus satélites, y miles de asteroides, y el resto de la Vía Láctea, y más. ¿Hasta dónde hay que tomar en cuenta?
Vale la pena mencionar que si nada más se agrega al Sol, el problema no puede ser resuelto. El asunto es más grave de lo que parece: nunca se resolverá; al menos en la forma en que nos hemos planteado los problemas hasta ahora. Es decir, para tres o más cuerpos que se atraen y a partir de cualquier posición y velocidad iniciales, no puede predecirse exactamente dónde se encontrarán un tiempo más tarde, y si el intervalo es muy grande, ni siquiera puede predecirse en forma aproximada.
Para circunnavegar este tipo de dificultades, dos de las estrategias que se siguen son: aceptar que la exactitud no es necesaria o explotar la complejidad. En la primera, partiendo de que ni las mejores observaciones son exactas, se introducen aproximaciones que permiten reducir el problema a uno manejable, estimando por cuánto y en dónde se manifestarán los errores. Entonces, el efecto del Sol es tratado como una corrección al sistema Tierra-Luna, y se van agregando, poco a poco, las perturbaciones resultantes. Con la segunda estrategia, cuanto mayor sea la complejidad, mejor irá el enfoque alternativo. Por ejemplo, predecir qué lado quedará arriba cuando se lanza una moneda al aire es sumamente complicado; en la práctica imposible, o qué cara de un dado, con seis lados numerados, quedará hacia abajo, también es una tarea insoluble. Sabemos que, en ambos casos, si se repite el evento muchas veces emerge un patrón de comportamiento que es regular, predecible, aunque el lenguaje se altera en forma esencial; cambiamos las preguntas y el tipo de respuestas que esperamos. Cuantos más lanzamientos de dado se hacen, tanto más semejantes las frecuencias de aparición de cada uno de los seis lados. Para la moneda, como sabemos bien los mexicanos, una cara aparece igual número de veces que la otra; la probabilidad de que salga águila es de 1/2. Para el dado, la probabilidad de que caiga en cinco —digamos— es de 1/6. Es decir, dividimos los casos favorables entre los posibles: la definición de probabilidad. Así, en forma precisa podemos predecir con qué frecuencia se hará presente un resultado, dejando de lado la expectativa de anticipar lo que aparecerá en la siguiente realización. Para ganarle una apuesta a un mercachifles —el merenguero canónico— este análisis no es particularmente útil. En el caso de sistemas complejos formados por muchos elementos, como el Sistema Solar, la galaxia o un gas, desde el principio se aborda el problema con un punto de vista estadístico, haciendo preguntas diferentes, en el lenguaje de las probabilidades; deja de ser importante dónde se halla cada molécula del gas o con qué velocidad se mueve, pero sí interesa cómo es la densidad media en el frasco contenedor, cuál es la presión que deben resistir las paredes o la forma de aislarlo para mantener su temperatura. La física estadística busca establecer cómo están relacionadas estas variables, que denominamos macroscópicas, con las que conciernen a los átomos del gas, las variables microscópicas. Las tareas de establecer la compatibilidad entre las teorías a diversas escalas, y de explicar cómo es que las miríadas de variables físicas microscópicas se colapsan, promedian o combinan para que emerjan unas cuantas variables macroscópicas que recogen el comportamiento colectivo o más probable, está aún incompleta en la física. En los casos en que se ha logrado, para los sistemas en equilibrio —guardados en una caja—, los resultados son impecables; las bases las establecieron J. Willard Gibbs, al final del siglo xix, y Einstein, en los primeros años del xx, de manera independiente. Es una de las teorías más notables de la física, en cuanto a que establece la conexión entre las teorías básicas, como la mecánica clásica o la cuántica, y las fenomenológicas, como la termodinámica o la elasticidad.
El trabajo de Einstein
Cabe aclarar que en el problema que nos ocupa, Einstein no introdujo nuevas ideas matemáticas, ni físicas; cada una se había publicado en otro contexto o con otro sentido por él mismo o por otros. Lo que sí tuvo fue esa habilidad de las mentes privilegiadas que consiste en reconocer conceptos importantes, extraer su esencia, generalizarlos y hallar las relaciones sutiles entre ellos. Las matemáticas que usó eran relativamente sencillas y conocidas. Las profundas revoluciones que generaron sus trabajos fueron el resultado de vincular tanto observaciones teóricas como experimentales aparentemente inconexas y usar las matemáticas más simples que le permitieran manipularlas. Con un enfoque abstracto, pero de manera directa y particularmente sucinta, Einstein escribió sus legendarios artículos sin frases grandiosas, ni discusiones laboriosas, ni genialidades encriptadas para la posteridad; todo está a la vista, a pesar de ser sorprendentemente original en sus planteamientos y sus consecuencias; en él, nada es trivial y todo es sencillo; pocas palabras, pero cada una tiene un sentido claro, aunque muchas frases adquirieron su verdadera dimensión muchos años después, cuando fueron cabalmente comprendidas.
En el caso del movimiento browniano, la lógica de Einstein es maravillosamente directa y contundente: hay átomos, luego, deben manifestarse. Son muchos, son pequeños y la dinámica debe ser complicada, por lo tanto el lenguaje es de probabilidades y estadística. El efecto colectivo de los átomos debe ser apreciable en un sistema lo suficientemente pequeño como para que sea afectado por ellos, pero lo suficientemente grande como para que se pueda ver; cómo se desplaza una partícula muy pequeña, aunque visible, parece ser el caso ideal. Entonces, combinó dos resultados para describir el desplazamiento de partículas en suspensión, uno sobre la presión osmótica y otro sobre la fuerza de fricción, los cuales aparentemente nada tenían que ver entre sí y logró predecir la difusión de la partícula browniana; más específicamente, el desplazamiento cuadrático medio, que denotó como l y cuyo significado es el siguiente.
 
Hagamos un experimento con una hoja de papel cuadriculado milimétricamente, una pluma y dos monedas cuyas caras sean águila y sol; lo que es sumamente hipotético en opinión de mis alumnos, quienes nunca han visto una moneda semejante. Empezamos poniendo un punto en el centro del papel y trazamos la trayectoria que resulta de caminar al azar. Es decir, para cada paso, escogemos al azar uno de los cuatro vértices vecinos al punto de inicio o donde se encuentre el último trazo de acuerdo con la siguiente regla: si el resultado es águila y sol (AS), en ese orden, el trazo sube, si es AA va a la derecha, si es SA a la izquierda y si es SS, baja. Al cabo de un gran número de pasos —por ejemplo, unos mil— se irá delineando lo que se conoce como una caminata al azar. Ahora repitamos el ejercicio varias veces, otros mil pasos en otras hojas de papel; nótese que es un experimento tedioso, puesto en estos términos; una computadora puede hacerlo en fracciones de segundo. ¿Qué tienen en común estas hojas de papel, que contienen series de trazos distintos en cada caso? Como se sugirió antes, de hecho fue Einstein quien lo hizo, la misma complejidad lleva a caracterizar el proceso con cantidades estadísticas. Por ejemplo, qué tan lejos del punto inicial estará el punto final del trazo, después de mil pasos. Si se calcula el promedio, asignando valores negativos a los pasos a la izquierda o hacia abajo y valores positivos hacia arriba o a la derecha, el resultado es ¡cero!; o casi, pero lo será cuanto más hojas de papel gastemos —realizaciones del experimento. Así, aprendemos que si se camina al azar lo más probable es que no se llegue a ningún lado, lo que es bastante obvio para quien frecuenta el estado de ebriedad. Pero si se observa con mayor atención cualquiera de las hojas de papel, se percibe que el trazo, aun cuando más o menos acaba volviendo al punto de partida, realizó cierta exploración de sus alrededores, es decir, se ha difundido en su vecindad. ¿Cómo cuantificamos esta difusión? Una forma es calculando l, lo que se hace tomando el número de pasos hacia arriba y elevándolo al cuadrado, al resultado se le suma el número de pasos hacia la derecha, también elevado al cuadrado, y luego lo mismo con los pasos hacia abajo y hacia la izquierda. A la suma total se le saca la raíz cuadrada y se obtiene el desplazamiento cuadrático medio, o l, o la “exploratividad”, o cualquier nombre que nos parezca pertinente; la Academia científica no siempre busca minimizar los desatinos que ofenden a la Academia de la lengua.
Einstein señaló que las partículas brownianas difunden en el medio líquido, de modo tal que se establece un equilibrio dinámico entre dos fuerzas. Una, la fuerza osmótica, tiene su origen en las variaciones espaciales —gradientes— de la concentración y trabaja para hacer desaparecer esas diferencias. La otra, la fuerza viscosa, de naturaleza hidrodinámica, tiende a retardar el movimiento, a frenarlo; es la responsable de que una pluma se meza y flote en el aire, víctima de los caprichos del viento, antes de caer.Para la fuerza osmótica, Einstein usó una ecuación para la presión que ejercen las moléculas disueltas en una solución; recurrió a un resultado que considera moléculas (el soluto) difundiendo en un líquido (el solvente) constituido por moléculas de dimensiones semejantes; esto era ya conocido en la fisicoquímica desde dos décadas antes y había sido obtenido por J. H. van’t Hoff. Einstein lo aplicó a las partículas de su interés, miles de millones de veces más grandes que las moléculas del agua; sin mucho pudor igualó las fuerzas osmóticas a las difusivas, los gradientes de la concentración.
 
Para la fuerza viscosa, recurrió a una expresión obtenida por George G. Stokes en 1855, y que representa el efecto que sobre una esfera moviéndose lentamente ejerce un líquido viscoso. Einstein supuso que la irregularidad del movimiento no alteraría sustancialmente la validez del resultado, y sin intimidarse, la usó para igualar la rapidez con la que difunden las partículas, con el flujo de éstas cuando se ven sujetas a las fuerzas viscosas. La expresión para la fuerza tiene la forma F=zv, siendo z el coeficiente de fricción, que depende de la viscosidad del líquido y del tamaño de la partícula, y v es la velocidad con la que ésta difunde.
La combinación de estos dos resultados le permitió construir una relación, conocida como de Stokes-Einstein, en la que quedan vinculados la temperatura del medio (T), el coeficiente de fricción y el coeficiente de difusión (D): D=kT/z, siendo k una de las constantes fundamentales de la naturaleza, conocida ahora como la constante de Boltzmann.
El siguiente y último paso, requirió de una teoría que él mismo construyó; hoy diríamos que introdujo una clase de proceso estocástico. Primero, asigna un carácter aleatorio a los movimientos de las partículas de polen. Supone que el errático recorrido consiste de eventos independientes entre sí; las moléculas de agua, que vibran y chocan unas con otras, empujan a la partícula en distintas direcciones. Y aquí se hace la pregunta central: ¿Cómo cambia la posición de la partícula conforme pasa el tiempo, siempre que éste sea mucho mayor que el transcurrido entre un cambio de dirección y el siguiente? Es decir, ¿qué sucede en un intervalo de tiempo cientos de miles de veces mayor que el de los pequeños “brincos” de la partícula? Einstein supone que los brincos no tienen relación entre sí. Hoy sabemos que es una excelente hipótesis; si el tiempo entre un brinco y otro es de una centésima de segundo, cercano a lo que vemos, en este intervalo ocurren, aproximadamente, un millón de millones de colisiones, 1012. Después de un número de choques así, es razonable suponer que la partícula ha “olvidado” lo que pasó en el brinco anterior; decimos que se ha descorrelacionado.
Con todo lo anterior, un caminante al azar se comporta igual que una partícula browniana; ambos difunden igual. Entonces, el cálculo estadístico se sigue en forma natural y los parámetros o características del proceso probabilístico están dados por el proceso físico de la difusión, una vez conectado con la fricción y la temperatura.
 
Smoluchowski y Perrin
En 1906, cuando apareció el artículo de Einstein sobre el movimiento browniano, el físico polaco Marian von Smoluchowski publicó un trabajo sobre el mismo problema, siguiendo un camino diferente, basado en la teoría cinética de los gases y en el análisis combinatorio. En su opinión, sus resultados “coinciden completamente con los de Einstein” y afirma que su método es “más directo, simple y convincente”. Si bien es cierto que el enfoque de Smoluchowski fue más accesible para sus contemporáneos, no tuvo la misma influencia que el de Einstein, ni estableció las bases para la futura asimilación de las ideas de la mecánica estadística, los procesos estocásticos y la teoría de la difusión.
Smoluchowski, a diferencia de Einstein, hizo una crítica seria de los trabajos previos que intentaron explicar el movimiento browniano, a la vez que justificó cuidadosamente sus hipótesis, como la de introducir la teoría cinética de los gases, en la que ya había hecho contribuciones relevantes. Además, llevó a cabo una meticulosa revisión sobre los estudios experimentales relacionados con la teoría que presentaba.
 
Jean Perrin es indudablemente uno de los principales protagonistas en la historia del movimiento browniano, particularmente desde el punto de vista experimental. Nueve años mayor que Einstein, en 1905 tenía ya un considerable prestigio como físico experimental; en especial, destacaron sus trabajos sobre rayos X, rayos catódicos (electrones) y soluciones coloidales.
En 1906, durante varias conferencias, ilustró la forma cómo las ideas atómicas podían introducirse para comprender algunas observaciones. En paralelo, inició una serie de estudios en su laboratorio para verificar las predicciones de Einstein y Smoluchowski, ante los reportes con datos discutibles y un tanto contradictorios de otros autores. Dos años más tarde, aparecieron las primeras publicaciones de Perrin y sus colaboradores, confirmando las predicciones y usándolas para determinar de forma independiente, aunque indirecta, parámetros microscópicos como el tamaño de los átomos, el número de Avogadro y hasta la carga del electrón.
Los siguientes años fueron para Perrin una época dedicada a la popularización de las ideas atómicas y en esto fue el más exitoso de los científicos. Sin duda había argumentos teóricos y experimentales en favor de la existencia de los átomos, desde al menos las tres décadas previas. El hecho de que se usara al movimiento browniano como alternativa para determinar cantidades como las mencionadas en el párrafo anterior, muestra que las ideas permeaban el ambiente desde distintas direcciones. Los concluyentes experimentos de Perrin, cubriendo aspectos microscópicos con suma delicadeza y explicando por qué otros reportes parecían contradecir sus observaciones, junto con la novedosa teoría de Einstein, abstracta aunque precisa en sus predicciones cuantitativas, parecen ser los elementos que dieron a la teoría atómica el carácter de irrefutable. Adicionalmente, y no puede minimizarse el hecho, Einstein ya empezaba a verse como el científico más profundo, revolucionario y destacado de la época.
La explicación del movimiento browniano, como resultado de la presencia de átomos que colisionan ininterrumpidamente con la partícula, y las predicciones precisas para experimentos diseñados con este fin, desempeñaron un papel crucial para que se aceptara la existencia de los átomos; la inmensa mayoría de quienes consideraban las nociones atómicas como las especulaciones de la antigüedad, fueron convencidos en el siguiente lustro.
Comentarios
Cuando se revisan los memorables trabajos que Einstein publicó en el año de 1905, sorprende la aparente falta de conexión entre ellos.
 
¿Por qué Einstein se ocupa del problema del movimiento browniano, mientras está haciendo una reflexión, sin precedentes en la historia, sobre el electromagnetismo, la luz y el movimiento de los cuerpos?
En sus palabras, cuarenta y seis años más tarde, luego de advertir “que los recuerdos están coloreados por ser el presente lo que es”, nos dice que la motivación para su trabajo del movimiento browniano fue que “quería encontrar hechos que garantizaran, en la medida de lo posible, la existencia de átomos de un tamaño finito y determinado”. Así, el movimiento browniano fue sólo el vehículo para exhibir fuera de toda duda la existencia de los átomos.
Es interesante que Richard Feynman, extraordinario físico del siglo xx, considerara que si se tuviera que resumir en una sola frase el conocimiento científico, esta sería: todas las cosas están hechas de átomos. Los seres herederos de la oración tendrían un excelente comienzo para entender el mundo.
¿Qué más fundamental que la materia y la luz? Hoy, gracias a Einstein sabemos que son la misma cosa; no en balde la más famosa expresión de toda la física E=mc2, donde m es la masa, c, multiplicada por sí misma, es la velocidad de la luz, y E es la energía; el meollo es que son dos caras de la misma esencia. Si los átomos son la mínima expresión de la materia, en tanto que hablamos de los distintos bloques con los que todo se construye, pensar en luz y en cómo se transmite, en átomos y en sus movimientos, es tener como preocupación al universo entero, a pesar de ser un joven de 26 años.
Así, tratando de imaginarlo a los veinte años, es que sólo puedo respetar a los jóvenes por la libertad de pensamiento que naturalmente poseen, afortunadamente. Ésta les permite ver con frescura los viejos problemas; de toda índole. Es su falta de pudor, entre otras cosas, la que les permite transformar al mundo, aunque a veces, a los adultos, les parezca que son inmaduros y superficiales; de esos hay, pero de todas las edades; de los que se atreven, casi todos son jóvenes.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

_______________________________________________________________

como citar este artículo

 

Peralta y Fabi, Ramón. (2005). Átomos, polen y probabilidades. Ciencias 80, octubre-diciembre, 16-23. [En línea]

 
 
    ←Regresar al índiceartículo siguiente
1 12
     
La hipótesis cuántica de la luz
 
En 2005 se celebra el centenario de los trabajos de Albert Einstein, publicados en Annalen der physik, que llevaron a reconocer nuevas propiedades de la luz, la materia, el espacio y el tiempo.
Eugenio Ley Koo
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
 
En 2005 se celebra el centenario de los trabajos de Albert Einstein, publicados en Annalen der physik, que llevaron a reconocer nuevas propiedades de la luz, la materia, el espacio y el tiempo. En ellos, conocidos en la literatura como los artículos sobre el efecto fotoeléctrico, el movimiento browniano y la relatividad, abordó problemas de frontera para la época, asociados a preguntas sobre la luz ¿ondas o corpúsculos? y ¿existe el éter luminífero?, y sobre la materia ¿existen los átomos? Para las dos primeras, las respuestas de consenso eran ondas y que el éter si existe con base en la teoría electromagnética de Maxwell. Para la tercera, había premios Nobel de física y de química que respondían “la hipótesis atómica no es necesaria para entender el comportamiento de la materia”. Einstein, en el trabajo sobre movimiento browniano, proporciona los métodos para validar o rechazar la hipótesis atómica; los experimentos favorecieron la validación y permitieron contar el número de átomos y determinar sus tamaños. En el artículo sobre la relatividad, responde a la segunda pregunta “la introducción de un éter luminífero es superflua”. Mientras que en el texto sobre el efecto fotoeléctrico, la primera pregunta se transforma y sugiere la respuesta ondas y partículas; pero durante veinte años los problemas que reconoció y sus sucesivos argumentos no fueron aceptadas por algunos de sus más destacados contemporáneos, como Planck, Bohr y Millikan. La validación de la hipótesis cuántica de la luz en el nivel experimental se produjo con los trabajos de Compton y de Bothe y Geiger sobre la dispersión de rayos X por electrones. La aceptación final de la propuesta de Einstein coincide cronológicamente con la formulación de la mecánica cuántica en 1925.
 
 
En el año 2000 se celebró el centenario del quantum, con motivo del trabajo de Max Planck para describir la ley de radiación de cuerpo negro —objeto que absorbe toda la luz que incide sobre él— con base en mediciones experimentales. También logró deducirla a partir de argumentos de electrodinámica, termodinámica y mecánica estadística, donde introdujo la hipótesis de que los intercambios de energía entre la materia —modelada a través de osciladores— y la radiación se realizan por medio de “elementos de energía”, denominados hf, proporcionales a la frecuencia de la radiación. Al comparar los resultados de la ley deducida y las mediciones experimentales del espectro de frecuencias de la radiación a determinada temperatura, Planck obtuvo los valores de la constante de Boltzmann y la constante de acción. A partir de éstas, también obtiene el número de Avogadro, utilizando la constante de los gases ideales; y la carga del electrón, usando el valor medido por Faraday para la cantidad de electricidad asociada a los iones de un mol —número de gramos de un compuesto, igual a su peso molecular— en la separación electrolítica.
 
En su artículo de marzo de 1905, Einstein contrasta la naturaleza discreta de la materia, según la teoría cinética, y la naturaleza continua de la luz, según la teoría electromagnética de Maxwell. La energía de una porción de materia se escribe como la suma de las energías de sus átomos componentes. La de la radiación electromagnética es una función espacial continua. En particular, la energía de la luz emitida por una fuente puntual se distribuye continuamente en un volumen ininterrumpidamente creciente.
 
 
Reconoce que la teoría ondulatoria de la luz tiene una base experimental, y que es válida en los fenómenos de propagación, reflexión, refracción y difracción. Pero advierte que tal teoría, basada en funciones espaciales continuas, puede conducir a contradicciones al aplicarse en fenómenos de emisión y transformación de la luz. En relación con las observaciones sobre radiación de cuerpo negro, fluorescencia, producción de rayos catódicos por luz ultravioleta y otros procesos de emisión y absorción de la luz, se tiene un mejor entendimiento con base en el supuesto de que la energía de la luz se distribuye de manera discontinua en el espacio. Según su hipótesis “la energía de un rayo de luz que parte de una fuente puntual no se distribuye continuamente en el espacio ininterrumpidamente creciente, sino consta de un número finito de cuantos que se localizan en diversos puntos del espacio, que se mueven sin dividirse y que pueden ser producidos y absorbidos solamente como unidades completas”.
 
En la primera sección del artículo considera el límite de bajas frecuencias de la ley de radiación de cuerpo negro, obtenido previamente por Rayleigh y Jeans, con base en la energía promedio de los osciladores materiales en equilibrio termodinámico con la radiación y el principio de equipartición. Planck reemplazó este principio por su hipótesis de elementos de energía para evitar la catástrofe ultravioleta —límite en que se favorece la presencia de radiación de alta frecuencia y el crecimiento ilimitado de la energía total—, y encontró la ley de radiación de cuerpo negro que concuerda con las mediciones experimentales. En la segunda sección, Einstein señala que la determinación de las constantes fundamentales en el trabajo de Planck depende sólo del límite de altas temperaturas y bajas frecuencias de su fórmula completa. Mientras la teoría ondulatoria de la radiación y la teoría cinética, que conducen al principio de equipartición, son aplicables en dicho límite, Einstein reconoce sus fallas en otro, como lo había descrito correctamente Wien. En las siguientes cuatro secciones, usa los métodos de la termodinámica y la mecánica estadística, aplicados a la radiación y la materia, para identificar la energía del cuanto de luz. Mientras que en las tres últimas explica la relación de frecuencias de la luz fluorescente y la luz que la induce; describe la energía cinética de los fotoelectrones en términos de la energía del cuanto y la función de trabajo; y expone la relación entre la energía del cuanto y la energía de ionización.
 
Es importante destacar la diferencia entre el elemento de energía de Planck y el cuanto de luz de Einstein. El primero fue introducido específicamente en conexión con el intercambio de energía entre la materia y la radiación en equilibrio termodinámico a determinada temperatura. Einstein identifica al cuanto de luz como la energía de cada partícula asociada a la radiación electromagnética. Planck y sus contemporáneos no podían aceptar esta idea que equivalía asociarle propiedades corpusculares a la luz. Consideraban que la teoría electromagnética de la luz, desarrollada en el siglo xix, había respondido definitivamente la pregunta ¿ondas o corpúsculos? sobre la naturaleza de la luz, a favor de las primeras. Es interesante señalar que en los trabajos de Einstein, entre 1905 y 1909, al aplicar el método de fluctuaciones, que desarrolló en conexión con su estudio del movimiento browniano, al problema de radiación de cuerpo negro, en los límites de Rayleigh-Jeans y de Wien coexisten los comportamientos ondulatorio y corpuscular de la radiación electromagnética, dominando uno y otro en los límites respectivos.
En su trabajo de 1913 sobre el átomo de hidrógeno, Bohr reconoció las limitaciones de la mecánica de Newton y la teoría electromagnética de Maxwell para entender el espectro de radiaciones característico de ese elemento. Para remediarlas, introdujo el postulado de órbitas estacionarias, con el fin de asegurar que el electrón no radia mientras se mueve en una de ellas, y el postulado de la radiación asociada a saltos cuánticos del electrón entre dos de tales órbitas con una frecuencia que sigue de aplicar la hipótesis de Planck, pero también la hipótesis cuántica de Einstein. En todo caso, Bohr se definió por la primera y rechazó la segunda.
 
Por su parte, a partir de 1911, Millikan inició una serie de mediciones sistemáticas sobre el efecto fotoeléctrico, con el expreso propósito de mostrar que la ecuación de Einstein para tal efecto no era válida. Después de varios años, sus mediciones mostraron que la energía de los fotoelectrones varía linealmente con la frecuencia de la luz, y la pendiente es la constante de acción de Planck. Entonces aceptó que la ecuación de Einstein describe correctamente el fenómeno, pero subrayó que la hipótesis cuántica de la luz no puede ser aceptada. Durante la siguiente década, este tipo de posiciones se extendieron, a pesar de que Einstein recibió el Premio Nobel en 1921 por su trabajo sobre el efecto fotoeléctrico.
 
En 1917 Einstein dedicó un ar­tículo titulado “Teoría cuántica de la radiación” para deducir la ley de Planck de radiación de cuerpo negro, considerando el equilibrio termodinámico entre átomos o moléculas, con dos niveles discretos de energía, y el campo de radiación. Introdujo los conceptos de emisión espontánea, emisión estimulada y absorción estimulada en átomos, como procesos resultantes de sus interacciones con el campo de radiación. También reconoció que el cuanto de luz posee una cantidad de movimiento.
 
 
El artículo consta de siete secciones. En la primera, “Hipótesis fundamental de la teoría cuántica. Distribución canónica de estados”, adopta la distribución exponencial de Boltzmann para describir la ocupación de los niveles de energía de un sistema de átomos. En la segunda, “Hipótesis sobre el intercambio radiativo de energía”, define los diversos procesos de emisión y absorción. En la tercera, “Derivación de la ley de radiación de Planck”, establece la condición de equilibrio entre los átomos de dos niveles y el campo de radiación. La cuarta, “Un método para calcular el movimiento de las moléculas en el campo de radiación”, está encaminada a asegurar que ese movimiento sea compatible con la distribución de Maxwell o de Boltzmann para las moléculas a la misma temperatura que la radiación. En la quinta calcula el promedio de la cantidad de movimiento transferida del campo de radiación a las moléculas, y en la sexta el valor medio cuadrático de la misma. La última contiene sus conclusiones: la absorción o emisión de un cuanto de luz con energía hf —donde h es la constante de acción de Planck y f la frecuencia— por una molécula es acompañada por una transferencia de cantidad de movimiento hf/c —donde c es la velocidad de la luz en el vacío—, en la dirección de la luz absorbida y en la dirección opuesta de la luz emitida, respectivamente; la emisión espontánea también es direccional, y no existe radiación saliente como onda esférica —reforzando en este punto la hipótesis cuántica formulada en 1905—; la dirección de retroceso de la molécula en los procesos estimulados queda determinada por la radiación, pero en la emisión espontánea es un proceso al azar.
 
Einstein señala que su modelo de moléculas con dos niveles desempeña el papel del modelo de osciladores de Planck, y que la hipótesis cuántica de la luz conduce de manera natural tanto al postulado de radiación de Bohr como a la ley de radiación de Planck. Subraya que la transferencia de cantidad de movimiento a las moléculas asociada a la absorción y emisión de radiación es indispensable para entender la coexistencia de la distribución de Boltzmann para la materia y la distribución de Planck para la radiación, cuando ambas se encuentran a la misma temperatura. La conexión con la teoría ondulatoria sigue siendo elusiva, y el carácter azaroso de la direccionalidad de la radiación emitida espontáneamente constituye un nuevo problema.
 
Varios artículos publicados entre 1923 y 1924 resultaron relevantes para responder la pregunta ¿ondas o partículas? acerca de la luz. Se trata de los trabajos de Compton, de Bohr, Kramers y Slater, y de Bose, mencionados en orden cronológico de publicación. El último está conectado con la hipótesis cuántica, mientras que los otros dos se escribieron independientemente de dicha hipótesis y como alternativa a ella, respectivamente.
 
Bose envió su trabajo al Philosophical Magazine a fines de 1923. A mediados del siguiente año, recibió la respuesta de no aceptación por parte del editor y decidió enviárselo a Einstein, pensando que él si lo entendería, y pidiéndole que, si le parecía correcto, buscara a alguien para traducirlo al alemán y enviarlo al Zeitschrift für Physik. Efectivamente, Einstein apreció lo novedoso del trabajo, lo tradujo y lo envió con el título “La ley de Planck y la hipótesis del cuanto de luz”, incluyendo un comentario al final: “En mi opinión la deducción de Bose de la ley de Planck constituye un avance importante. El método usado también conduce a la teoría cuántica del gas ideal como lo reportaré en otro lugar”.
 
Bose tomó como punto de partida la hipótesis cuántica de la luz, suponiendo que la radiación está formada por cuantos de luz con energía (e=hf) y cantidad de movimiento (p=e/c=hf/c). Introdujo un nuevo método para contar el número de estados microscópicos dividiendo el espacio fase de un cuanto de luz en celdas de tamaño h3, siendo h el cuanto de acción —cantidad de movimiento por desplazamiento— de Planck.
 
 
Aunque Bose afirma que siguió los métodos de Boltzmann de la mecánica estadística, donde se cuenta el número de partículas, él cuenta el número de celdas. En todo caso, al maximizar la entropía de la distribución de cuantos de luz en el espacio fase, a una temperatura T, obtuvo la ley de distribución de Planck. Bose le mostró a Einstein su determinación del factor que aparece en la aproximación Rayleigh-Jeans y en la distribución de Planck a partir de las propiedades de cantidad de movimiento del cuanto de luz y sin necesidad de invocar la electrodinámica. Para Einstein, esta deducción de la ley de Planck es importante porque permite reconocer que la radiación está formada por partículas relativistas de masa cero. En la deducción de Bose también está implícito que el número de partículas no se conserva.
 
Aunque los artículos de Einstein de 1906 a 1909 sugieren la coexistencia de los comportamientos ondulatorio y corpuscular en la luz, el trabajo de Bose lo convenció de la necesidad de admitir que el cuanto de luz corresponde a partículas de luz. El nombre de fotón para tales partículas se debe al fisicoquímico estadounidense Gilbert Newton Lewis en un trabajo de 1926 que tituló “La conservación de fotones”, aunque su concepto de átomo de luz no corresponde al cuanto de luz de Einstein.
 
El dilema sobre la naturaleza ondulatoria o corpuscular de la luz, se manifestó de manera práctica y específica en conexión con los rayos X desde su descubrimiento por Roentgen en 1895 hasta la década de los años veintes del siglo pasado. La naturaleza ondulatoria de los rayos X fue descubierta y aplicada en cristalografía por Von Laue y los Bragg desde 1912. Maurice de Broglie extendió las mediciones del efecto fotoeléctrico a la región de rayos X, confirmando la validez de la ecuación de Einstein hacia fines de la primera guerra mundial.
 
El trabajo de A. Compton describe la colisión entre un rayo X individual con energía (e=hf) y cantidad de movimiento (p=hf/c) con un electrón inicialmente en reposo, como si fuera un choque entre bolas de billar, y determina la energía del rayo X dispersado y del electrón golpeado en función del ángulo de salida de uno de ellos. Esta descripción coincide con las mediciones realizadas por el mismo autor. Mientras este efecto Compton hace uso de propiedades corpusculares de los rayos X, es interesante notar que en el mismo período publicó un artículo en el cual el fenómeno estudiado es típicamente una manifestación de comportamiento ondulatorio. Aunque las propiedades de los rayos X que supone Compton coinciden con las del cuanto de luz, él no hace referencia al trabajo de Einstein.
 
Por su parte, el trabajo de Bohr, Kramers y Slater fue escrito como una alternativa a la hipótesis cuántica de la luz. Para evitarla, así como sus consecuencias, Bohr estuvo dispuesto a suponer que en los procesos individuales no eran válidas la conservación de energía y de cantidad de movimiento, aceptando la última sólo en forma estadística. Las cuidadosas mediciones sobre el efecto Compton de las energías correlacionadas del rayo X y el electrón dispersados por Bothe y Geiger, y por Compton y Simon, iniciadas en 1924 y publicadas en 1925, corroboraron que la conservación ocurre a nivel individual y no estadístico. Bohr aceptó que la alternativa propuesta no funcionó.
 
 
Finalmente, después de veinte años se reconoció que la luz es descrita adecuadamente por la teoría electromagnética de Maxwell en su comportamiento ondulatorio y por la hipótesis cuántica de la luz de Einstein en su comportamiento corpuscular al interactuar dinámicamente con la materia.
 
Formulación de la mecánica cuántica
 
Los desarrollos de la mecánica cuántica durante el período de 1900 hasta 1925, conocidos como la mecánica cuántica antigua, comprenden la formulación de la ley de radiación de cuerpo negro por Planck, la hipótesis cuántica de la luz de Einstein y el trabajo de Bohr sobre los átomos, todos con sus múltiples extensiones y aplicaciones. La cuantización de la acción, de la energía y la cantidad de movimiento de la radiación, así como la cuantización de los niveles de energía de los átomos señalan el abandono de las ideas de la mecánica y electrodinámica clásicas. En 1925 se presenta la formulación matricial de la mecánica cuántica por Heisenberg y un año después, la formulación ondulatoria por Schrödinger.
 
 
El reconocimiento final de que la luz exhibe tanto un comportamiento ondulatorio como uno corpuscular es contemporáneo con la propuesta de Louis de Broglie, en 1923, de que la materia además de su comportamiento corpuscular, tradicionalmente aceptado, debe tener también uno ondulatorio. Esta hipótesis fue encontrada por de Broglie al tratar de entender el espectro discreto de energía asociado a los átomos. Algunos ejemplos de sistemas clásicos con espectros discretos están en instrumentos musicales y en cavidades de resonancia electromagnética, en los cuales se reconoce la presencia de ondas acústicas y ondas de radiación estacionarias, respectivamente. La selección de órbitas circulares estacionarias por Bohr en el átomo de hidrógeno es explicada por de Broglie como la condición para que en la órbita de determinada longitud algunas ondas interfieran constructivamente, y también sean estacionarias. La longitud de onda de las ondas propuestas por de Broglie es inversamente proporcional a la cantidad de movimiento de la partícula material, el electrón en el presente ejemplo. Schrödinger adoptó esta propuesta y reconoció que la cuantización debe poder escribirse en términos de una ecuación de onda y los niveles de energía discretos de un sistema material corresponden a las soluciones de un problema de valores propios. Para 1926, identificó las ecuaciones que llevan su nombre, en sus versiones dependientes e independientes del tiempo, aplicándolas sucesivamente para encontrar las descripciones ondulatorias del átomo de hidrógeno, el oscilador armónico, etcé­tera. En 1927, se tuvieron evidencias experimentales de difracción de electrones, por un cristal de níquel realizado por Davisson y Germer y por láminas delgadas de diferentes materiales por G. P. Thomson. Esto confirmó la hipótesis ondulatoria de Louis de Broglie incluyendo el valor cuantitativo de la longitud de onda. La aceptación de que el electrón posee propiedades corpusculares y ondulatorias fue mucho más rápida que la del cuanto de luz. Einstein se mostró muy receptivo con las ideas y trabajos de L. de Broglie y de Schrödinger.
 
Heisenberg llegó a la versión matricial de la mecánica cuántica en su intento de sistematizar la información sobre las intensidades y frecuencias de las radiaciones emitidas o absorbidas por los átomos, reconociendo que éstas son las cantidades medibles espectroscópicamente. En 1925 trata de establecer las bases para una mecánica cuántica teórica sustentada exclusivamente en relaciones entre cantidades que sean observables en principio. Reconoce que en el caso de átomos, las cantidades medidas espectroscópicamente pertenecen a esta categoría, en contraste con otras como la posición y la velocidad del electrón que no pueden observarse en los átomos. Para las últimas propone desarrollos de Fourier en el tiempo con frecuencias determinadas por la condición de Bohr-Einstein y coeficientes que llama amplitudes de transición, cuyos cuadrados en valor absoluto identifica como cantidades observables por ser proporcionales a las probabilidades de transición entre dos estados estacionarios, los cuales corresponden al coeficiente de emisión espontánea de Einstein. Entre las aplicaciones, establece la conexión con la teoría de dispersión de Kramers y analiza la radiación de un oscilador anarmónico y de un rotador. En el proceso encuentra que el producto de amplitudes de transición asociadas a diferentes cantidades es no conmutativo.
 
Heisenberg pidió a Born que leyera su manuscrito y decidiera si merecía ser publicado. Born lo encontró interesante y reconoció que el producto de amplitudes corresponde al producto de matrices, entendiendo bajo qué condiciones es conmutativo o no. Envió el manuscrito de Heisenberg para su publicación y comenzó a trabajar con Jordan en la interpretación y extensión de sus resultados con base en las propiedades de matrices. El trabajo de Born y Jordan incluye la identificación de la multiplicación encontrada por Heisenberg como una multiplicación de matrices, la demostración de conservación de energía y de la condición de frecuencia de Bohr, así como la incorporación de las leyes del campo electromagnético en el nuevo formalismo. Mientras los dos primeros trabajos con uno y dos autores sobre la formulación matricial de la mecánica cuántica se limitaron a sistemas de una dimensión, el artículo de los tres autores, M. Born, W. Heisenberg y P. Jordan, cubre sistemas de varias dimensiones, incluye una parte sobre mecánica matricial y otra sobre cuantización del campo electromagnético y cálculo de fluctuaciones del mismo.
 
Durante el verano y el otoño de 1925 Heisenberg estuvo en Copenhague y en Cambridge difundiendo los avances de los desarrollos de la mecánica matricial. Y en enero de 1926, Pauli envió el artículo “Sobre el espectro del átomo de hidrógeno desde el punto de vista de la nueva mecánica” al Zeitschrift für Physik, y Dirac envió “Mecánica cuántica y una investigación preliminar sobre el átomo de hidrógeno” a Proceedings of the Royal Society.
 
En el mismo año Schrödinger demostró la equivalencia entre las formulaciones matricial y ondulatoria de la mecánica cuántica. Poco tiempo después, Dirac presentó su versión de esta equivalencia con un tratamiento más abstracto y general, reconociendo adicionalmente la conexión con la mecánica clásica. Las ecuaciones de la mecánica cuántica se obtienen a partir de las ecuaciones de la mecánica clásica hamiltoniana, reemplazando las cantidades físicas por operadores o matrices, y convirtiendo paréntesis de Poisson en conmutadores.
 
La poca familiaridad de los físicos con matrices, en contraste con su conocimiento sobre ondas, determinó sus preferencias sobre las dos versiones de la mecánica cuántica. Heisenberg investigó el átomo de helio con la versión ondulatoria y Born hizo lo mismo al investigar el problema de dispersión. Mientras que Pauli desarrolló la descripción matricial del momento angular intríseco o el espín del electrón.
 
A finales de 1924, inmediatamente después de recibir el trabajo de Bose, Einstein aplicó el método de contar el número de estados microscópicos y su distribución en las celdas del espacio fase para el caso del gas atómico cuántico. Las diferencias con respecto al caso estudiado por Bose es que los átomos tienen masa y su número se conserva. La publicación del trabajo se efectuó en dos partes. En la primera, introduce lo que se llama la distribución de Bose-Einstein, que difiere de la de Planck en la presencia del término correspondiente al potencial químico. Analiza las desviaciones perturbativas a altas temperaturas de la distribución del gas ideal clásico y verifica la consistencia de la distribución cuántica y la tercera ley de la termodinámica, formulada por Nernst diez años antes, de que la entropía tiende a anularse cuando la temperatura tiende al cero absoluto. En la segunda parte, que apareció publicada a principios de 1925, reconoce la posibilidad de que a una temperatura suficientemente baja ocurra una transición de fase en la que los átomos del gas ocupan de manera creciente el estado de energía más baja. Este fenómeno se conoce con el nombre de condensación de Bose-Einstein.
 
Ehrenfest y otros colegas señalaron que en los trabajos de Bose y Einstein, los cuantos y los átomos no son tratados como estadísticamente independientes. Einstein aceptó el señalamiento, subrayando que las diferencias en las formas de contar como Boltzmann y como Bose “expresan indirectamente cierta hipótesis sobre una influencia mutua de las partículas que por el momento es de una naturaleza muy misteriosa”.
 
En 1925 Pauli formuló el llamado principio de exclusión. Bohr, al estudiar los átomos, reconoció que los electrones ocupan los estados estacionarios con energías crecientes de manera sucesiva, resultando la llamada estructura de capas, en vez de ocupar todos el estado más bajo de energía. El principio de exclusión trata de justificar ese comportamiento establecido experimentalmente al afirmar que “en el átomo cada estado cuántico electrónico puede ser ocupado por un solo electrón”. Entonces, el estado más bajo de un átomo no puede ser aquel en que todos los electrones ocupan el de más baja energía, sino que los electrones ocupan los estados con energías sucesivamente crecientes debido a la limitación del principio de exclusión.
 
Para 1926, Fermi publicó un artículo que difiere del trabajo de Einstein porque se aplica en átomos que deben de satisfacer el principio de exclusión con respecto a los estados cuánticos de energía disponibles para ellos. Mientras el número de ocupación de un estado cuántico puede ser mayor que uno para el gas clásico, o el estudiado por Einstein, en el presente caso ese número sólo puede ser cero o uno. La forma de contar que introduce Fermi es diferente de la de Boltzmann y la de Bose; aunque mantiene la idea de celdas en el espacio fase introducida por el último.
 
En la segunda mitad del mismo año, Dirac aborda el mismo problema del gas cuántico en sus dos versiones, la de Einstein y la de Fermi, pero sin citar la referencia al último. Reconoce que las partículas idénticas en la descripción cuántica son indistinguibles y que las funciones de onda para sistemas de ellas poseen simetría de intercambio, estableciendo que bajo el intercambio de dos de las partículas la función de onda no cambia en el caso estudiado por Einstein, y se dice que es simétrica, y cambia de signo en el caso de partículas sujetas al principio de exclusión de Pauli, para las cuales la función se dice que es antisimétrica. Las simetrías respectivas se traducen en que los bosones —partícula de espín entero que se comportan de acuerdo a la estadística de Bose-Einstein— tienden a ocupar el mismo estado cuántico, explicando la influencia mutua y misteriosa mencionada por Einstein para responder a Ehrenfest; y en que los fermiones —partícula de espín semi-entero que se comportan de acuerdo a la estadística de Fermi-Dirac— no pueden ocupar el mismo estado cuántico como lo establece el principio de exclusión, que es una consecuencia de la condición de antisimetría de la función de onda.
 
Dirac inició el desarrollo de la electrodinámica cuántica en 1927. Introdujo operadores de creación y aniquilación de fotones que satisfacen reglas de anticonmutación para describir los procesos de emisión y absorción de radiación por sistemas de partículas cargadas, desarrollando el método de segunda cuantización. También encontró las fórmulas para calcular los coeficientes de emisión espontánea, emisión estimulada y absorción introducidos por Einstein diez años antes.
 
 
Born identificó la función de onda como una amplitud de probabilidad, cuyo cuadrado en valor absoluto representa una densidad de probabilidad. Heisenberg formuló el principio de incertidumbre, reconociendo que el concepto clásico de órbita deja de tener sentido en el nivel cuántico. Bohr formuló el principio de complementariedad, que permite reconocer las condiciones en que ciertos conceptos y otros alternos son aplicables o no. La interpretación de la mecánica cuántica sobre estas bases transformó el debate inicial sobre ondas o partículas, en uno sobre si era o no una descripción completa de la realidad física.
 
Discusión
 
A partir del trabajo de Einstein de 1917, desde 1955 se logró la invención de amplificadores de microondas —luz y rayos X— por emisión estimulada de radiación, conocidos con los acrónimos de maser, laser y x-raser. Sus aplicaciones son múltiples y bien conocidas, destacando el desarrollo de la óptica y las espectroscopías no lineales.
 
 
Del trabajo de 1925 sobre la condensación de Bose-Einstein puede mencionarse que los fenómenos de superconductividad, descubierto por Kammerling Onnes en 1911, y de superfluidez son estudiados como manifestaciones de tal condensación. Experimentos encaminados a producir el cambio de fase de gas atómico a condensado de Bose-Einstein se iniciaron desde la década de los años ochentas del pasado siglo por Klepner usando técnicas de criogenía convencional con hidrógeno atómico. En 1995, las técnicas de atrapamiento y enfriamiento de átomos usando luz láser culminaron con la condensación de Bose-Einstein de un gas de rubidio atómico, logrando temperaturas extremadamente bajas. Otros experimentos con diferentes átomos alcalinos también mostraron su condensación de Bose-Einstein en ese año y los siguientes. Poco después también Klepner la logró en hidrógeno.
 
El núcleo atómico fue descubierto por Rutherford en 1911, y el neutrón por Chadwick en 1932, identificándolo como una partícula componente del núcleo. Los procesos de decaimiento y las reacciones nucleares permitieron reconocer nuevas interacciones de los componentes del núcleo. A partir de los años treintas esos sistemas y procesos se han estudiado usando los métodos de la mecánica cuántica.
 
 
En el estudio de los rayos cósmicos, y también en aceleradores de partículas, se han producido e identificado cientos de nuevas formas de materia que se conocen con el nombre genérico de partículas elementales. También su estudio ha estado guiado por la mecánica cuántica.
Eugenio Ley Koo
Instituto de Física,
Universidad Nacional Autónoma de México.

 _______________________________________________________________

como citar este artículo

Ley Koo, Eugenio. (2005). La hipótesis cuántica de la luz. Ciencias 80, octubre-diciembre, 38-48. [En línea]
 
  ←Regresar al índiceartículo siguiente→
1 12
     
La física del siglo XXl
 
¿De qué está hecho el mundo y lo que lo rodea?, ¿cuándo y cómo empezó el Universo?, ¿qué es lo más pequeño que existe? Durante miles de años, estas preguntas han estimulado la imaginación de muchas personas.
Myriam Mondragón
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
 
 
 
¿De qué está hecho el mundo y lo que lo rodea?, ¿cuándo y cómo empezó el Universo?, ¿qué es lo más pequeño que existe? Durante miles de años, estas preguntas han estimulado la imaginación de muchas personas. Los antiguos griegos, por ejemplo, tenían el concepto de átomo como la unidad de materia más pequeña e indivisible. Pero es en los últimos dos siglos, y sobre todo en los pasados cien años, cuando los avances matemáticos, conceptuales y tecnológicos permitieron a los físicos explorar en forma más sistemática las respuestas a estas y otras preguntas, aunque todavía queda mucho por resolver.

La mecánica cuántica y la teoría de la relatividad revolucionaron la forma en que percibimos el mundo. El siglo pasado presenció adelantos sin precedentes en la física teórica. Uno de ellos es la teoría moderna de las partículas elementales, la cual describe los bloques fundamentales de la materia, las partículas más pequeñas e indivisibles, además cómo interactúan entre sí, cómo se mantienen unidas y cómo reaccionan ante las diferentes fuerzas. Este conjunto de conocimientos se encuentra representado en el modelo estándar de las partículas elementales, el cual usa el formalismo matemático que combina la mecánica cuántica con la relatividad, incluyendo creación y aniquilación de partículas, conocido como teoría del campo.

Resulta claro que si todo está compuesto de bloques fundamentales, las propiedades de éstos determinan la estructura del Universo en su conjunto. De ahí que exista una importante conexión entre la física de partículas elementales, la de astropartículas y la cosmología.

A partir de pocos elementos, seis quarks, seis leptones y las partículas que transmiten la fuerza entre ellos, el modelo estándar explica todas las partículas compuestas que conocemos y la forma en que interactúan. Sin embargo, dista mucho de ser una teoría completamente satisfactoria. En qué consiste y hasta dónde llega nuestro conocimiento sobre las partículas fundamentales son la base para entender por qué seguimos buscando mejores respuestas.

Los quarks y los leptones son las partículas más pequeñas de la materia. Los primeros se encuentran dentro del núcleo del átomo y tienen propiedades poco comunes. Por ejemplo, a diferencia de los protones y electrones, que tienen carga eléctrica +1 y -1, los quarks tienen una carga fraccionaria, ±2/3 y ±1/3. Además poseen otro tipo de carga conocida como color y representada con los tres colores primarios. Casi toda la materia que nos rodea está compuesta de combinaciones de dos tipos de quarks, los up y los down. Los quarks nunca se encuentran aislados porque para uno es energéticamente más favorable juntarse con otro y formar otra partícula, que estar solo. A esta propiedad se le llama confinamiento. Los leptones, en cambio, se encuentran solos. Los hay cargados, como el electrón, o neutros, como los neutrinos.

Hasta aquí todo es razonablemente sencillo; sin embargo, existen más quarks y leptones —además de los up, down, electrón y neutrino—, todos con los mismos números cuánticos y propiedades, pero con masas extremadamente diferentes. A cada grupo de quarks y leptones se le conoce como familia, y se distingue entre tres familias manifestando que los quarks y leptones vienen en tres diferentes sabores —aunque, al contrario del color, no se asignó un sabor particular, como dulce o amargo. El primer misterio sin resolver: sabemos, por observaciones cosmológicas y por los experimentos de partículas, que sólo hay tres generaciones de familias y que cuando se crean, las partículas más pesadas decaen inmediatamente a las más ligeras. Pero, ¿por qué, si al final todas las partículas decaen a la primera familia, aparecen dos generaciones más pesadas?, y también ¿por qué sólo hay dos generaciones más pesadas y no más, por ejemplo, seis o incluso una cantidad infinita de ellas?
En el modelo estándar, las interacciones de una partícula son todas las fuerzas que la afectan —es decir, la manera en que la presencia de otras partículas la perturban—, sus decaimientos y aniquilaciones. En este caso, el meollo del asunto consiste en explicar cómo dos objetos pueden afectarse el uno al otro sin tener contacto. La razón es que las partículas de la materia intercambian otro tipo de partículas que son portadoras de fuerza. Es necesario señalar que una fuerza y una interacción no son exactamente lo mismo, pero por simplicidad muchas veces estos nombres se usan indistintamente.

Hay cuatro interacciones fundamentales: la gravedad, la electromagnética, la fuerza fuerte y la débil. La gravedad y el electromagnetismo pertenecen a nuestra experiencia cotidiana. La fuerte y la débil actúan en el nivel atómico y subatómico, de manera que no las percibimos. El electromagnetismo es el responsable de que objetos con cargas iguales se repelen y con cargas opuestas se atraigan, su partícula mediadora es el fotón y, hasta donde sabemos, no tiene masa y viaja a la velocidad de la luz. La fuerza de gravedad afecta todos los objetos con masa, pero como la de las partículas fundamentales es tan pequeña los efectos gravitatorios son despreciables. En parte, esto es una suerte porque en el modelo estándar no puede explicarse satisfactoriamente la gravedad. Además, no se ha encontrado el gravitón, que sería su partícula mediadora. Hasta ahora no hay una teoría completa y matemáticamente coherente sobre la gravedad cuántica.

La fuerza fuerte es la que perciben los quarks, como su nombre lo indica es muy intensa y eso hace que se mantengan unidos y formen otras partículas. Sus mediadores son los gluones —de glue, pegamento en inglés— que, como los propios quarks, poseen carga de color. A la teoría que describe estas complejas interacciones se le conoce como cromodinámica cuántica. La cuarta y última interacción, la fuerza débil, tiene que ver con el decaimiento de las partículas. Es decir, con la aparición de nuevas partículas de menor masa a partir de otras que pierden energía cinética. Usa tres partículas mediadoras, W+, W- y Z. Los W± tienen carga eléctrica y el Z es neutro. Al contrario del fotón que no tiene masa, los W y el Z son muy masivos. Sin embargo, desde hace algunos años sabemos que en realidad la fuerza electromagnética y la débil son dos aspectos de una misma interacción: la fuerza electrodébil.

Finalmente, así como la interacción débil explica cómo surgen partículas con menor masa, también es necesario explicar qué clase de interacción provoca que las partículas adquieran masa. Un intento por aclarar ese fenómeno es el mecanismo de Higgs, pero supone la existencia de una partícula llamada bosón de Higgs, que hasta ahora no se ha encontrado.

 

El mecanismo de Higgs

Una analogía muy citada para describir cómo funciona el mecanismo de Higgs es la siguiente: imaginemos que estamos en un cuarto donde hay una fiesta con mucha gente; de pronto, llega una persona famosa, que en nuestro caso sería la partícula que incrementará su masa. En el momento que entra por la puerta, la gente se aglomera a su alrededor y conforme se mueve atrae más gente. Esto aumentará su resistencia al movimiento, lo que a su vez es indicio de que adquirió masa.

El equivalente del cuarto lleno de gente sería el campo de Higgs y, como el campo electromagnético, se supone que llena el Universo. De hecho, así como un electrón que se mueve a través de una red cristalina de átomos cargados positivamente puede aumentar su masa hasta cuarenta veces, se supondría que una partícula moviéndose por el campo de Higgs lo perturbaría, como lo hace el famoso en la fiesta, y de esta manera adquiriría masa. Sin embargo, como se señaló, el bosón de Higgs es la única partícula del modelo estándar que todavía no se ha encontrado. Suponemos que es una partícula fundamental como las otras, pero realmente no conocemos su naturaleza. Buena parte de los futuros experimentos estarán dedicados a buscar esta partícula, sus propiedades e interacciones. También aquí surgen preguntas interesantes, ¿existe realmente una partícula como el Higgs o es únicamente un recurso matemático y en realidad el mecanismo por el cual adquieren masa las partículas es otro?

Para fines prácticos, el modelo estándar funciona muy bien suponiendo la existencia de esa partícula. Sin embargo, podría ser que el Higgs resultara un condensado de dos fermiones y no una partícula fundamental o bien que hubiera más de uno. Su naturaleza podría revelar interacciones fuertes hasta ahora insospechadas. Por esto, la búsqueda del bosón de Higgs es uno de los aspectos más estimulantes de la actual física de partículas.

Además de todas las partículas mencionadas, por cada una existe su respectiva antipartícula. Las últimas tienen la misma masa que las primeras, pero con todos los números cuánticos opuestos; por ejemplo, carga eléctrica opuesta y carga de color opuesta. Sabemos que sólo observamos cinco por ciento de toda la materia que existe en el Universo, el restante noventa y cinco por ciento es otra forma de materia cuyas propiedades desconocemos —es decir, no es ni materia, ni antimateria—, llamada materia obscura. Además, cabe señalar que el cinco por ciento que observamos es materia, pero no vemos regiones hechas de antimateria. Otra vez surgen preguntas, ¿por qué el cinco por ciento de la materia observable está hecho de materia y no de antimateria?, ¿qué es exactamente la materia obscura?

Por otro lado, por problemas de consistencia de la teoría del campo, sabemos que el modelo estándar probablemente sólo es válido hasta cierto rango de energía. De igual forma que la descripción adecuada para la dinámica a velocidades comparables a la de la luz es la relatividad y para fenómenos a velocidades muy pequeñas comparadas con la de la luz es la dinámica de Newton, pensamos que el modelo estándar sólo es válido hasta cierto punto, después del cual, hay una física que, por lo pronto, no conocemos o una descripción matemática diferente; aunque lo más probablemente es que sea una combinación de ambas.

Las matemáticas son el lenguaje de la física, por eso conceptos como los de elegancia y simplicidad han sido una poderosa guía en nuestra descripción de la naturaleza. Las ecuaciones deben emanar de lo que las haga atractivas, distinguidas y que, igual que en la moda, lleven al deseo de imitarlas. En física, esto significa que si un determinado fenómeno es descrito de manera simple y elegante es probable que esa descripción pueda aplicarse en otras áreas de la física con similar éxito. El mecanismo de Higgs es un buen ejemplo de ello.

Simetría y unificación

Un concepto muy apreciado es el de simetría, por el cual se entiende que una propiedad de las partículas permanece igual cuando sufre un cambio o transformación. Una simetría puede ser algo sencillo, como una rotación, o más complicado, como cambiar de signo la carga de la partícula y hacerle una inversión en el espacio —combinación llamada conjugación de carga y paridad. Ligado al de simetría, otro concepto que prueba ser notablemente útil, eficaz y elegante, es el de unificación, por el cual entendemos que dos fenómenos que se creían no relacionados y se describían de distintas maneras, en realidad pueden describirse de la misma forma y son dos aspectos del mismo fenómeno. Las unificaciones en la física llevaron a descripciones más simples, pero también trajeron sorpresas. La primera fue la de las electricidades, hecha por Faraday. Después el electromagnetismo por ­Maxwell. La unificación de la fuerza débil y el electromagnetismo en la fuerza electrodébil tuvo como consecuencia la incorporación de una nueva partícula al modelo estándar, el bosón de Higgs. Einstein también siguió la idea de unificación, pero en este caso la de la gravedad y el electromagnetismo, simplemente notando que ambas tienen la propiedad de que la intensidad disminuye con el cuadrado de la distancia. Sin embargo, esta no se ha encontrado en la naturaleza. Con el descubrimiento de las fuerzas débil y fuerte quedo claro que la unificación de las interacciones fundamentales se llevaría a cabo en forma más complicada. La de la fuerza electromagnética con la débil resultó en la teoría electrodébil. El siguiente paso sería unificar ésta con la fuerte y eventualmente con la gravedad.

Recientemente se han desarrollado diversas ideas para tratar de explicar algunos de los misterios sobre la estructura de la materia. Sin embargo, no es una tarea sencilla por la exigencia de que debe ser matemáticamente consistente, no contradecir los datos experimentales y, por lo tanto, encajar en el modelo estándar y ser compatible con lo que sabemos de astropartículas y cosmología. Es como armar un rompecabezas gigante y complicado, pero que cuando se termine, nos mostrará una imagen tanto de las partículas fundamentales como del cosmos.

 

Teorías de gran unificación

Los intentos por continuar con la idea de la unificación originaron las teorías de gran unificación o gut —por sus siglas en inglés. En éstas todas las interacciones fundamentales, excepto la gravedad, se unifican a energías muy altas. Las constantes de acoplamiento de las tres fuerzas, que miden con qué intensidad se acoplan a los campos, se vuelven de la misma intensidad a energías muy altas. De manera que existiría una sola fuerza fundamental —la unificada. Esto significa que a estas energías hay una mayor simetría, donde todos los acoplamientos y las masas serían del mismo orden de magnitud, lo que permitiría explicar algunas de nuestras preguntas, como la carga fraccionaria de los quarks, el número de generaciones o los cocientes de masas entre las partículas.
Por otro lado, ya señalamos que las partículas se separan por sus diferentes propiedades —carga eléctrica, carga de color, sabor, entre otras—; una fundamental es el espín, que en el mundo macroscópico sería algo así como la rotación de la partícula sobre su propio eje —lo que se conoce como momento angular—, en el microscópico decimos que el espín es el momento angular intrínseco de la partícula, y mide 0, 1/2, 1, 3/2, etcétera. Los fermiones tienen espín semi-entero y dos iguales no pueden ocupar simultáneamente el mismo estado. Los bosones tienen espín entero y, a diferencia de los primeros, pueden agruparse en un mismo estado. Por lo tanto, tienen propiedades estadísticas muy diferentes. A la simetría entre los bosones y fermiones se le conoce como supersimetría (susy).

La supersimetría dice que por cada bosón o fermión fundamental existe un supercompañero supersimétrico con la estadística opuesta. Es decir, a todos los fermiones les corresponde un bosón y a los bosones un fermión.

La idea de unificar bosones y fermiones no sólo es muy atractiva, sino que además, desde el punto de vista matemático, resulta en una teoría mejor comportada, que resolvería algunos de los problemas de consistencia matemática del modelo estándar. Sin embargo, en los actuales experimentos no se observa esta clase de simetría, los bosones y fermiones fundamentales no están relacionados entre sí. Esto significa que o bien la supersimetría no existe o si existe debe manifestarse a energías más altas de las que tenemos en los laboratorios —se dice que a energías bajas la simetría está rota. Por esto, si uno construye una teoría supersimétrica como una extensión del modelo estándar, los supercompañeros de las partículas elementales que observamos tendrían que tener masas muy grandes. Este es otro de los temas fundamentales que se habrán de explorar en futuros aceleradores. Una notable consecuencia de la supersimetría es que la materia oscura sea uno de estos compañeros supersimétricos.

Las dos simetrías mencionadas tienen ventajas y belleza, pero la combinación sale aún mejor. Al extrapolar a energías altas los valores de las constantes de acoplamiento en teorías con supersimetría resulta que éstas convergen de manera más clara que en las teorías gut sin supersimetría. Esto significa que a energías muy altas —o en distancias muy pequeñas— sólo habría una interacción fundamental además de la gravedad. Este resultado, combinado con las ventajas que por separado presentan las teorías gut y la supersimetría, hace que las teorías supersimétricas de gran unificación sean muy populares.

Cabe señalar que los intentos por unificar las cuatro fuerzas fundamentales siempre presentan problemas en el caso de la gravedad. Si tratamos la teoría de la relatividad general con la misma descripción matemática que las otras teorías, surgen inconsistencias manifestadas en cantidades infinitas que no se pueden desaparecer

—regularizar. Así, la teoría resultante no tiene sentido. Sin embargo, cuando la supersimetría, que es una simetría global —que se transforma uniformemente a través del espacio-tiempo—, la volvemos local; es decir, cuando hacemos que sus transformaciones varíen en el espacio-tiempo, aparece una partícula con las propiedades del gravitón. De manera que al tratarla como una simetría local, la supersimetría se conecta con la relatividad general y la gravedad queda automáticamente incluida. Más aún, estas teorías parecen estar libres de algunas de las mencionadas cantidades infinitas. Esto se debe al efecto de los supercompañeros predichos por la supersimetría. Sin embargo, todavía sería necesario encontrar el gravitón, la partícula que media la gravedad y que, en contraste con las otras partículas mediadoras de la fuerza, tiene espín 2. ¿Será que realmente existe?

Por otro lado, como suponemos que la gravedad es válida en distancias extremadamente pequeñas, entonces una descripción microscópica de la gravedad implica hablar de la curvatura del espacio-tiempo en esas distancias, con métodos cuánticos; es decir, probabilidades. Inmediatamente surgen varias preguntas, ¿es la relatividad general una teoría válida en distancias pequeñísimas?, ¿es realmente posible una descripción cuántica de la gravedad?, y si es así, ¿son las matemáticas que estamos usando las adecuadas? Formulado de otra manera, ¿cuál es la descripción correcta del espacio-tiempo en distancias arbitrariamente pequeñas? Ya sabemos por la relatividad general que una masa grande deforma el espacio-tiempo, en distancias pequeñísimas, ¿cuál es el efecto de la masa en el espacio-tiempo y viceversa?

Teoría de cuerdas

 

En paralelo al esfuerzo de unificación, creció el interés en continuar con la descripción geométrica del espacio-tiempo. La idea es que tanto las partículas como sus masas pueden describirse geométricamente.

A principios del siglo XX, Theodor Kaluza intentó unificar la teoría general de la relatividad con el electromagnetismo introduciendo una quinta dimensión en sus cálculos. Así logró describir las dos con el mismo formalismo. Sin embargo, parecía sólo un truco matemático, porque no observa ninguna dimensión espacial, además de las que conocemos. Años después, Oscar Klein propuso que esta quinta dimensión podría estar enrollada en sí misma como un pequeño cilindro o un popote. Entonces desde lejos sólo se ve una línea, pero si se es del tamaño de esta dimensión —una hormiga, por ejemplo— podría desplazarse a lo largo del popote o alrededor del mismo. En esta quinta dimensión, la gravedad se comporta exactamente como el electromagnetismo en las cuatro dimensiones que conocemos. A las teorías del campo que contienen esta clase de dimensiones extra se les conoce como teorías de Kaluza-Klein.

Una idea que combina todas estas posibilidades es que las partículas en distancias muy pequeñas sean bi-dimensionales; es decir, cuerditas. Una cuerda además de desplazarse, como lo hace un punto, también puede vibrar y son precisamente estas vibraciones las que percibimos como partículas. Diferentes modos de vibración corresponderían a diferentes partículas. Por tanto, sólo habría un componente fundamental, la cuerda y sus distintos modos de vibración. Una propiedad sorprendente de esta descripción, que condujo a muchos teóricos al estudio de las teorías de cuerdas, es que una de estas vibraciones correspondería al gravitón. Es decir, la gravedad aparece naturalmente unificada con las otras interacciones fundamentales. Para ser más precisos, resulta en algo que coincide con la relatividad general para distancias en las que ésta es una descripción adecuada, pero para distancias más pequeñas —las de las cuerdas— resulta en una teoría que no tendría los problemas que aparecen en una unificación tradicional. Esto parecería el fin de nuestra búsqueda si no fuera por varios detalles, la teoría debe ser matemáticamente coherente y si trata de las partículas y sus interacciones, debe describirlas. Por consistencia matemática, las teorías de cuerdas deben incluir la supersimetría. Además, ¡las cuerdas deben existir —en su versión más sencilla— en seis dimensiones espaciales más de las que conocemos! Éstas se encuentran enrolladas en sí mismas —como en las teorías de Kaluza-Kelin— razón por la cual no las vemos.

Además, en teoría de cuerdas aparecen unos objetos llamados branas. El nombre deriva de la generalización de una membrana en más dimensiones. Una cero-brana sería una partícula, uno-brana una cuerda, dos-brana una superficie y así sucesivamente. Se les conoce como D-branas o Dp-branas, donde el prefijo p denota la dimensión. Las cuerdas cerradas pueden moverse libremente, pero las abiertas tienen sus extremos fijos a una D-brana. Cuando una cuerda cerrada se acerca a una D-brana puede abrirse y pegarse a ella. Como el gravitón correspondería en la descripción de cuerdas a la vibración de una cuerda cerrada y las partículas fundamentales a las vibraciones de cuerdas abiertas, la gravedad podría desplazarse entre las branas —espacio conocido como bulto o bulk—, pero las otras interacciones estarían condenadas a vivir sobre la brana. Una propuesta es que nuestro Universo es una D3-brana en un espacio de más dimensiones, pero no podemos observarlas por no poder despegarnos de ella. Sólo la gravedad podría escapar de la brana. Recientemente, existe mucho interés en esta área de la física teórica y las matemáticas por la conexión que provee entre la geometría diferencial y algebraica, descripciones de la mecánica cuántica de hoyos negros y posibles nuevas teorías cosmológicas. Las matemáticas de las dimensiones extra en estas teorías se pueden trasladar a la física de cuatro dimensiones en forma determinada por los tipos de D-branas y por cómo se envuelven en la geometría interna del espacio, de manera que aparecen como partículas en cuatro dimensiones.

Los últimos adelantos en teoría de cuerdas indican que sólo hay cinco consistentes matemáticamente. Todas tienen diez dimensiones —una espacial y nueve temporales— y son supersimétricas. Más aún, todas son equivalentes entre sí y a una teoría de supergravedad en once dimensiones.

La cosa se complica cuando queremos hacer contacto con las partículas e interacciones que observamos. Conforme vamos a energías más bajas, o distancias más grandes, deberíamos pasar suavemente de la teoría de cuerdas al modelo estándar, quizás transitando por una teoría de gran unificación, una teoría de Kaluza-Klein o alguna combinación. Sin embargo, son innumerables las formas que pueden tomar las dimensiones compactas y, además, en las teorías de cuerdas aparecen muchas más partículas de las que observamos. Por esto, no existe ni con mucho un sólo camino, ni siquiera una sola clase de caminos, para llegar a la descripción de bajas energías. No obstante, los desarrollos matemáticos de las teorías de cuerdas y branas son impresionantes y, en algunos casos, ya se han aplicado con éxito en otras ramas de la física, como en el caso de ciertos aspectos de dinámica de membranas en biofísica.

A pesar de los espectaculares avances en la física y las matemáticas en el último siglo, la verdadera naturaleza del espacio-tiempo, de las partículas elementales y de las fuerzas fundamentales todavía nos elude. En buena medida, debido a la falta de información experimental que proporcione una guía y probablemente a que todavía se necesitan más desarrollos matemáticos. Sin embargo, los experimentos en los aceleradores futuros están diseñados precisamente para tratar de contestar o dar luz a muchas de estas preguntas. Por otro lado, las observaciones cosmológicas, aunque lejos de tener la precisión de un experimento controlado en el laboratorio, se han perfeccionado y son más precisas en los años recientes. Los observatorios de rayos cósmicos también suministrarán información sobre partículas ultraenergéticas y sus posibles conexiones con algunas de las extensiones del modelo estándar y cosmología. Las matemáticas seguirán desarrollándose para describir estas observaciones. Pero, como siempre, la última palabra será de la naturaleza, que a pesar de la gran imaginación en todas las ideas que se han descrito, seguramente volverá a sorprendernos.
 
Instituto de Física,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
Greene, B. 2001. El universo elegante: supercuerdas,
dimensiones ocultas y la búsqueda de una teoría
final. Planeta.
Penrose, R. 2004. The road to reality: a complete
guide to the laws of the Universe. Jonathan Cape.
_______________________________________________________________

 

como citar este artículo

Mondragón, Myriam. (2005). La física del siglo XXI. Ciencias 80, octubre-diciembre, 24-32. [En línea]
 
 
  ←Regresar al índiceartículo siguiente→
1 12
     
Matemáticas, relatividad y
filosofía kantiana
En 1949, diversos artículos en torno a la teoría de la relatividad se publicaron para celebrar el aniversario setenta del nacimiento de Einstein. El matemático Kurt Gödel participó con un ensayo en el que destaca las consecuencias filosóficas del trabajo de Einstein, sobre todo en el marco de la discusión kantiana acerca de la naturaleza del tiempo y el cambio.
Osvaldo Téllez Nieto
conoce más del autor
     
     
HTML↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
 
En 1949, diversos artículos en torno a la teoría de la relatividad se publicaron para celebrar el aniversario setenta del nacimiento de Einstein. El matemático Kurt Gödel participó con un ensayo en el que destaca las consecuencias filosóficas del trabajo de Einstein, sobre todo en el marco de la discusión kantiana acerca de la naturaleza del tiempo y el cambio. Gödel sugirió la existencia de soluciones a las ecuaciones de campo de Einstein; es decir, modelos teóricos de universo, en los cuales no existe una noción absoluta de tiempo. El sustento matemático de dicha idea lo publicó unos meses más tarde.
 
Lo interesante del modelo de universo construido por Gödel es que en él existen líneas cerradas de tiempo, con las que desaparecen las nociones de antes y después, y se introduce la posibilidad teórica de influir en el pasado. Estos resultados, que no transformaron radicalmente a la física teórica, evidenciaron el impacto que la teoría de la relatividad tuvo en diversas áreas del conocimiento, en particular en matemáticas y filosofía. Ahora, al celebrarse el año mundial de la física, resulta pertinente reflexionar sobre ese efecto catalizador. Buen ejemplo de ello son los alcances del trabajo de Gödel, los cuales pueden entenderse partiendo de un recuento de la concepción del universo que se tenía en la segunda mitad del siglo xix y los cambios introducidos, más tarde, por la teoría de la relatividad.
 
El surgimiento de fenómenos no contemplados por la mecánica newtoniana, por ejemplo, que las corrientes eléctricas producen campos magnéticos o, su contraparte, que un imán puede producir corriente eléctrica, originaron los estudios sobre electromagnetismo. En la segunda mitad del siglo xix, para los físicos el universo estaba compuesto por partículas que interactúan mediante fuerzas a distancia, por medio de campos eléctricos y magnéticos. Las partículas elementales eran la materia ponderante, en la cual se distribuyen los diferentes pesos atómicos, las partículas de calor y los dos tipos de partículas eléctricas, las positivas y las negativas.
 
Las leyes del electromagnetismo se determinaron con las ecuaciones que James Clerk Maxwell unificó a partir de trabajos anteriores, y expresaban, en términos matemáticos, las diferentes relaciones que existen entre las fuerzas electroestáticas, electromecánicas y electromagnéticas. Además, con estas ecuaciones podía deducirse la existencia de ondas electromagnéticas, identificadas con la luz. De esta manera, se estableció su naturaleza ondulatoria. Si la luz es una onda, entonces tendrían que haber un medio sobre el cual se desplaza, de la misma forma en que el sonido viaja a través del aire. Esto condujo a postular la existencia del éter.
 
Por medio de resultados experimentales se llegó a suponer que el éter era estacionario y, por lo tanto, un punto de referencia estable para medir la velocidad de la luz, la cual, se creía, debía variar si los referentes se encontraban en movimiento. Parecía natural pensar que si un observador se desplaza en sentido contrario a un rayo de luz, la velocidad debe ser mayor a la que mide otro observador desplazándose en la misma dirección que el rayo de luz. En palabras de Lorentz, “como señaló por primera vez Maxwell, y como se desprende de un cálculo muy simple, el tiempo requerido por un rayo de luz para desplazarse de un punto A hasta uno B y regresar al punto inicial A tiene que variar cuando ambos puntos experimentan conjuntamente un desplazamiento sin arrastrar consigo al éter. La diferencia es, ciertamente, una magnitud de segundo orden, pero suficientemente grande para ser detectada por medio de un método de interferencias sensibles”.
 
El método al que se refiere Lorentz fue utilizado por Michalson y Morley hacia el año de 1881 para medir la variación de la velocidad de la luz cuando la Tierra se desplaza hacia el Sol y cuando lo hace en sentido contrario. En efecto, el método era lo suficientemente preciso para detectar esa variación. El resultado del experimento es bien conocido, no se registró ninguna variación. Si el universo se comporta de acuerdo con las leyes electromagnéticas establecidas por Maxwell, ¿cómo explicar que la luz no registre variación en tal experimento?
 
Líneas de tiempo y causalidad

La teoría de la relatividad de Einstein resolvió el problema del experimento de Michalson y Morley, mediante el siguiente postulado: la velocidad de la luz es la misma para cualquier sistema de referencia no importa a qué velocidad se mueva. De modo que no es necesario suponer la existencia del éter. Vale la pena recordar que cuando consideramos el movimiento de un objeto lo hacemos con relación a un sistema de referencia que puede ser una habitación, un vagón de tren o todo el planeta. Si en ese sistema no actúan fuerzas ajenas a los objetos que ahí se encuentran, decimos que es un sistema de referencia inercial. Por ejemplo, un vagón de tren en el momento en que está frenando, no puede ser un sistema inercial porque la fuerza de desaceleración actúa sobre los objetos que ahí se encuentran.
 
Einstein señaló que las ecuaciones de Maxwell son válidas en cualquier sistema de referencia inercial, de lo cual puede desprenderse que la velocidad de la luz es la misma para cualquier observador. Tal como lo expresa, “si K’ es con respecto a K un sistema coordenado animado de un movimiento uniforme y libre de rotación, entonces los sucesos de la naturaleza transcurren respecto a K’ según unas leyes generales, que son exactamente las mismas que respecto a K”.
 
También dedujo la invarianza de esas ecuaciones a partir de un resultado de geometría riemaniana, conocido como la transformación de Lorentz, nacido en el ámbito de las matemáticas y no en el de la física. La gran contribución de Einstein fue señalar la conexión entre ambos, lo que permitió demostrar que la velocidad de la luz es constante. También significaba que el tiempo es relativo, en el sentido de que corre más lento para alguien que se mueve a una velocidad cercana a la de la luz que para quien lo observa y respecto al cual el primero se desplaza. Esto se conoce como la dilatación del tiempo y suele explicarse mediante la paradoja de los gemelos.
 
Por otro lado, estos planteamientos impulsaron la idea de representar geométricamente la relación espacio-tiempo y definir las líneas de universo. Dicha representación se conoce como el espacio de Minkowski y consiste en un espacio tetradimensional que representa el cambio de coordenadas de un sistema de referencia S a otro S’. La transformación de Lorentz mantiene invariantes dos de los ejes espaciales, de modo que en lugar de considerar cuatro dimensiones —tres espaciales y una temporal— pueden tomarse sólo dos, el eje temporal y un eje espacial.
 
De este modo, dada una partícula en el sistema, al determinar su posición en el espacio y en el tiempo se obtiene una curva continua que corresponde a las coordenadas espaciales y temporales de la trayectoria del cuerpo, una línea de universo. Por ejemplo, una partícula que permanezca en reposo dibujará una línea de universo paralela al eje temporal, mientras que una partícula que se mueve a velocidad constante dibujará una diagonal y una partícula en aceleración, una parábola. Una línea de universo es de longitud infinita, no se intersecta a sí misma. En ella existe una noción bien definida de sucesión o, expresado de otro modo, se trata de una línea orientada hacia el futuro. Es decir, si desde un punto P se avanza hacia un punto Q no puede haber trayectoria de regreso a P. Sin embargo, Gödel demostró que es posible tener modelos de universo con líneas de universo cerradas. En sus palabras, “si P y Q son dos puntos cualesquiera en una línea de universo en la cual P precede a Q, entonces existe una línea de universo en la que Q precede a P. Es decir, en estos mundos es posible, teóricamente, viajar al pasado o dicho de otro modo, influir en el pasado”. Desde luego que en sentido práctico esto es casi imposible porque, como bien lo señalan Casti y De Pauli, para ello sería necesario mover cuerpos a velocidades cercanas a la de la luz, lo que requeriría de la masa de planetas enteros convertida en energía para impulsarlos.
 
Lo valioso del trabajo de Gödel no reside en sus aplicaciones prácticas, que extrictamente hablando no las tiene, sino en que abrió un extenso debate sobre el viejo problema de la causalidad, ya que de él se puede derivar no sólo la posibilidad de que un evento influya en sí mismo sino también que la noción de causa pierda todo sentido.
 
El universo de Gödel
 
La solución teórica de las ecuaciones de campo de Einstein presentada por Gödel en 1949, se conocen como los universos en rotación porque la materia presenta una rotación. De acuerdo a su autor, la principal contribución de este modelo era que mostraba que no es consecuencia de las ecuaciones de campo de Einstein la existencia de un intervalo objetivo de tiempo. Además de refrendar con ello la opinión de filósofos, como Parménides o Kant, de que el cambio no tiene objetividad, sino que es una ilusión o consecuencia de nuestro especial modo de percepción.
 
Gödel presentó el siguiente argumento: el cambio sólo es posible a través de un intervalo de tiempo. La realidad consiste en una infinidad de niveles de ahora que llegan a la existencia sucesivamente pero, si la simultaneidad es algo relativo al observador —propiedad que, como la relatividad del tiempo, puede deducirse a partir de la transformación de Lorentz— entonces la realidad no puede ser determinada de acuerdo con esos niveles, ya que cada observador establecería sus propios niveles, todos con igual validez.
 
No obstante, el hecho de que cada observador pueda establecer diferentes relaciones temporales no excluye la posibilidad de existencia de alguna estructura física independiente del observador o de cualquier otro objeto de referencia, que cumpla con las propiedades del tiempo newtoniano —es decir la unidimensionalidad, el orden lineal de los eventos, la universalidad, etcétera. De hecho, en todas las soluciones de las ecuaciones de campo presentadas hasta entonces —por ejemplo, en todos los modelos de universo— es posible definir un tiempo absoluto, aún cuando los tiempos locales fueran distintos. En palabras de Gödel, “todas las soluciones cosmológicas con densidad no nula de materia conocidas hasta el presente poseen la propiedad común de que, en cierto sentido, contienen una coordenada temporal absoluta porque existe un sistema uniparemétrico de tres espacios ortogonales a las líneas de universo de la materia en cada uno de sus puntos”.
 
En el universo construido por Gödel no es posible definir una coordenada temporal absoluta, por lo que se abandona la idea de un intervalo objetivo de tiempo. Ese universo tiene una gran variedad de propiedades físicas, algunas con un alto grado de dificultad técnica, pero la más notable es que, además de que no se puede definir una coordenada temporal absoluta, existen líneas de universo cerradas y, por lo tanto, la relación temporal fundamental antes-después pierde toda objetividad.
 
Con lo anterior, la doctrina kantiana sobre el tiempo recobraba validez. Para Kant, el tiempo no es algo existente en sí mismo o una característica u orden inherente a los objetos, sino que existe en un sentido relativo. Esa entidad relativa es la percepción del sujeto. Cualquiera que sea la realidad del tiempo, tal como nosotros la percibimos consiste en ciertas relaciones de los objetos con el sujeto que las percibe, las cuales dependen del modo de intuición del sujeto con el objeto dado. La doctrina kantiana no significa que las relaciones temporales y espaciales sean sólo imaginadas sino que deben subsistir independientemente de nuestra representación, es decir, deben corresponder a relaciones objetivas de las cosas con el observador.
 
Esta discusión pone de manifiesto algo que el propio Gödel reconoció en su momento, su trabajo en torno a la teoría de la relatividad no pretendía modificar el transcurso de la física teórica, sino ver de qué manera ésta contribuía en los debates filosóficos que, aún hoy en día, tienen validez.
Facultad de Ciencias,
Universidad Nacional Autónoma de México
Referencias bibliográficas
Casti, J. L. y De Pauli, W. 2000. Gödel. A life of logic. Perseus Publishing.
Gödel, K. 1949. Some observations about the relationship between the relativity theory and idelalistic philosophy.
Gödel, K. 1949a. An example of a new type of cosmological solutions of Einstein’s fields equations of gravitation.
Hacyan, S. 1995. Relatividad especial para estudiantes de física. unam.
Téllez, O. 2004. Algunas relaciones entre las investigaciones de Kurt Gödel en lógica matemática y física. Tesis de licenciatura, unam.
_______________________________________________________________

 

como citar este artículo

Téllez Nieto, Osvaldo. (2005). Matemáticas, relatividad y filosofía kantiana. Ciencias 80, octubre-diciembre, 54-59. [En línea]
 
 
  ←Regresar al índiceartículo siguiente→
de venta en copy
Número 141
número más reciente
 
141I

   
eventos Feriamineriaweb
  Presentación del número
doble 131-132 en la FIL
Minería

 


novedades2 LogoPlazaPrometeo
Ya puedes comprar los 
ejemplares más
recientes con tarjeta
en la Tienda en línea.
   

  Protada Antologia3
 
Está aquí: Inicio revistas revista ciencias 80
Universidad Nacional Autónoma de México
Facultad de Ciencias
Departamento de Física, cubículos 320 y 321.
Ciudad Universitaria. México, D.F., C.P. 04510.
Télefono y Fax: +52 (01 55) 56 22 4935, 56 22 5316


Trabajo realizado con el apoyo de:
Programa UNAM-DGAPA-PAPIME número PE103509 y
UNAM-DGAPA-PAPIME número PE106212
 ISSN:0187-6376

Indice-RM

Responsable del sitio
Laura González Guerrero
Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.
 

Asesor técnico:
e-marketingservices.com
facebooktwitteryoutube

cclCreative Commons License
This work is licensed under a Creative Commons
Attribution-Noncommercial-Share Alike 3.0 United States License