revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
01 012b
     
2005, voltear al pasado para mirar al futuro
 
El 14 de marzo se festejó el aniversario 126 del nacimiento de Einstein. Poco después, el 18 de abril, se recordaron los cincuenta años de su muerte.
Luis de la Peña
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
 
El 14 de marzo se festejó el aniversario 126 del nacimiento de Einstein. Poco después, el 18 de abril, se recordaron los cincuenta años de su muerte. Pero durante todo el año, en innumerables actos esparcidos por el mundo, se celebra el primer centenario de los trabajos que publicó durante su anno mirabilis, aquel 1905. Con frecuencia, los trabajos escritos y los publicados por un investigador en un año no coinciden. Para ser más realistas, normalmente no lo hacen, y menos en la actualidad pues es usual que una revista demore cerca de un año, y en ciertas especialidades mucho más, en publicar los textos recibidos. Aunque al inicio del siglo xx los plazos eran bastante más cortos —entre 3 y 4 meses—, de los cinco trabajos que Einstein escribió en 1905 sólo se publicaron cuatro ese año —el último apareció en 1906. Es bien sabido que con ellos abrió tres capítulos fundamentales de la física: la teoría de la relatividad, la teoría fotónica de la radiación —el efecto fotoeléctrico— y la teoría de los procesos estocásticos —el movimiento browniano.
 
A la teoría de la relatividad dedica dos trabajos. Con el primero, una de las obras maestras de la ciencia del siglo xx, nace esta teoría que ofrece una descripción de la cinemática y dinámica de los cuerpos congruente con el principio —formulado por el propio Einstein— de la constancia de la velocidad de la luz para todos los observadores. Es la forma que debe adquirir la vieja mecánica newtoniana para hacerla congruente con la teoría electromagnética y emerge de una profunda revisión de los conceptos de espacio y tiempo, los cuales pierden su carácter de absolutos para depender del estado de movimiento de los cuerpos. Esta es la razón del nombre de la teoría.
 
En el segundo, concibe lo que hoy representa la fórmula más famosa de la física, E=mc2, la cual establece la equivalencia entre masa y energía. Lo inesperado de este resultado puede sentirse con el siguiente razonamiento. Pensemos en un cuerpo cualquiera que ponemos en movimiento. Esto significa que le hemos suministrado energía —asociada al movimiento impartido, es decir, cinética. Siguiendo la fórmula de Einstein resulta que como el cuerpo posee más energía, también posee más masa. En otras palabras, la teoría de la relatividad predice que la masa de un cuerpo crece con su velocidad. Desafortunadamente esto no sirve para transformar un kilo de manzanas en dos, pues tendríamos que lanzarlas a una velocidad cercana a 87% de la velocidad de la luz, lo cual sería más costoso que el kilo extra de manzanas. Sin embargo, el ejemplo ilustra la riqueza de resultados —y de sorpresas— que brinda la teoría de la relatividad.
 
El primer trabajo que publicó en 1905 está dedicado al estudio de la absorción y emisión de la luz. En él propone la idea de concebir la luz —en general, la radiación electromagnética— como constituida por parcelas independientes de energía definida, los corpúsculos luminosos conocidos hoy como fotones. Idea trascendente y audaz, cuya importancia creció con el tiempo al convertirse en fundamento de la teoría cuántica de la radiación. La ruptura conceptual propuesta con este trabajo puede apreciarse si recordamos que en la época de su publicación toda la física estaba inmersa en el concepto de continuo; ni siquiera la materia se entendía como un medio discreto.
 
Los dos trabajos dedicados al movimiento browniano —uno publicado en 1906, porque su autor lo utilizó como tesis doctoral— representan otro gran paso en nuestro conocimiento del mundo físico. Con ellos inicia el estudio de los sistemas físicos sujetos a la acción de fuerzas aleatorias; es decir, la teoría —tanto física como matemática— de los procesos estocásticos, cuya importancia puede estimarse al recordar que uno de estos artículos se ha mantenido a través de las décadas como el trabajo más citado de Einstein —los otros ya son tan clásicos que no se citan. Es interesante señalar que tales citas provienen con mucha frecuencia del campo de la ingeniería química, concretamente de la industria de coloides, ya que resultan fundamentales en ambas especialidades.
 
El primer trabajo de Einstein sobre el movimiento browniano aborda y resuelve con mucha creatividad un añejo problema: abrir una vía para demostrar experimentalmente la realidad de las moléculas. Hasta ese momento, la idea de que la materia está compuesta de moléculas era una simple —pero muy útil— hipótesis, sin base experimental, fuertemente rechazada por un amplio sector de físicos y químicos, aunque atractiva para otros. En este trabajo propone un método para medir las dimensiones de una molécula de agua a partir de las propiedades estadísticas del movimiento de una partícula muy pequeña —por ejemplo, un grano de polen o de pigmento— suspendida en agua. La idea es que la partícula en suspensión es golpeada constantemente por un gran número de moléculas —en realidad, millones de ellas—, lo que debe imprimirle un constante movimiento errático. Este es el movimiento browniano, llamado así porque fue el biólogo escocés Robert Brown —quien identificó el núcleo celular— el primero en reportarlo en 1827. La causa de este movimiento perenne no fue entendida hasta que Einstein publicó su trabajo titulado “Determinación de las dimensiones de una molécula”. Poco después, los experimentos fueron realizados por el físico francés Jean Perrin, quien alrededor de 1910 anunció el éxito de su empresa: los átomos son una realidad física, no una útil ficción.
A pesar de esquemática y breve, la anterior descripción permite entrever una de las características de la investigación científica que con mayor frecuencia se entiende mal, particularmente por quienes desean planificarla o dirigirla hacia fines aplicados apremiados por las necesidades locales. Los trabajos de Einstein pertenecen al terreno de la física teórica. Ninguno fue realizado con un fin predeterminado diferente del puramente científico. Sin embargo, a la larga, todos encontraron aplicaciones de gran importancia. No sólo las inmensas consecuencias de toda índole que se derivaron del conocimiento de la estructura molecular de la materia, sino resultados directos de aplicación de los nuevos conocimientos establecidos en tales trabajos.
 
Por ejemplo, la teoría del movimiento browniano en la industria química. El efecto fotoeléctrico, cuya teoría fundamental Einstein esboza en el trabajo de la cuantificación de la radiación, tiene un gran número de aplicaciones —una variante moderna de uso cotidiano lo encontramos en los controles remotos infrarrojos de los aparatos electrodomésticos. La teoría cuántica del campo de radiación, cuyo germen es el mismo trabajo, también condujo a una gran variedad de aplicaciones, entre las que el láser es de las más extendidas. La transformación relativista de masa en energía es la base de los reactores nucleares. Aunque también de las bombas nucleares.
 
Probablemente éste sea un buen ejemplo de lo que declaró un antiguo presidente de la Royal Society de Londres: “únicamente hay ciencia aplicada y aún no aplicada; sólo es cuestión de tiempo”. Otro excelente ejemplo lo brinda la teoría de los números. ¿Que rama de las matemáticas podemos concebir más alejada de lo mundano, del terreno de lo práctico, que la teoría de los números? Sin embargo, ella ha encontrado aplicación concreta en el diseño de sistemas inviolables de transmisión de información. Pero hay una contraparte, restringir la investigación científica a la dirigida hacia aplicaciones inmediatas equivale a cerrar su futuro. El motor fundamental de varias ciencias —matemáticas, astronomía, física, etcétera— es interno; los problemas importantes que les dan vida y dirección las más de las veces emergen de ellas mismas, no del exterior. Es claro que deben investigarse los problemas propios del entorno y, en particular, los más apremiantes y de mayor utilidad social, es decir, utilizar la ciencia en nuestro beneficio y para crear nuestra tecnología. Pero esta tarea, urgente e importante, no debe realizarse a expensas de la igual de urgente e importante tarea de avanzar en la construcción del conocimiento científico. Son dos caras de una moneda, la cual deja de ser moneda si carece de cualquiera de ellas. Trágicamente, esto se pierde de vista en nuestros países, los llamados, de manera más optimista que realista, en vías de desarrollo.
 
Asomándonos al futuro cercano
 
Durante toda su vida, Einstein se mantuvo activo en los tres frentes de la física que abrió: el relativista, el cuántico y el estadístico. Por etapas, se dedicaba a uno o al otro con mayor o menor empeño, pero sin abandonar por entero los otros dos. Su más reconocido éxito lo obtuvo con la Teoría general de la relatividad en 1915, cuya formulación constituye una de las mayores proezas intelectuales de todos los tiempos. En el fondo, es una teoría de la gravitación que tiene la peculiaridad —no se conoce otro ejemplo similar y aquí brilla único el genio de Einstein— de que en ella la geometría del espacio no está fijada de entrada, sino que resulta determinada por la propia teoría en cada caso. Durante la última etapa de su trabajo —los últimos veinte años de su vida—, emprendió una nueva y muy ambiciosa tarea, tratar de construir una teoría que unificara la gravedad y el campo electromagnético, pues en la Teoría general de la relatividad el último aparece como un elemento externo, no intrínseco, como sí lo es la gravedad. No tuvo éxito. Hoy conocemos mejor la razón de ello. No sólo fue la inmensa dificultad del problema, sino que carecía de algunas de las herramientas necesarias. Por ejemplo, en la naturaleza, además de los campos electromagnético y gravitacional, únicos conocidos por Einstein, existen otros descubiertos con el auxilio de la física cuántica. Así, para construir una teoría unificada de los campos, ésta tiene que ser cuántica y debe considerar a todos los campos.
 
El tema brinda una buena oportunidad para otear, con cautela, hacia el futuro. Durante la transición del siglo xix al xx se realizaron muchas predicciones sobre el desarrollo de la física del siglo que iniciaba. Ninguna acertó, ni siquiera de manera aproximada. En retrospectiva puede afirmarse que simplemente era imposible prever en 1900 el explosivo progreso de esta ciencia apoyado en la física clásica, la cual pronto quedó rebasada. Naturalmente, no han faltado predicciones sobre lo que sucederá con la física, y más en general con la ciencia, durante este recién estrenado siglo. Es muy probable que en poco acierten. Sin embargo, para un horizonte temporal más corto, por ejemplo las próximas dos décadas, es posible entrever algunas tendencias. Existen varias ramas de la física actual que por su relevancia, sea científica o por sus posibles aplicaciones, se encuentran en estado de ebullición.
 
Recordemos en primer lugar el estudio de los sistemas dinámicos —también conocidos como sistemas complejos o caos determinista, entre otros nombres. Probablemente, este tema provocará una apertura de los métodos de la física hacia otras ciencias, en particular la biología y algunas ramas de las ciencias sociales, lo cual conducirá a resultados y aplicaciones inesperadas. Los conocimientos de la mecánica que habrán de emerger del estudio de los sistemas complejos nos darán una visión totalmente renovada de ésta, la más vieja rama de la física, especialmente cuando se alcance a formular su teoría general, la cual está por inventarse prácticamente en su totalidad. Más aún, dada la visión holista que requiere este tipo de estudios, bien pueden impulsar la construcción de una teoría general de sistemas —aunque esto podría ser a un plazo mayor—, asunto pendiente desde hace décadas y que ha recibido relativamente poca atención.
 
Otros capítulos de la física destinados a desarrollarse explosivamente es el de las nanoestructuras y de otros sistemas mesoscópicos. Durante siglos de estudios mecánicos el nivel mesoscópico fue dejado de lado, probablemente debido a la combinación de dos factores. Primero por las dificultades para estudiarlos, pues no son aplicables las aproximaciones y simplificaciones válidas para los casos extremos de lo muy pequeño o lo muy grande —lo microscópico o lo macroscópico. Segundo, no se creía que tuvieran mayor interés, por lo que se les dejaba de lado con facilidad. Pero en las últimas décadas, algunos descubrimientos mostraron que sucede precisamente lo contrario y que en este nivel hay sistemas de enorme interés por sus extraordinarias propiedades y sus posibles aplicaciones. Prueba de ello es que varios países, particularmente los Estados Unidos y Japón, dedican varios centenares de millones de dólares anuales a estos estudios. Desafortunadamente, parece que también este tren se nos va a ir.
 
Actualmente, casi no hay campo de la física —incluida la astrofísica— que no explore terrenos novedosos. Por ejemplo, la mecánica cuántica, que hasta hace poco parecía estar hecha, ahora podría conducirnos, si se logran resolver los enormes problemas que se interponen en el camino, a las computadoras cuánticas, lo cual representaría una revolución no menor a la que generó la electrónica de estado sólido —la sustitución de los bulbos de las primeras computadoras por los dispositivos de estado sólido, primero el transistor y después su miniaturización y ultraminiaturización en los actuales chips, cada uno de los cuales puede contener algunos millones de transistores.
 
La vieja teoría electromagnética de Maxwell, construida a principios de la segunda mitad del siglo xix, unificaba en un esquema matemático común la descripción de los campos eléctrico y magnético, y describía cómo uno puede transformarse en el otro. Estos conocimientos llevaron a resultados de enorme significado práctico, aportaron la base en que se fundó la industria eléctrica y la de radiocomunicaciones, lo cual constituye otro ejemplo de la impredecibilidad de los resultados de la investigación científica —la posibilidad de comunicación con los barcos en altamar no se resolvió antes de que Hertz demostrara la existencia de las ondas electromagnéticas, predichas por la teoría de Maxwell, y la potencialidad que tienen para la radiocomunicación.
 
La unificación en un esquema matemático común del electromagnetismo y la gravitación constituiría un inmenso paso hacia la construcción de una teoría física básica de la naturaleza, propósito al que Einstein dedicó sus últimos años. Hoy, el conocimiento de los diversos campos que ocurren en la naturaleza y de las partículas elementales que constituyen nuestro mundo permite creer que el momento está maduro para proseguir esta búsqueda de la teoría unificada. Ahora, el programa es más ambicioso, porque creció el número de campos y por la naturaleza necesariamente cuántica del problema. Para muchos, este asunto constituye el problema central de la física, y, en consecuencia, el más atractivo que pueda concebirse. Es por ello que una parte significativa del esfuerzo actual en investigación física se realiza de manera paralela en diversas vertientes de este campo. Hasta el momento, los resultados distan de ser espectaculares, pero el futuro es promisorio. Qué habrá de salir finalmente de este enorme esfuerzo es una incógnita, pero la importancia intrínseca del problema bien lo merece.
 
El panorama que emerge de esta perspectiva parcial y un tanto esquemática es el de una física que profundizará y extenderá con amplitud su campo de actividad, enlazándose estrechamente con otras disciplinas y abriendo nuevas fronteras y enfoques del conocimiento científico, también promoverá novedosas e importantes aplicaciones. Si consideramos el impetuoso ritmo con el que creció la ciencia durante el siglo xx, el cual seguramente se mantendrá al menos en las próximas décadas —y que incluso tiene alta probabilidad de incrementarse, pues no hay razones para creer que el desarrollo científico actual haya alcanzado un punto de saturación— puede esperarse que las nuevas generaciones que en estos momentos se inician en las labores de investigación tendrán la oportunidad de hacer grandes contribuciones al conocimiento científico o a sus aplicaciones. Por lo tanto, podemos ser optimistas con los jóvenes físicos, por delante tienen una enorme riqueza de posibilidades. Esperemos que trabajen con ahínco y éxito.
 
Einstein pacifista
 
Sería profundamente injusto para la figura de Einstein que al recordar su obra olvidáramos otra de las vertientes en la que estuvo muy activo. Por lo más íntimo de su naturaleza, fue permanentemente un pacifista y antimilitarista nato y consistente. Al cumplir 17 años, cuando se presentó el problema de tener que cumplir con el servicio militar, sumado a que consideraba acartonada y autoritaria la enseñanza en Alemania, abandonó su país para continuar sus estudios en Suiza. No retornó hasta 1913, atendiendo una insistente invitación de Planck, Nernst y otros destacados físicos alemanes. Pero algunos años más tarde, cuando Hitler tomó el poder, Einstein se desprendió para siempre del suelo alemán.
 
Durante la primera guerra mundial, de la cual, para muchos incluyendo al propio Einstein, Alemania era la responsable, colaboró con los movimientos pacifistas a su alcance e hizo constantes pronunciamientos por un gobierno democrático para su país. En ese momento Einstein ya era una figura internacional de relieve, por lo que sus opiniones tenían amplia resonancia, aunque en la propia Alemania su orientación pacifista causaba disgusto en vastos sectores de la población. En 1920, la recién creada Liga de las Naciones, antecedente inmediato de la Organización de las Naciones Unidas (onu), formó un Comité de Cooperación Intelectual para movilizar a intelectuales de todo el mundo en favor de la paz. Einstein fue invitado a integrarse y colaboró en él durante diez años. Renunció en 1930 declarando que lo hacía por su convicción de que al Comité le faltaba la determinación necesaria para avanzar realmente hacia mejores relaciones internacionales. Einstein también fue miembro de la mesa directiva de la Liga Alemana de Derechos Humanos y como tal en 1928, cuando el movimiento nazi ya ocupaba posiciones de poder en Alemania y Mussolini en Italia, escribió que “la apatía política de la gente en época de paz hace temer que en su momento irán dócilmente hacia el sacrificio. Puesto que hoy carecen aunque sea del coraje para firmar un manifiesto en favor del desarme, mañana se verán forzados a derramar su sangre”. Trágicamente, pocos años más tarde, eso fue precisamente lo que sucedió. A partir de 1928 de manera insistente llamó a rehusar incondicionalmente participar en cualquier servicio para la guerra, directo o indirecto, y con independencia de las causas específicas del conflicto —misma actitud del gran físico y químico Michael Faraday, quien ya como figura de gran prestigio, se rehusó a colaborar en la producción de gases venenosos para ser usados en la guerra que Inglaterra sostenía contra Crimea. También trae a la mente el hecho de que una fracción importante, normalmente superior a 50% en algunos países, del actual esfuerzo de investigación en ciencia y tecnología está dirigido hacia fines militares. En otras palabras, una porción muy importante de investigadores científicos y técnicos, en particular pero no exclusivamente en los países industrializados, participan de manera voluntaria en actividades con fines militares.
 
Cuando en los años treintas del pasado siglo, se organizaron las conferencias de Ginebra en busca de acuerdos que reglamentaran los usos de las armas, Einstein declaró: “Pienso que la Conferencia va en busca de un mal compromiso. Cualquier acuerdo que se alcance sobre las armas permitidas durante la guerra será roto tan pronto ésta inicie. La guerra no puede ser humanizada. Solo puede ser abolida”. Aunque nunca abandonó sus convicciones pacifistas, a partir de 1933, con Hitler como canciller del Tercer Reich, se vio forzado a llamar a la resistencia armada como única posibilidad de derrotar la barbarie nazi. Este es el cambio que finalmente le condujo hacia su participación más conocida durante la segunda guerra mundial, la carta al presidente Roosevelt sugiriendo la integración de una comisión que estudiara la posibilidad de construir la bomba atómica en el tiempo más breve posible. Se trata de un episodio de gran relieve que conviene revisar más de cerca. Hacia 1939 se hizo de dominio público que era posible sostener una reacción nuclear en cadena a partir de la fisión del uranio.
La fisión o ruptura de un núcleo de uranio —en particular, del isótopo U235— se logra bombardeándolo con un neutrón —partícula similar a un protón, pero neutra. En condiciones apropiadas la fisión también produce, en promedio, más de un nuevo neutrón, los cuales dan lugar a nuevas fisiones y así sucesivamente (en cadena) si el volumen de uranio es suficientemente grande como para que los eventos se produzcan antes de que los neutrones escapen al exterior. El volumen mínimo requerido para sostener la reacción en cadena es la llamada masa crítica. El proceso es extraordinariamente rápido y como en cada fisión se libera energía que el núcleo original pierde, la energía total resulta enorme, produciéndose una violenta explosión. Un reactor nuclear genera energía en forma similar, pero el ritmo de la reacción se mantiene controlado, por abajo de la posibilidad de explosión. Los otros isótopos del uranio no liberan el número suficiente de neutrones como para producir la reacción en cadena; esta es la razón por la cual en la bomba se utiliza uranio muy enriquecido —por ejemplo, más de 90% de U235—, mientras que en un reactor se utiliza uranio ligeramente enriquecido —alrededor de 5% de U235. El proceso de enriquecimiento es sumamente complejo y costoso, por lo que la producción de la bomba requiere un gran esfuerzo humano y económico. Sin embargo, también países pobres han invertido en ella recursos que necesita apremiantemente para otros fines.
 
Aunque hubo intentos de mantener el conocimiento en secreto, éste se extendió. Los experimentos cruciales se realizaron en Alemania y ellos, que recientemente habían invadido Checoeslovaquia, país muy rico en minerales de uranio, prohibieron la exportación de ese elemento químico. Esto fue considerado como una evidencia de que los nazis buscaban producir la bomba por el físico nuclear húngaro Leo Szilard, quien había descubierto la reacción en cadena. Ante este temor, Szilard discutió el asunto con Einstein, con quien tenía vieja amistad desde su época en Berlín. El último estuvo de acuerdo en que la bomba nuclear solo en manos de los nazis representaba un grave peligro para la humanidad y que era necesario enfrentar el problema. Así, firmó la carta redactada por Szilard dirigida al presidente Roosevelt. En ella se explicaba la existencia de una real posibilidad de construir una bomba de gran potencia y transportable, que había síntomas de que los alemanes estaban tratando de construirla, y que podrían llegar a ella durante el curso de la guerra. Como resultado se creo un comité ad hoc y para 1945 el monstruo estaba preparado. Sin embargo, el evento que realmente con­dujo a la fabricación de la bomba fue un informe de los servicios secretos ingleses a Roosevelt en el que afirmaban que Alemania estaba trabajando sobre ella y que podrían tenerla lista para finales de 1943.
 
Desafortunadamente, en cadena también se presentaron los acontecimientos políticos. Los nazis fueron derrotados pero de forma inesperada Roosevelt murió y Truman, el sucesor, resultó insensible a los llamados de los científicos —e incluso de algunos políticos— para que por razones morales y de riesgo para la paz ulterior no se empleara la bomba contra Japón, el único país del eje —nazi-fascista— aún en guerra con los estados aliados. La tragedia que de ahí se derivó es bien conocida, en agosto de 1945 las ciudades japonesas de Hiroshima y Nagasaki fueron destruidas con sendas bombas nucleares —dos diferentes, para probarlas— con más de 200 000 muertos en el acto y miles de posteriores víctimas de cáncer y otros males. A partir de ese momento se inició una carrera armamentista, sostenida fundamentalmente por los Estados Unidos y la Unión Soviética, la cual condujo a la producción y almacenamiento de miles de bombas nucleares, además de los proyectiles balísticos y aviones para su transporte.
 
Al término de la guerra, cuando pudo revisarse los archivos y laboratorios alemanes, quedó claro que en efecto Alemania buscó la bomba, pero estaba muy atrasada en su producción cuando fueron derrotados. Einstein entonces declaró que consideraba la firma de la carta al Presidente Roosevelt como el mayor error de su vida y que si hubiera sabido que los alemanes no llegarían a la bomba, no habría movido un solo dedo. Constituye una trágica ironía que un pacifista y luchador empedernido por el desarme como lo fuera Einstein, se vio forzado por la gravedad de los hechos a empujar hacia la producción del más terrible artefacto creado por el hombre. A partir de ese momento y hasta su muerte, Einstein dedicó una parte muy significativa de su tiempo y sus fuerzas a su renovada lucha por el desarme, ahora el nuclear, y a prevenir contra los riesgos de la carrera armamentista.
 
Aunque como resultado de la suma de esfuerzos individuales y colectivos, nacionales e internacionales, se han dado algunos pasos en la dirección adecuada, como la firma de los tratados de no proliferación de armas nucleares, de no realización de pruebas nucleares, de destrucción parcial de los arsenales nucleares, de la declaración de zonas libres de armas nucleares —como el de Tlatelolco para América Latina—, en buena medida la tarea del desarme nuclear sigue en pie y representa una de las mayores responsabilidades para todos, cada quien desde su trinchera, pequeña o grande, si se quiere evitar una catástrofe producida por la inconsciencia del hombre. Más ahora, cuando es necesario generalizar la demanda hacia todo tipo de armas, pues a pesar de las prohibiciones hay fuertes sospechas de que en varios países se desarrollan en silencio armas químicas y biológicas que pasan a formar parte de sus arsenales modernos.
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

 

De la Peña, Luis. (2005). 2005, voltear al pasado para mirar el futuro. Ciencias 80, octubre-diciembre, 4-12. [En línea]

 

 
 
  ←Regresar al índice artículo siguiente→
  1 12  
   
     
A cincuenta años del Manifiesto Russell-Einstein
 
 
 
J. P. Pardo y otros
conoce más del autor
 
 
HTML↓ PDF ←Regresar al índiceartículo siguiente→
       
       
 
 
En este año se conmemora el centenario de una de las revoluciones científicas más importantes en la historia reciente de la humanidad. A diferencia del tumultuoso inicio del siglo veinte en el terreno político, ésta fue relativamente silenciosa, inicialmente limitada al dominio de la física, pero pronto habría de tener enormes repercusiones a lo largo y ancho del planeta. Son muchos los que establecieron sus bases —desde James Clerk Maxwell y Hendrik Lorentz hasta Ludwig Boltzmann y Max Planck. Sin embargo, fue Albert Einstein cuando tenía 26 años, quien con cuatro artículos publicados hace un siglo conmocionó a la comunidad científica al establecer los fundamentos de lo que en pocos años se convirtió en parte importante de la física —y en gran medida de la ciencia— de nuestros días.
 
Mucho menos conocidos, pero igualmente significativos, fueron sus aportes al movimiento sobre la responsabilidad social de la ciencia. La actividad pacifista de Einstein inició con su lucha por el establecimiento de un gobierno democrático en Alemania, al estallar la primera guerra mundial. En 1918 colaboró en la fundación del Partido Democrático Alemán y durante varios años participó en la mesa directiva de la Liga Alemana por los Derechos Humanos. En 1924 defendió la escuela Bauhaus de Arquitectura, cuna de uno de los movimientos artísticos más importantes del siglo veinte; en 1929 apeló por las vidas de prisioneros árabes acusados de motín en la Palestina Británica; durante el resto de su vida intervino frente a gobernantes de muchos países para demandar la libertad de pacifistas y otros luchadores democráticos perseguidos. Hasta el día de su muerte no cejó en su labor pacifista y antimilitarista.
 
En los albores de la década de 1950, este sentimiento ya no era una excepción. Los trágicos acontecimientos de Hiroshima y Nagasaki abrieron los ojos del mundo acerca del tremendo daño que podía derivarse de las aplicaciones bélicas de la ciencia. Las posturas pacifistas de Einstein encontraron eco en muchos pensadores y científicos de la época, figuras que veían en la proliferación de armas nucleares y en la amenaza de que se desatara —como en efecto ocurrió— una carrera armamentista nuclear, en medio de la inestabilidad política mundial, un inmenso peligro para la supervivencia de la humanidad.
 
Entre ellos, Bertrand Russell, el reconocido matemático y filósofo inglés, sobresalió como uno de los más significativos activistas de la época. Aunque a lo largo de su vida Russell se mantuvo regularmente involucrado en movimientos por la paz, el clima hostil y enrarecido de la posguerra lo impulsó a enlistarse de lleno en la lucha contra las armas nucleares. En este ámbito fue donde Russell y Einstein encontraron un camino común que los vinculó aun más. Sus posturas pacifistas ya habían convergido un cuarto de siglo atrás. En 1930 ambos fueron signatarios de una petición que respaldaba el pacto Kellogg-Briand de limitación de armas, con el que varias naciones —incluidos los Estados Unidos— renunciaban a la guerra como instrumento de política nacional. No obstante, el encuentro de 1955 probó tener consecuencias inmensamente mayores.
 
Cuando en 1954 las profecías de la carrera armamentista se entreveían como un hecho inevitable, Bertrand Russell redactó un manifiesto para advertir al mundo de los peligros de la guerra nuclear y llamar a los científicos a organizarse para detener esta amenaza. Russell buscó el respaldo de científicos de indudable trayectoria para fortalecer el llamado. Entre ellos Einstein, uno de los primeros que abordó, firmó el documento el 16 de abril de 1955, Escasos dos días antes de su muerte. La adhesión de Einstein al manifiesto de Russell se transformó en el último acto político de su vida, algo así como una despedida con la que llama a tener presentes los peligros que representan el uso indebido de los frutos de la ciencia.
 
Joseph Rotblat, uno de los once firmantes de lo que se conocería como Manifiesto Russell-Einstein, fue el único científico que, joven aún, abandonó el Proyecto Manhattan por razones éticas. Trabajó junto con Russell en la organización de una conferencia que daría seguimiento al manifiesto y que reuniría a científicos del este y del oeste con el fin de discutir los inmensos peligros de una guerra nuclear y buscar vías para el acercamiento y entendimiento mutuo. Tras muchas difucultades, la conferencia se realizó en julio de 1957 en el pequeño poblado pesquero de Pugwash, Nueva Escocia.
 
En los años siguientes Rotblat llevaría por buen camino el proyecto iniciado por Russell. Continuaron las reuniones tomando el nombre de Conferencias Pugwash, transformarse en un evento frecuente que habría de llegar hasta nuestros días. En 1995 Joseph Rotblat y las Conferencias Pugwash recibieron el Premio Nóbel de la Paz “por sus esfuerzos para disminuir el papel que juegan las armas nucleares en la política internacional y, en el largo plazo, para eliminar dichas armas”.
 
De la primera conferencia Pugwash sobrevive una discusión siempre vigente, acerca de la responsabilidad social de los científicos, la cual nació de las preocupaciones de Einstein, Russell, Rotblat y tantos otros que entendieron los beneficios y riesgos de la naturaleza dual de los usos de la ciencia. Sin embargo, hoy el problema es infinitamente más complejo. Los tremendos avances del último medio siglo ofrecen un sinfín de nuevas posibilidades para el desarrollo de instrumentos bélicos de inmenso poder destructivo y profundamente antiéticos. Sumado a esto, la enorme brecha social y económica que divide a los habitantes del mundo, así como la injerencia cada vez mayor del aparato militar y de las grandes corporaciones multinacionales en el financiamiento de la investigación científica y tecnológica, hace necesaria una profunda reflexión sobre la relación entre los centros de poder y la ciencia, el conocimiento y la responsabilidad que tenemos los científicos en el desarrollo de sus aplicaciones antisociales, anitambientales y antihumanas.
 
A cincuenta años del Manifiesto y cien del annus mirabilis de Einstein, el debate en torno a la responsabilidad social de los científicos permanece como un elemento tan importante para la ciencia y la sociedad del siglo XXI como lo es el desarrollo de teorías revolucionarias. Esto cobra particular importancia en los momentos actuales, cuando desarrollos como los que están emergiendo de la física y de la biología —particularmente la ingeniería genética y la nanotecnología— brindan un mundo de oportunidades y esperanzas, pero también atroces amenazas y riesgos insospechados. Situación ante la cual resulta imprescindible que el tema de la responsabilidad social de la ciencia —el que en última instancia implica trabajar para que la ciencia contribuya efectivamente a la construcción de una sociedad más sustentable— sea parte medular y ayude a repensar nuestra práctica cotidiana. Cuestiones como el desarrollo de códigos de ética para científicos, concienzudas evaluaciones de los posibles impactos de descubrimientos científicos y tecnologías, nuevas estrategias de vinculación y comunicación con la sociedad, particularmente con los sectores más necesitados, entre otras, deberían ser prioritarias para los que se ocupan de la ciencia o su devenir. La ciencia abre enormes perspectivas para la humanidad; pero ello con la condición de que se integre con otros sectores en función del beneficio social y se aleje de su uso como elemento de dominio
Referencias bibliográficas
 
Conferencias Pugwash, www.pugwash.org
Actividades en México, www.pugwash.org/organization/mexico/home.htm
Actividades de estudiantes, www.student-pugwash.org
Consejo Internacional de Sociedades Científicas (icsu), www.icsu.org

 _______________________________________________________________

como citar este artículo

Pardo Guerra, Juan Pablo y et. al. (2005). A cincuenta años del manifiesto de Russell-Einstein. Ciencias 80, octubre-diciembre, 34-36. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
Átomos, polen y probabilidades
 
Hace cien años, Albert Einstein escribió una serie de trabajos que transformaron la física de una manera sólo equiparable a lo ocurrido casi doscientos años antes con la obra de Isaac Newton.
Ramón Peralta y Fabi
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente
     
     
 
 
Hace cien años, Albert Einstein escribió una serie de trabajos que transformaron la física de una manera sólo equiparable a lo ocurrido casi doscientos años antes con la obra de Isaac Newton. En uno de ellos, el que fuera la base de su tesis doctoral, estudió un problema al que volvió muchas veces y sobre el que publicó más de una docena de artículos, su título: “Sobre el movimiento de partículas pequeñas suspendidas en un líquido en reposo, de acuerdo con la teoría cinética molecular del calor”. El polen y los átomos, los solutos y los solventes, así como las probabilidades, constituyen los ingredientes fundamentales que Einstein usó como motivación para formular y solucionar el problema, y convencer a sus contemporáneos de varios conceptos fundamentales para el posterior desarrollo de la física.
La invención del microscopio alimentó la avidez por ver lo pequeño, tal como antes ocurrió con el telescopio y lo grande. Con este maravilloso instrumento, los investigadores volcaron su atención al interior de los seres vivos y, en el siglo xvii, descubrieron la célula, aunque su estructura, significado y sentido no llegarían hasta el siglo xix. Robert Brown, distinguido botánico escocés y uno de los más notables naturalistas de su época, quien contribuyó al conocimiento de la célula descubriendo su núcleo, investigó los reportes sobre el comportamiento de granos de polen suspendidos en el agua. De acuerdo con éstos, además de sus propias y cuidadosas observaciones, los granitos exhibían una danza incesante. Antes de nutrir las especulaciones despertadas sobre lo que parecía la esencia de la vida, llevó a cabo un minucioso estudio con diversas partículas pequeñas, como polvos de origen orgánico e inorgánico, y encontró que el movimiento rápido, errático y constante, no era privativo de la materia viva. Incluso descubrió un trozo de cuarzo en el que las partículas suspendidas en una gota de agua, atrapadas tal vez durante millones de años, ofrecían un espectáculo tan fresco como el de la preparación matutina de su laboratorio. Con justicia, y el paso del tiempo, al movimiento que describió se le llamó el movimiento browniano. En 1900, la explicación seguía eludiendo a los estudiosos del tema.
Actualmente, los átomos ya no son una novedad y se acepta sin reparo su existencia, lo cual es bastante curioso, puesto que nunca los hemos visto, ni los veremos; ya que ninguno de nuestros sentidos está desarrollado para hacerlo. Aun así, es cómodo imaginarlos de alguna manera. De hecho, no es necesario verlos para cosificarlos, hacerlos nuestros y empezar a entenderlos. Para tener un asidero secreto cuando hablamos de los átomos, construimos en la mente una imagen, como la de pequeños sistemas solares, de diversos colores y formas; la experiencia es estrictamente personal. No es tan importante que nuestras abstracciones sean precisas, nunca lo serán, pero sí lo es saber que todas las cosas están hechas de un número finito, si bien muy grande, de partes que las constituyen: los átomos. Éstos, como idea filosófica, aparecen en la cultura helénica, con Demócrito, y llegan a la cultura latina a través del magno poema De Rerum Natura, de Tito Lucrecio Caro; obra que, por cierto, fue exquisitamente traducida al español, De la naturaleza de las cosas, por el entrañable universitario Rubén Bonifaz Nuño.
Hacia finales del siglo xix, los átomos pasaron de ser una especulación filosófica a una hipótesis física, ampliamente debatida desde muy diversos puntos de vista. Científicos de enorme influencia y prestigio como Ernst Mach, Pierre Duhem, Wilhelm Ostwald y Henri Poincaré, formaban parte de la comunidad en contra de las ideas atómicas; otro sector de igual estatura, principalmente en Inglaterra y Holanda, simplemente usaba las ideas sin tomarse la molestia de contestar a los críticos, salvo por el inmenso y un tanto solitario personaje de Ludwig Boltzmann, que defendía el atomismo como en una cruzada intelectual. En 1900, la realidad de los átomos aún no era aceptada por la mayoría de los físicos, si bien seguía acumulándose evidencia; en química ya eran indispensables para darle sentido a lo aprendido durante los últimos dos siglos.
 
Solutos y solventes
Una tía, que asegura no entender nada de mis quehaceres profesionales, sabe perfectamente que basta con una pequeña gota de añil para teñir su vestido más extenso o que una gota de desinfectante en una jarra es suficiente para acabar con los bichos invisibles que —dice— seguramente la acechan en el fondo. Su intuición y su experiencia son correctas, aunque no sabe por qué, ni le importa. Al olor de un perfume le ocurre lo mismo. Las partículas de añil o de desinfectante, a las que en conjunto llamamos el soluto, son introducidas, en gotas, en el solvente, que en estos casos es agua; para una flor el solvente es el aire. La difusión que ocurre consiste en que, con el paso del tiempo, todo es penetrado por el soluto. En el caso de la tinta, el fenómeno es claramente visible; la gota de color azul profundo, muy concentrada y bien localizada inicialmente, poco a poco se va disipando, tiñendo todo hasta que domina un tenue azul. El aroma de una flor es explicable en los mismos términos, aunque ahora lo percibimos a través del olfato; pasado un rato, la habitación que ocupa una discreta dama es uniformemente impregnada por su delicado perfume.
La diferencia de concentraciones entre un lugar y otro juega un papel importante en el proceso de homogeneización; qué tanto, lo determina un factor llamado el coeficiente de difusión D, cuyo valor dice que tan eficiente es la difusión de un soluto en un solvente.
 
Las probabilidades
Cuando se quiere analizar el comportamiento de un sistema físico, que usualmente representa un problema intrincado, se trata de simplificarlo al máximo, reteniendo los aspectos más conspicuos, más “gruesos” de su comportamiento. Por ejemplo, para entender el movimiento de la Luna, lo primero que se hace es considerar sólo el efecto que tiene la Tierra, ignorando la presencia de todo lo demás, de todo. El sistema Tierra-Luna, imaginado como dos puntos que se atraen, se puede resolver exactamente; si se compara con las observaciones, el resultado es sorprendentemente bueno. Para mayor precisión, hay que tomar en cuenta más detalles, como el hecho de que no son esféricos, que sus densidades no son constantes, y que hay más objetos. Después de todo, están el Sol, Júpiter y otros seis planetas con sus satélites, y miles de asteroides, y el resto de la Vía Láctea, y más. ¿Hasta dónde hay que tomar en cuenta?
Vale la pena mencionar que si nada más se agrega al Sol, el problema no puede ser resuelto. El asunto es más grave de lo que parece: nunca se resolverá; al menos en la forma en que nos hemos planteado los problemas hasta ahora. Es decir, para tres o más cuerpos que se atraen y a partir de cualquier posición y velocidad iniciales, no puede predecirse exactamente dónde se encontrarán un tiempo más tarde, y si el intervalo es muy grande, ni siquiera puede predecirse en forma aproximada.
Para circunnavegar este tipo de dificultades, dos de las estrategias que se siguen son: aceptar que la exactitud no es necesaria o explotar la complejidad. En la primera, partiendo de que ni las mejores observaciones son exactas, se introducen aproximaciones que permiten reducir el problema a uno manejable, estimando por cuánto y en dónde se manifestarán los errores. Entonces, el efecto del Sol es tratado como una corrección al sistema Tierra-Luna, y se van agregando, poco a poco, las perturbaciones resultantes. Con la segunda estrategia, cuanto mayor sea la complejidad, mejor irá el enfoque alternativo. Por ejemplo, predecir qué lado quedará arriba cuando se lanza una moneda al aire es sumamente complicado; en la práctica imposible, o qué cara de un dado, con seis lados numerados, quedará hacia abajo, también es una tarea insoluble. Sabemos que, en ambos casos, si se repite el evento muchas veces emerge un patrón de comportamiento que es regular, predecible, aunque el lenguaje se altera en forma esencial; cambiamos las preguntas y el tipo de respuestas que esperamos. Cuantos más lanzamientos de dado se hacen, tanto más semejantes las frecuencias de aparición de cada uno de los seis lados. Para la moneda, como sabemos bien los mexicanos, una cara aparece igual número de veces que la otra; la probabilidad de que salga águila es de 1/2. Para el dado, la probabilidad de que caiga en cinco —digamos— es de 1/6. Es decir, dividimos los casos favorables entre los posibles: la definición de probabilidad. Así, en forma precisa podemos predecir con qué frecuencia se hará presente un resultado, dejando de lado la expectativa de anticipar lo que aparecerá en la siguiente realización. Para ganarle una apuesta a un mercachifles —el merenguero canónico— este análisis no es particularmente útil. En el caso de sistemas complejos formados por muchos elementos, como el Sistema Solar, la galaxia o un gas, desde el principio se aborda el problema con un punto de vista estadístico, haciendo preguntas diferentes, en el lenguaje de las probabilidades; deja de ser importante dónde se halla cada molécula del gas o con qué velocidad se mueve, pero sí interesa cómo es la densidad media en el frasco contenedor, cuál es la presión que deben resistir las paredes o la forma de aislarlo para mantener su temperatura. La física estadística busca establecer cómo están relacionadas estas variables, que denominamos macroscópicas, con las que conciernen a los átomos del gas, las variables microscópicas. Las tareas de establecer la compatibilidad entre las teorías a diversas escalas, y de explicar cómo es que las miríadas de variables físicas microscópicas se colapsan, promedian o combinan para que emerjan unas cuantas variables macroscópicas que recogen el comportamiento colectivo o más probable, está aún incompleta en la física. En los casos en que se ha logrado, para los sistemas en equilibrio —guardados en una caja—, los resultados son impecables; las bases las establecieron J. Willard Gibbs, al final del siglo xix, y Einstein, en los primeros años del xx, de manera independiente. Es una de las teorías más notables de la física, en cuanto a que establece la conexión entre las teorías básicas, como la mecánica clásica o la cuántica, y las fenomenológicas, como la termodinámica o la elasticidad.
El trabajo de Einstein
Cabe aclarar que en el problema que nos ocupa, Einstein no introdujo nuevas ideas matemáticas, ni físicas; cada una se había publicado en otro contexto o con otro sentido por él mismo o por otros. Lo que sí tuvo fue esa habilidad de las mentes privilegiadas que consiste en reconocer conceptos importantes, extraer su esencia, generalizarlos y hallar las relaciones sutiles entre ellos. Las matemáticas que usó eran relativamente sencillas y conocidas. Las profundas revoluciones que generaron sus trabajos fueron el resultado de vincular tanto observaciones teóricas como experimentales aparentemente inconexas y usar las matemáticas más simples que le permitieran manipularlas. Con un enfoque abstracto, pero de manera directa y particularmente sucinta, Einstein escribió sus legendarios artículos sin frases grandiosas, ni discusiones laboriosas, ni genialidades encriptadas para la posteridad; todo está a la vista, a pesar de ser sorprendentemente original en sus planteamientos y sus consecuencias; en él, nada es trivial y todo es sencillo; pocas palabras, pero cada una tiene un sentido claro, aunque muchas frases adquirieron su verdadera dimensión muchos años después, cuando fueron cabalmente comprendidas.
En el caso del movimiento browniano, la lógica de Einstein es maravillosamente directa y contundente: hay átomos, luego, deben manifestarse. Son muchos, son pequeños y la dinámica debe ser complicada, por lo tanto el lenguaje es de probabilidades y estadística. El efecto colectivo de los átomos debe ser apreciable en un sistema lo suficientemente pequeño como para que sea afectado por ellos, pero lo suficientemente grande como para que se pueda ver; cómo se desplaza una partícula muy pequeña, aunque visible, parece ser el caso ideal. Entonces, combinó dos resultados para describir el desplazamiento de partículas en suspensión, uno sobre la presión osmótica y otro sobre la fuerza de fricción, los cuales aparentemente nada tenían que ver entre sí y logró predecir la difusión de la partícula browniana; más específicamente, el desplazamiento cuadrático medio, que denotó como l y cuyo significado es el siguiente.
 
Hagamos un experimento con una hoja de papel cuadriculado milimétricamente, una pluma y dos monedas cuyas caras sean águila y sol; lo que es sumamente hipotético en opinión de mis alumnos, quienes nunca han visto una moneda semejante. Empezamos poniendo un punto en el centro del papel y trazamos la trayectoria que resulta de caminar al azar. Es decir, para cada paso, escogemos al azar uno de los cuatro vértices vecinos al punto de inicio o donde se encuentre el último trazo de acuerdo con la siguiente regla: si el resultado es águila y sol (AS), en ese orden, el trazo sube, si es AA va a la derecha, si es SA a la izquierda y si es SS, baja. Al cabo de un gran número de pasos —por ejemplo, unos mil— se irá delineando lo que se conoce como una caminata al azar. Ahora repitamos el ejercicio varias veces, otros mil pasos en otras hojas de papel; nótese que es un experimento tedioso, puesto en estos términos; una computadora puede hacerlo en fracciones de segundo. ¿Qué tienen en común estas hojas de papel, que contienen series de trazos distintos en cada caso? Como se sugirió antes, de hecho fue Einstein quien lo hizo, la misma complejidad lleva a caracterizar el proceso con cantidades estadísticas. Por ejemplo, qué tan lejos del punto inicial estará el punto final del trazo, después de mil pasos. Si se calcula el promedio, asignando valores negativos a los pasos a la izquierda o hacia abajo y valores positivos hacia arriba o a la derecha, el resultado es ¡cero!; o casi, pero lo será cuanto más hojas de papel gastemos —realizaciones del experimento. Así, aprendemos que si se camina al azar lo más probable es que no se llegue a ningún lado, lo que es bastante obvio para quien frecuenta el estado de ebriedad. Pero si se observa con mayor atención cualquiera de las hojas de papel, se percibe que el trazo, aun cuando más o menos acaba volviendo al punto de partida, realizó cierta exploración de sus alrededores, es decir, se ha difundido en su vecindad. ¿Cómo cuantificamos esta difusión? Una forma es calculando l, lo que se hace tomando el número de pasos hacia arriba y elevándolo al cuadrado, al resultado se le suma el número de pasos hacia la derecha, también elevado al cuadrado, y luego lo mismo con los pasos hacia abajo y hacia la izquierda. A la suma total se le saca la raíz cuadrada y se obtiene el desplazamiento cuadrático medio, o l, o la “exploratividad”, o cualquier nombre que nos parezca pertinente; la Academia científica no siempre busca minimizar los desatinos que ofenden a la Academia de la lengua.
Einstein señaló que las partículas brownianas difunden en el medio líquido, de modo tal que se establece un equilibrio dinámico entre dos fuerzas. Una, la fuerza osmótica, tiene su origen en las variaciones espaciales —gradientes— de la concentración y trabaja para hacer desaparecer esas diferencias. La otra, la fuerza viscosa, de naturaleza hidrodinámica, tiende a retardar el movimiento, a frenarlo; es la responsable de que una pluma se meza y flote en el aire, víctima de los caprichos del viento, antes de caer.Para la fuerza osmótica, Einstein usó una ecuación para la presión que ejercen las moléculas disueltas en una solución; recurrió a un resultado que considera moléculas (el soluto) difundiendo en un líquido (el solvente) constituido por moléculas de dimensiones semejantes; esto era ya conocido en la fisicoquímica desde dos décadas antes y había sido obtenido por J. H. van’t Hoff. Einstein lo aplicó a las partículas de su interés, miles de millones de veces más grandes que las moléculas del agua; sin mucho pudor igualó las fuerzas osmóticas a las difusivas, los gradientes de la concentración.
 
Para la fuerza viscosa, recurrió a una expresión obtenida por George G. Stokes en 1855, y que representa el efecto que sobre una esfera moviéndose lentamente ejerce un líquido viscoso. Einstein supuso que la irregularidad del movimiento no alteraría sustancialmente la validez del resultado, y sin intimidarse, la usó para igualar la rapidez con la que difunden las partículas, con el flujo de éstas cuando se ven sujetas a las fuerzas viscosas. La expresión para la fuerza tiene la forma F=zv, siendo z el coeficiente de fricción, que depende de la viscosidad del líquido y del tamaño de la partícula, y v es la velocidad con la que ésta difunde.
La combinación de estos dos resultados le permitió construir una relación, conocida como de Stokes-Einstein, en la que quedan vinculados la temperatura del medio (T), el coeficiente de fricción y el coeficiente de difusión (D): D=kT/z, siendo k una de las constantes fundamentales de la naturaleza, conocida ahora como la constante de Boltzmann.
El siguiente y último paso, requirió de una teoría que él mismo construyó; hoy diríamos que introdujo una clase de proceso estocástico. Primero, asigna un carácter aleatorio a los movimientos de las partículas de polen. Supone que el errático recorrido consiste de eventos independientes entre sí; las moléculas de agua, que vibran y chocan unas con otras, empujan a la partícula en distintas direcciones. Y aquí se hace la pregunta central: ¿Cómo cambia la posición de la partícula conforme pasa el tiempo, siempre que éste sea mucho mayor que el transcurrido entre un cambio de dirección y el siguiente? Es decir, ¿qué sucede en un intervalo de tiempo cientos de miles de veces mayor que el de los pequeños “brincos” de la partícula? Einstein supone que los brincos no tienen relación entre sí. Hoy sabemos que es una excelente hipótesis; si el tiempo entre un brinco y otro es de una centésima de segundo, cercano a lo que vemos, en este intervalo ocurren, aproximadamente, un millón de millones de colisiones, 1012. Después de un número de choques así, es razonable suponer que la partícula ha “olvidado” lo que pasó en el brinco anterior; decimos que se ha descorrelacionado.
Con todo lo anterior, un caminante al azar se comporta igual que una partícula browniana; ambos difunden igual. Entonces, el cálculo estadístico se sigue en forma natural y los parámetros o características del proceso probabilístico están dados por el proceso físico de la difusión, una vez conectado con la fricción y la temperatura.
 
Smoluchowski y Perrin
En 1906, cuando apareció el artículo de Einstein sobre el movimiento browniano, el físico polaco Marian von Smoluchowski publicó un trabajo sobre el mismo problema, siguiendo un camino diferente, basado en la teoría cinética de los gases y en el análisis combinatorio. En su opinión, sus resultados “coinciden completamente con los de Einstein” y afirma que su método es “más directo, simple y convincente”. Si bien es cierto que el enfoque de Smoluchowski fue más accesible para sus contemporáneos, no tuvo la misma influencia que el de Einstein, ni estableció las bases para la futura asimilación de las ideas de la mecánica estadística, los procesos estocásticos y la teoría de la difusión.
Smoluchowski, a diferencia de Einstein, hizo una crítica seria de los trabajos previos que intentaron explicar el movimiento browniano, a la vez que justificó cuidadosamente sus hipótesis, como la de introducir la teoría cinética de los gases, en la que ya había hecho contribuciones relevantes. Además, llevó a cabo una meticulosa revisión sobre los estudios experimentales relacionados con la teoría que presentaba.
 
Jean Perrin es indudablemente uno de los principales protagonistas en la historia del movimiento browniano, particularmente desde el punto de vista experimental. Nueve años mayor que Einstein, en 1905 tenía ya un considerable prestigio como físico experimental; en especial, destacaron sus trabajos sobre rayos X, rayos catódicos (electrones) y soluciones coloidales.
En 1906, durante varias conferencias, ilustró la forma cómo las ideas atómicas podían introducirse para comprender algunas observaciones. En paralelo, inició una serie de estudios en su laboratorio para verificar las predicciones de Einstein y Smoluchowski, ante los reportes con datos discutibles y un tanto contradictorios de otros autores. Dos años más tarde, aparecieron las primeras publicaciones de Perrin y sus colaboradores, confirmando las predicciones y usándolas para determinar de forma independiente, aunque indirecta, parámetros microscópicos como el tamaño de los átomos, el número de Avogadro y hasta la carga del electrón.
Los siguientes años fueron para Perrin una época dedicada a la popularización de las ideas atómicas y en esto fue el más exitoso de los científicos. Sin duda había argumentos teóricos y experimentales en favor de la existencia de los átomos, desde al menos las tres décadas previas. El hecho de que se usara al movimiento browniano como alternativa para determinar cantidades como las mencionadas en el párrafo anterior, muestra que las ideas permeaban el ambiente desde distintas direcciones. Los concluyentes experimentos de Perrin, cubriendo aspectos microscópicos con suma delicadeza y explicando por qué otros reportes parecían contradecir sus observaciones, junto con la novedosa teoría de Einstein, abstracta aunque precisa en sus predicciones cuantitativas, parecen ser los elementos que dieron a la teoría atómica el carácter de irrefutable. Adicionalmente, y no puede minimizarse el hecho, Einstein ya empezaba a verse como el científico más profundo, revolucionario y destacado de la época.
La explicación del movimiento browniano, como resultado de la presencia de átomos que colisionan ininterrumpidamente con la partícula, y las predicciones precisas para experimentos diseñados con este fin, desempeñaron un papel crucial para que se aceptara la existencia de los átomos; la inmensa mayoría de quienes consideraban las nociones atómicas como las especulaciones de la antigüedad, fueron convencidos en el siguiente lustro.
Comentarios
Cuando se revisan los memorables trabajos que Einstein publicó en el año de 1905, sorprende la aparente falta de conexión entre ellos.
 
¿Por qué Einstein se ocupa del problema del movimiento browniano, mientras está haciendo una reflexión, sin precedentes en la historia, sobre el electromagnetismo, la luz y el movimiento de los cuerpos?
En sus palabras, cuarenta y seis años más tarde, luego de advertir “que los recuerdos están coloreados por ser el presente lo que es”, nos dice que la motivación para su trabajo del movimiento browniano fue que “quería encontrar hechos que garantizaran, en la medida de lo posible, la existencia de átomos de un tamaño finito y determinado”. Así, el movimiento browniano fue sólo el vehículo para exhibir fuera de toda duda la existencia de los átomos.
Es interesante que Richard Feynman, extraordinario físico del siglo xx, considerara que si se tuviera que resumir en una sola frase el conocimiento científico, esta sería: todas las cosas están hechas de átomos. Los seres herederos de la oración tendrían un excelente comienzo para entender el mundo.
¿Qué más fundamental que la materia y la luz? Hoy, gracias a Einstein sabemos que son la misma cosa; no en balde la más famosa expresión de toda la física E=mc2, donde m es la masa, c, multiplicada por sí misma, es la velocidad de la luz, y E es la energía; el meollo es que son dos caras de la misma esencia. Si los átomos son la mínima expresión de la materia, en tanto que hablamos de los distintos bloques con los que todo se construye, pensar en luz y en cómo se transmite, en átomos y en sus movimientos, es tener como preocupación al universo entero, a pesar de ser un joven de 26 años.
Así, tratando de imaginarlo a los veinte años, es que sólo puedo respetar a los jóvenes por la libertad de pensamiento que naturalmente poseen, afortunadamente. Ésta les permite ver con frescura los viejos problemas; de toda índole. Es su falta de pudor, entre otras cosas, la que les permite transformar al mundo, aunque a veces, a los adultos, les parezca que son inmaduros y superficiales; de esos hay, pero de todas las edades; de los que se atreven, casi todos son jóvenes.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.

_______________________________________________________________

como citar este artículo

 

Peralta y Fabi, Ramón. (2005). Átomos, polen y probabilidades. Ciencias 80, octubre-diciembre, 16-23. [En línea]

 
 
    ←Regresar al índiceartículo siguiente
  1b 12  
 
 
 
     
Einstein on the beach
 
 
 
Hugo Solís
conoce más del autor
   
HTML↓ PDF ←Regresar al índiceartículo siguiente→
       
 
     
 
 
Al inicio de los años setentas, Robert Wilson era conocido por su revolucionaria manera de entender la ópera y el teatro. Con una amplia formación en arquitectura, diseño y pintura, colaboró con los coreógrafos pioneros de la época, como Martha Graham, George Balanchine y Merce Cunningham. Wilson fue aclamado internacionalmente por su obra La mirada de un sordo, ópera que transcurre en silencio y que realizó junto con Raymond Andrews, un talentoso joven sordomudo que Wilson adoptó. Sus exploraciones se conocían como teatro de imágenes o teatro de visiones y eran trabajos de amplia duración con cambios extremadamente lentos. En general, el carácter multimedia y no secuencial de sus obras se acercaba más a las características de los sueños que a la narrativa lineal de la ópera tradicional. Ello hizo, en parte, que los surrealistas afirmaran que el trabajo de Wilson era precisamente lo que debía llegar después del surrealismo e ir más allá de él.
 
Por otro lado, Philip Glass emergía como una de las figuras más importantes de la música minimalista, nombre con el que se designó al estilo musical que utiliza la repetición constante de patrones y la simplificación en armonía y melodía con el objetivo de resaltar, no el discurso, sino la estructura global del trabajo artístico. Los creadores minimalistas propusieron eliminar todos los elementos secundarios y ornamentales que pudiesen distraer la atención del escucha y dejar sólo los más simples que permitieran entender el transcurrir del material. En otras palabras, en la estética minimalista el discurso lo elabora primordialmente la estructura o esqueleto del material y no lo que sobre éste pueda producirse. Entre los compositores más importantes de este estilo destacan La Monte Young, Terry Riley, Steve Reich, John Adams y el propio Philip Glass. Glass había estudiado matemáticas y filosofía en la UniversidadLa vida y época de Freud y La vida y época de Stalin. Wilson propuso a Chaplin y Hitler, Glass a Gandhi. Finalmente, entre los dos acordaron Albert Einstein, no sólo por tratarse de uno de los personajes más conocidos del siglo XX, también porque su imagen fue muy polémica en los años que siguieron a la segunda guerra mundial. Por un lado, se asociaba al científico con la idea de progreso, evolución y liberación; por otro, se le vinculaba con la destrucción de la humanidad, ya que sus investigaciones teóricas permitieron la creación de la bomba atómica.
 
El título de la ópera, Einstein on the Beach, hace referencia a la novela de Nevil Shute On the Beach, que trata sobre el holocausto nuclear; pero la obra de Wilson y Glass logró recuperar no sólo los aspectos negativos, sino también los positivos de este personaje, aunque sólo fuera en un sentido metafórico. Einstein on the Beach se desarrolla sobre tres imágenes recurrentes, presentada cada una con un tema musical específico. Una imagen es un tren que evoca los trenes miniatura con los que jugaba Einstein de niño y que años después utilizaría para ilustrar su teoría de la relatividad. En otra, aparece la escena de un juicio con una cama en el centro. Desde luego, se trata del juicio sobre las implicaciones históricas del trabajo teórico de Einstein. La presencia de la cama podría tener como trasfondo la pregunta ¿cómo puede el científico dormir después de ver en qué derivaron sus descubrimientos? Sin embargo, la tercera imagen rompe con esta perspectiva negativa, se trata de una nave espacial que representa el potencial de liberación que Einstein desató y la trascendencia de su trabajo. Además, repetidamente se distingue, separada de la escena principal, la imagen de Einstein tocando el violín, mostrando así el lado humano del personaje. A pesar del significado de las imágenes visuales, de las múltiples interpretaciones que de ellas puedan hacerse y de su importancia para la unidad global de la ópera, es la música la que produce el espacio a lo largo de la obra. En ese sentido, el personaje de Einstein es secundario.
 
 
La mayoría de los textos de la ópera no narran ninguna historia, sino que describen la estructura de la música. Los personajes cantan tanto los números —1, 2, 4,— de las estructuras rítmicas como las notas musicales —do, re, mi,— de la estructura melódica. El guión de Einstein on the Beach es algo así como un metatexto musical, pero fue precisamente eso lo que hizo de ella una propuesta bastante original para la época. En la ópera existen diversos momentos en que hay textos hablados, pero estos no conforman una unidad narrativa. De hecho, es probable que se hayan introducido como un manifiesto, al estilo John Cage, el cual propone que todo puede ser arte y que cualquier persona puede producir trabajos creativos. Así, la obra contiene un poema de Lucinda Childs, también coreógrafa de la ópera, quien de manera inconexa describe su experiencia al ir de compras al supermercado. También hay un poema de un actor en el que describe una visión romántica de París y otro que narra una escena de dos novios tomados de la mano sentados en una banca bajo la Luna. Pero uno de los textos más extraños lo realizó Christopher Knowles, un muchacho autista de diecinueve años que creaba patrones rítmicos al repetir continuamente ciertas frases. Wilson lo escuchó y lo llevó a vivir a su casa, con el fin de que juntos realizaran poemas crípticos para la ópera. En ellos se habla, en ocasiones de forma evocativa y en otras inconexamente, sobre temas muy diversos, un velero que se desplaza en el tiempo; el juicio de Patricia Hearst —una adolescente que fue obligada, por un grupo terrorista que la secuestró, a robar un banco—, las llamadas telefónicas de la audiencia de una estación de radio neoyorquina; la canción popular Mr. Bojangles, entre muchas otras cosas. Si agregamos que la coreografía, realizada por Andrew deGroat, en gran medida surgió de la improvisación libre de los actores, queda claro que Einstein on the Beach es una ópera con un profundo carácter abstracto y experimental. Cuando fue estrenada en 1976 en el festival de Avignon, Francia, la gente tuvo que resistir cinco horas y media sin intermedio, aunque se les permitía salir y entrar a voluntad. Ello confrontó al público de manera radical, pero cuentan algunos asistentes que a partir de un determinado momento, este conjunto de incoherencias cobraba sentido. Lo central era la música y los textos debían entenderse como música.
 
 
La historia la contaba las imágenes, y aunque la obra en su conjunto esta muy lejos de ser una biografía de Einstein, puede entenderse en qué sentido este personaje es el punto de inspiración. Einstein on the Beach fue profundamente liberadora para la música de la época y ahora, casi treinta años después de su estreno, su música permanece como una de las referencias más importantes para entender ese estilo que antes de ser llamado minimalista recibió otros nombres como música trance, música hipnótica y música de la Solid State School of American Composers. de Chicago, pero una vez graduado decidió que aquello que hacía en sus horas libres, tocar el piano y escudriñar a compositores como Ives y Webern, debía ser el centro de su vida. Después de estudiar música en Estados Unidos y Francia, y viajar por el norte de África, India y los Himalayas para conocer la música de esos rincones del mundo, regresó a Nueva York para crear su propio estilo como compositor. En 1974 trabajó intensamente con la compañía de teatro Mabou Mines y más tarde le entusiasmó la idea de realizar una ópera en torno a un personaje histórico con Wilson, quien para ese entonces ya había dirigido dos óperas de ese tipo.
Hugo Solís
Instituto del Audiovisual, Universidad Pompeu Fabra, Barcelona
 
Referencias bibliográficas
Palmer, R. 1976. CD Einstein on the Beach.
Page, T. http://www.glasspages.org/eins93.html
Wilson, R. http://www.robertwilson.com/
common/featuredworks/eob2.html.
_______________________________________________________________

 

como citar este artículo

Solís, Hugo. (2005). Einstein on the beach. Ciencias 80, octubre-diciembre, 50-53. [En línea]
  ←Regresar al índice artículo siguiente→
1 12
     
El cine y la era atómica
 
“El hombre con visión de Rayos X” de Roger Corman, en 1963, el protagonista, un científico que logra mutar su visión en puros rayos X después de inyectarse diversas sustancias, entra de casualidad en una tienda de campaña en la que un desquiciado pastor pronuncia un discurso a sus feligreses
Alejandro Hosne
conoce más del autor
     
     
HTML ↓ PDF
     
     
En el final de la película “El hombre con visión de Rayos X” de Roger Corman, en 1963, el protagonista, un científico que logra mutar su visión en puros rayos X después de inyectarse diversas sustancias, entra de casualidad en una tienda de campaña en la que un desquiciado pastor pronuncia un discurso a sus feligreses. El Dr. Xavier, interpretado por Ray Milland, está en las últimas, se ha transformado en poco menos que un monstruo, perseguido por la policía y agentes del gobierno. Al principio, cuando transparentaba la ropa de bellas mujeres con sus nuevos ojos o al espiar a través de las paredes lo que ocurría en otro cuarto, disfrutaba su experimento. Acaba viendo los esqueletos de las casas, de los edificios y finalmente el mundo entero, desfasado, vuelto un inmenso armazón. De ver el interior de todo termina por no ver nada. El pastor, al reparar en el hombre casi ciego con los ojos ennegrecidos como gigantescas pupilas, cita el verso de la Biblia: “Y si tu ojo te da ocasión de pecar, arráncatelo y échalo de ti”. Y precisamente eso es lo que hace el Dr. Xavier, impotente y sin esperanza, se arranca los ojos en el último fotograma. Esta película ilustra muy bien un mito en torno a la ciencia, recurrente en el cine, desarrollado antes en la literatura y, quizás desde siempre, en el imaginario popular: la destrucción generada por las ansias de poder y conocimiento del hombre.
 
El género de ciencia ficción se desarrolló principalmente en los Estados Unidos en los años treintas, con películas como “El hombre Invisible” y “Frankenstein” de James Whale o los llamados films de anticipación como “Things to come” de W. C. Menzies. Pero en los años de posguerra fue cuando la imagen de la ciencia en el cine cambió radicalmente. El nacimiento de la era atómica marcó al séptimo arte, el cual, para bien o para mal, absorbió y representó lo inmediato, por momentos de manera confusa, otros en forma poco meditada, aunque también las hubo muy certeras, pero siempre reflejando los valores del momento. En los años cincuentas la principal musa fue la paranoia, alimentada por la guerra fría, la cacería de brujas y los ovnis, todos poderosos sustentos para disparar la imaginación hacia rincones exasperantes. La paranoia, al margen de discrepancias éticas, devino en elemento muy creativo para inventar situaciones poco afectas a tranquilizar al espectador.

Una vez aceptada como factible la idea de una catástrofe universal provocada por el hombre, el género comenzó a retratar el fin del mundo una y otra vez. La visión de la ciencia en el cine ya no sería la de un científico loco, del tipo de Víctor Frankestein, sino que estaría relacionada con un poder oculto, inmerso en otro más grande, el militar; subordinado a su vez al poder del Estado. La humanidad se siente insegura frente a sus propias creaciones. A partir de este momento la ciencia no se libra de sospechas, y el científico se convirtió en un ser de dudosa —o nula— moral, que brindaría su talento y sus descubrimientos a un Estado controlador y genocida.

No hay que olvidar que la historia del siglo xx ayudó a forjar este mito. En la segunda guerra mundial, desde que famosos y prestigiados científicos trabajaron con nazis o aliados —los primeros cegados por una necesidad de gloria infame, los otros tratando de impedir que Hitler se hiciera de la bomba—, nada volvió a ser lo mismo. Sobre todo porque Oppenheimer, Einstein y tantos otros, fueron señalados como responsables directos o indirectos de haber creado la bomba, más allá de quiénes, en realidad, osaron utilizarla —los aliados, que en términos cinematográficos burdos vendrían a ser los buenos. Esta flamante monstruosidad fue tomada por el cine también como analogía de la destrucción bíblica. Por ejemplo, en 1955 con “Kiss me deadly” de Robert Aldrich, el género policial devino en una búsqueda no de un asesino, de chantajistas o de mujeres fatales, sino de una maleta perdida que contiene un alucinante componente al que nadie menciona directamente pero que, según dice un policía involucrado en el caso, tiene que ver con el Proyecto Manhatan, Los Alamos, Trinity. Al final, un misterioso doctor, a punto de llevarse la valija y venderla a quién sabe qué postor, es ultimado por su ayudante, una agente y servidora sexual muy atractiva que solamente quiere saber qué hay en la enigmática maleta. La abre y unos destellos asesinos la matan, vuelan la casa y nos dejan pensando, al ver el cartel de fin, hasta donde llegará el holocausto liberado. Antes de morir, el doctor dice a la agente: “Deberían haberte bautizado Pandora”. Cínico, vendido y soberbio, el hombre se refiere, a través de un viejo mito, a la destrucción total del planeta. Se trata de un radical cambio cultural, desde ahora el Apocalipsis cabe en una insignificante maleta de cuero.
 
Desde luego que existe una relación que nada tiene que ver con la ciencia real; no hay que perder de vista que estamos hablando de cine, de millones de espectadores. No parece ser atractivo para la pantalla —la taquilla, al decir de los productores— representar la soledad del científico, su aspecto más creativo y humano, cuando investiga, busca y crea. Una vez, alguien de la industria dijo que la visión de un tipo mirando por un microscopio y gritando ¡eureka! resultaría un aburridísimo anticlímax.

Algunas películas intentaron, ingenuamente pero sin intenciones espectaculares, retratar la vida de hombres famosos o célebres de la ciencia —como “La vida de Luis Pasteur” de William Dieterle—, pero su atractivo eran las pasiones terrenales del individuo más que sus descubrimientos. Naturalmente, se toparon con el ostracismo de los científicos al desarrollar sus respuestas y esas sólo interesa al que investiga, de la misma manera que el proceso de bosquejar y pintar un cuadro no importa más que al pintor. Llegar a gritar ¡eureka! presupone meses, años de trabajo. La ciencia, por su complejidad y exigencia intelectual, es una rama del conocimiento que siempre se verá desde afuera, y con la era atómica y nuclear se le ve con desconfianza. El cine no estuvo exento de esa mirada cotidiana, quizás simplista y para muchos prejuiciosa.

Pero no es justo referirse al viejo Hollywood como a una espectacularidad vacía. Sería mejor, en todo caso, entender cómo funciona el entretenimiento masivo. Las historias que pueden filmarse deben tener algo que seduzca y sea permeable a la sensibilidad del espectador. Cualquier temática estará supeditada a la trama que se pretenda abordar, pero las características repetidas durante los ciento diez años de cine proporcionan una idea inequívoca de lo que se supone es un científico: alguien ambicioso y aparentemente sin miras éticas. Si hablamos del cine europeo, que goza de prestigio artístico en el imaginario de la gente, nos encontramos con muchas menos representaciones de la ciencia y de los científicos. La mayoría de sus grandes exponentes ahondaron en aspectos filosóficos, morales y políticos del ser humano, desinteresándose de algo tan materialista como la ciencia.
 
En 1951, en los Estados Unidos, mientras que muchas películas eran un perfecto ejemplo de la situación política reinante, “El día que la tierra se detuvo” de Robert Wise representó un intento de cine pacifista, de metáfora digerible para todos, un gran no a la destrucción universal. Lo curioso es que lo hace a través de un discurso parapolicial intergaláctico. La película retrata a un extraterrestre llamado Klatuu, escoltado por un temible robot, que aterriza su nave en pleno Washington. Hay pánico y miedo incontenible en la población mundial. Pero el alien, de aspecto humano y bonachón, viene en son de paz; trata de explicarlo pero apenas baja de la nave un soldado le dispara, creyendo ver un acto sospechoso en sus movimientos. Klatuu los perdona y alega que viene con un mensaje urgente para la Tierra entera. Desde que los humanos desarrollaron armas atómicas los habitantes de las galaxias circundantes están preocupados; debido al espíritu belicista y destructivo de esta raza suponen que en cuanto puedan volar al espacio cargarán esas armas atómicas, ocasionando inseguridad general a los otros mundos. Nadie le presta mucha atención y le ponen precio a su cabeza, desatando una cacería por todas partes. En la marginalidad total, Klatuu —se hace pasar por humano para conocer las costumbres terrícolas, perdiéndose en la multitud— logra conectarse con destacados científicos y les pide que luchen para que todas las naciones del globo conozcan su mensaje. Los científicos, vigilados y dependientes de las decisiones de arriba, no lo consiguen. El presidente, nombrado aunque nunca aparece, le dice que las naciones más poderosas del globo están enemistadas y que una reunión con todas ellas sólo para que Klatuu transmita su mensaje es imposible. Finalmente, poco antes de despegar, lo consigue y convence a la raza humana de que sigan por la senda de la paz. Imposible no hacerle caso, advierte que si no desisten en su intento de destrucción atómica, la Tierra será pulverizada por el resto de los mundos del espacio exterior, unidos para resguardarse. Su dureza permite suponer que quizás su raza es tan evolucionada como la nuestra, pero que sin duda disponen de una mejor tecnología para disuadir. Lo interesante es que éste parecía ser —principios de los cincuentas, en plena cacería de brujas— un discurso pacifista, “si siguen avanzando los matamos”. Sin embargo, ahora es lo mismo que los Estados Unidos advierte a Irán.

Los sesentas continuarían por la senda de lo tenebroso pero de forma más conciente y politizada, acorde con el naciente discurso social. Películas, como “Dr. StrangeLove” de Stanley Kubrick en 1964, que se burlan de la militarización y de la guerra fría, ejemplificando con detalle la locura nuclear, dejan de ser reflejos de los miedos de una sociedad para decir las cosas por su nombre. El inicio de la guerra de Vietnam y el subsecuente fracaso en ella, el Mayo del 68 francés y los demás íconos enarbolados por una juventud politizada que dejaba atrás —y para siempre— la ingenuidad algo esquizofrénica de la inmediata posguerra. Lo apasionante de la década anterior es que el cine funcionó más como síntoma social que intento conciente de denuncia política.
 
De hecho, perder en Vietnam quizás relegó el miedo de una tercera guerra mundial hasta la era de Reagan, cuando otra vez empezó el coqueteo con incinerarnos de una vez por todas. Un logrado intento de infundir ese miedo fue una película olvidable salvo por lo anecdótico, “El día después”, que mostraba sin metáforas el mundo devastado luego de la guerra nuclear. La gente, desfigurada por la radiación, repleta de llagas y deforme.

Sin embargo, caído el muro de Berlín y muerto el comunismo —el soviético, para el caso—, las naciones del mundo pudieron unirse para celebrar un nuevo y sádico complot: el libre mercado. Con el neoliberalismo depredador, donde la política clásica, que ostentaba ser ideológica, quedó relegada, el paradigma es lucrar y dominar desde la empresa. La clonación, tema absolutamente actual, no puede desvincularse del mercado, así como antaño la bomba nuclear no podía hacerlo de la política. Si una vez se trató del famoso y temido botón rojo —mítica y fácil opción de los presidentes norteamericano y soviético para volar todo con el mero accionar de un dedo—, hoy son las sombras desde las que operan los laboratorios y los gobiernos para avanzar en genética las que infunden miedo. Pero son menos localizables en imágenes obvias como un botón, porque no pueden enunciarse claramente y no existe un antagonismo tan marcado como entre dos países enfrentados por ideologías distintas. Hoy, el mercado decide y, en un sentido ontológico, es anónimo, apolítico y siniestro per se.

La biología reemplazó a la física como la ciencia debatida pública y éticamente, pero al contrario de aquella época de posguerra, no parece haber un síntoma fuerte —menos aún creativo— que lleve a la pantalla este tangible miedo a los vertiginosos avances en genética. Las películas que tocan el tema son escasas y sin ninguna calidad.

Hollywood, sin propuestas creativas, apenas usa de excusa argumental temas como la clonación y siempre lo hace sin explorar sus posibilidades. Quizás se deba a que el cine de esta época, confuso y empobrecido, no advierte todo lo que sugería aquel temido futuro que ya llegó —curioso, se le describe cuando no está y no puede verse cuando se ha instalado. El género de ciencia ficción ha caído en contradicciones insalvables por ahora, que tienen que ver precisamente con la imposibilidad de criticar el presente, que, en el sentido clásico del género, es muy futurista; es decir, ciego a lo que verdaderamente está ocurriendo. El huevo de la serpiente se rompió y la serpiente se pasea delante de nuestros ojos sin que nadie la advierta. La ciencia ficción se debilita frente a la realidad y queda en punto muerto.

Podríamos encontrar más ejemplos que remarquen o contradigan lo dicho, pero más que llegar a una conclusión lo interesante del cine, referido a grandes temas como la ciencia, es que nada está dicho de antemano, no hay líneas que seguir o respetar. Con la permanente invención de historias son incontrolables las temáticas que pueden suponerse. Como arte que se mueve zigzagueante y sin control, dice lo que cada uno de sus autores quiere que diga. Es difícil adivinar si en un futuro próximo surjan películas que aborden verdaderos debates éticos sobre la ciencia contemporánea. Eso depende de la creatividad de guionistas, directores y productores, no de los científicos.
Alejandro Hosne

Escritor y guionista cinematográfico

 _______________________________________________________________

como citar este artículo

 

Hosne, Alejandro. (2005). El cine y la era atómica. Ciencias 80, octubre-diciembre, 64-69. [En línea]

  ←Regresar al índiceartículo siguiente→

 

Normal 0 21 false false false MicrosoftInternetExplorer4

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1 12
     
titulo articulo / book antigua 12 / format div

 

resumen fin del articulo (indesign) / arial 12 / format div

 

 

 

nombre autor / book antigua 10 / format div

 

 

conoce más del autor

 

 

     
     
HTML ¯ IMPRIMIR PDF ¬ Regresar al indiceIr al articulo siguiente ®
     
     

 

texto articulo / georgia 12 / justify / format div

 

 

texto sobre el autor ( fin indesign) / georgia 12 / format div
eferencias bibliograficas si hay / georgia 12 / format div

 

"Recibido el " fin del articulo indesign / georgia 10 / format div

 

 

 

 

 

flechavolver

 

1 12
     
Entrevista al matemático Heberto Castillo
 
Estudié en la Escuela Nacional de Ingenieros, donde luego fui profesor, de 1947 a 1968. Cuando cursaba el tercer año empecé a dar clases de matemáticas y entendí que, en ingeniería, quien aprende bien física y matemáticas no tiene problemas. La literatura y la ingeniería se parecen mucho, son como el ajedrez, pocas reglas que aprender y si se tiene ingenio, desarrollarlas. En lugar de aprenderme los teoremas, aprendía a demostrarlos, aunque a veces implicaba trabajar más, pero el ejercicio continuo de deducir, ligado al de la intuición, permite desarrollar grandes cosas.

José Ruiz de Esparza
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
Estudié en la Escuela Nacional de Ingenieros, donde luego fui profesor, de 1947 a 1968. Cuando cursaba el tercer año empecé a dar clases de matemáticas y entendí que, en ingeniería, quien aprende bien física y matemáticas no tiene problemas. La literatura y la ingeniería se parecen mucho, son como el ajedrez, pocas reglas que aprender y si se tiene ingenio, desarrollarlas. En lugar de aprenderme los teoremas, aprendía a demostrarlos, aunque a veces implicaba trabajar más, pero el ejercicio continuo de deducir, ligado al de la intuición, permite desarrollar grandes cosas.
 
Tuve la fortuna de empezar a manejar computadoras o cerebros electrónicos, como se les llamaban entonces, desde 1955, cuando llegó la primera máquina para el Politécnico y la Universidad. No uso paquetes porque desarrollo mis propios programas para calcular matrices y en las matemáticas me ocurrió lo mismo. Cuando hice mi tesis profesional “inventé” la matriz gramaticial. No las estudié, no se enseñaban entonces. Era la época en que el estudio de las matrices se llamaba álgebra de los determinantes, pero la teoría matricial no se estudiaba. Es un cálculo que conozco más por los libros que por la educación. Buscando libros sobre matrices descubrí que no era el inventor, encontré que los mayas manejaban las matrices. En algunos dibujos antiguos, por ejemplo, en los delantales, hay cosas que parecen adornos, en realidad son matrices. Los mayas manejaban unas matemáticas muy interesantes, podían calcular raíces cuadradas y tenían un sistema binario con granos de maíz. Ya no profundicé en esto.
 
Hasta el sesenta y ocho propuse muchas cosas, nunca me hicieron caso. En 1959 desarrollé una teoría que llamé de variantes estructurales, tiene que ver justamente con propiedades intrínsecas de estructuras que todavía no se estudian adecuadamente, como las características de resistencia a los sismos. Editamos un libro de 3 mil ejemplares en 1960, todavía me quedan algunos. Creo que soy el único que utiliza esa teoría.
 
Igual me pasó en matemáticas, con los maestros Alberto J. Flores, Rivero Borrel, Mariano Hernández y Barros Sierra. Estudiaba las deformaciones cuando inventé la “derivada vectorial de un vector”. Cuando necesito una herramienta de matemáticas, la invento y si alguien se adelantó, no me preocupa porque eso significa que no ando tan mal. Es una manera de confirmar que tengo la capacidad para ir avanzando. Por ejemplo, en 1964 en un congreso presenté una teoría. A uno de los teoremas lo llamé de la “barra ladeada conjugada” porque era una generalización de los teoremas simples de Morkley que se usan en resistencia de materiales. En una estructura ladeada sin resorte desarrollé algunos elementos matemáticos porque me molestaba que en el cálculo vectorial, para hacer el producto vectorial de dos vectores, se usara un determinante y se mezclaran con otros símbolos. Entonces elaboré un arreglo matricial para reemplazarlos, estaba muy orgulloso hasta que, en la Facultad de Ciencias, la maestra Manuela Garín de Álvarez me regaló un librito de Albert Einstein, quien en 1917 había encontrado la misma matriz. Me dio mucho gusto.
 
También presenté unos teoremas que asociaban una recta a los ejes coordenados. En lugar de números de matrices y la viga ladeada, yo la estiraba y la volvía una recta, la cual asociaba a las matrices y con ello desarrollé teoremas que hasta la fecha no he visto. Lo presenté en Perú en el Congreso Internacional de Estructuras, luego en Brasil, Londres y China. Pero sin pena ni gloria. Surgió de ahí una geometría matricial y en 1966, publiqué por primera vez el trabajo que presenté en China, llamado Espacios n dimensionales de orden m. Allá me decían ¿qué quiere decir eso? Pues que hay espacios n diferenciales no euclidianos que yo asocio a ejes matriciales. Y, hasta hace unos tres años, busque la norma para medir distancias en los espacios. El presidente de la Academia de Ciencias Matemáticas de China me sugirió que precisara la norma, que era lo que me faltaba.
Mezclaba distancias escalares con matriciales y definí las funciones trigonométricas matriciales: seno, coseno, logaritmos y exponencial de una matriz. Hace tres años precisé la norma, pero dejé de presentarme en congresos. En 1967 lo publiqué en un pequeño libro llamado Nueva teoría de las estructuras, un solo teorema fundamental. Con un teorema resuelvo todas las estructuras: vigas, arcos, cubiertas, cáscaras, todo. Un teorema que involucra matrices. Luego he trabajado en los invariantes estructurales que encontré. Cada estructura tiene un grupo de parámetros que la identifica.
 
El problema de sacar la raíz cuadrada de una matriz surge de la concepción que hice de la viga, de estirar la viga. Al analizar un edificio de n pisos planteé la ecuación matricial y noté que era muy parecida a la ecuación del resorte que vibra, el problema de cómo vibra.
 
De niño, cuando me enseñaron el teorema de Pitágoras, me quebraba la cabeza preguntándome ¿cómo se le había ocurrido eso a Pitágoras? Pero no se enseñan los caminos de la investigación. Más grande, me intrigaba el misterio que encierra la semillita de maíz. Después me preguntaba ¿qué tiene dentro la ciencia?, ¿qué las matemáticas? ¿De dónde salió, de dónde nació?
 
Me tocó tomar clases con Mariano Hernández, alumno preferido de Sotero Prieto. Cuando desarrollé la teoría de las invariantes estructurales mandé un ejemplar del libro a todos los maestros que se dedicaban a las estructuras. El único que me contestó fue Mariano Hernández, dijo: “hasta donde yo sé esto es original y muy interesante, y debe estudiarse”.
 
Barros Sierra me enseñó cálculo diferencial en la preparatoria y álgebra en la Facultad de Ciencias. Recuerdo que un día nos dijo: “miren, consideremos un conjunto ordenado de números en n renglones y n columnas, o sea, una matriz cuadrada. Definición: se le llama determinante de la matriz a la suma de todos los posibles productos que puedan hacerse tomando un elemento de cada renglón y uno de cada columna, sin repetición, y anteponiéndole signo positivo o signo negativo según el orden de las inversiones del renglón o la columna sea par o impar”. Después de meditarlo, concluí que ese tiene que ser un proceso al cual se llega y no del cual se parte. Lo investigué y se le planteé a Barros Sierra, él me dio una palmaditas y dijo: “mire, dedíquese a investigador, novelista o detective”, porque deduje y no definí. Las cosas no se definen, se deducen, nadie define sin antes haber deducido. La definición es como un intento de llegar para empezar otra jornada.
 
Siempre anduve a las patadas con todo el mundo, me peleé con todos mis maestros: de resistencia, de materiales. Ahora me preocupa mucho que en ingeniería todavía no se estudia la teoría de una estructura fundamental que propuse desde 1965. El mundo está lleno de esas estructuras, están de moda, aunque nadie me reconoce ninguna relación con ellas y todavía no las usan. Sólo en México se usa como estructura de entrepiso para edificios y, prácticamente, parece que soy el único que las usa. Por ejemplo, en el Hotel de México, cuando se discutía si usarlas o no, estaban Oscar de Buen, Colina, Guerrero, Bracamontes, Dovalí, presenté mis propuestas y dijeron: “matemáticamente es impecable, pero... ¿no es muy peligroso hacerlo en una estructura de esta importancia? Es un buen diseño... pero con esa concepción de la estructura...”. Mis estructuras las calculo casi mentalmente, son estructuras donde sólo hay tensiones y compresiones, con ellas construyo todo el sistema de fuerzas.
 
Presenté esto en 1965, en algún congreso. En Londres me hicieron caso, pero en 1966, también me desahuciaron, dijeron: “esto no entra aquí pero ni de broma porque viola todas las normas y todos los intereses, todos”. Nunca pensé que fueran tan grandes los intereses, pero a la fecha sólo hay puentes hechos con tridilosa en México, y son estructuras que han demostrado su eficacia, por ejemplo, con los sismos. Tengo un estudio de un laboratorio de ensayo de materiales de Portugal, firmado por algunos ex-presidentes de la aci (American Concrete Institute), señalando que es la estructura más rígida para la resistencia de los temblores. Es un estudio muy complejo, muy matemático, que encargaron unas gentes de Venezuela que me compraron la patente, y les costó mucho dinero. ¿Cómo es posible que en veinticinco años no se conozca, no se estudie? ¿Cómo es posible? No es una idea que quedó archivada, en México hay como 200 o 250 puentes con esa estructura.
 
En la cárcel me entretuve mucho con las matrices, algunos muchachos les pusieron matrices hevertianas porque su cuadrado es un escalar. Encontré que hay un número infinito de raíces cuadradas de una matriz y que una matriz siempre puede descomponerse en otras dos. Con esto comencé a calcular senos y cosenos y encontré una matriz que elevada al cuadrado da menos uno. Una matriz que se caracteriza porque su cuadrado es menos uno y el cubo vuelve a ser la matriz original, es decir, si la elevo al cubo me da otra vez la misma matriz. Si la elevo al cuadrado me da la matriz como número de Gauss. Es una nueva geometría que contiene a la de Euclides, es una generalización de la geometría euclidiana de orden N, orden 3, orden 4, orden 5.
 
He hecho un esfuerzo de muchos años por romper con la idea de que la ciencia, la ingeniería, la matemática, no deben meterse en cuestiones políticas. Entiendo que hay una política educativa producto o consecuencia de la política económica, y que desgraciadamente esta lucha tendrá que darse con y en realidades muy concretas. Uno de los graves problemas de la ciencia en los países del Tercer Mundo es que sus logros, sus inventos, no se aplican porque tienen una feroz resistencia del Primer Mundo, porque no quieren eliminar o acabar con sus ventajas.
 
Cuando el general Cárdenas construyó por primera vez un puente de tridilosa, Gilberto Borja era el residente de la ica allá en la Villita, Cuauhtémoc Cárdenas era el residente de la Villita por parte de la Comisión, y yo el que proponía la estructura para un túnel al que se le había quemado la cimbra y su estructura, en la que cabía el Ángel de la Independencia, quedó colgando, un túnel inmenso. Propuse un túnel con tridilosa y dije: “no hace falta la cimbra, yo la tejo y con estas estructuras cuelo sin cimbra”. El general Cárdenas, que era muy abierto, dijo: “bueno, a ver”. No pude convencer a la Comisión Federal de Electricidad y el puente se construyó con la oposición de todo mundo.
 
Borja, que fue mi compañero desde la prepa, me decía: “mira Heberto, la idea es muy buena, pero no nos conviene”. El argumento era: haces un puente que tiene la tercera parte de fierro, la séptima de concreto, está bien, lo abaratas mucho, pero como constructor no me conviene. Si me dan un puente con mucho concreto, mucho acero pero en el fin del mundo, voy. Si me dan un puentecito de éstos no voy. Ese era el argumento. Es un problema muy complejo, al que no veo solución. Hay puentes que tienen veinticinco años y ahí están; el edificio del Hotel de México, le ha pegado todos lo temblores desde 1966 y ahí está, la estructura está intacta, perfecta.
 
La matemática es hija de la experiencia, incluso habría que recordar que geometría quiere decir medición de la tierra y que surge de la necesidad de deslindar los terrenos de los grandes propietarios. O sea, la matemática es hija de la necesidad. Entonces la Universidad debe ser hija de la necesidad de un país para estudiar, debe recibir todo el apoyo del gobierno, no puede ni debe ser un negocio privado, en el momento en que se convierte en un negocio privado ya no obedece a la necesidad de desarrollo, sino a la necesidad de lucro, que no es lo mismo. Hay que hacer un esfuerzo para que la Universidad sea una hija creciente de la necesidad y que se estimule en los muchachos el ingenio, eso es la ingeniería, la invención; como en la literatura, tener que reinventar la realidad.
 
Por fortuna todas las cosas que he pensado trato de realizarlas y en eso está la vida. Creo que el hombre se confirma como tal porque trata de realizar cosas. El objetivo que persigo es conocer mi mundo y tratar de cuidarlo y preservarlo, es mi casa. Entonces el que cuida su casa va bien, pero el problema de la educación es muy complejo. Durante muchos años estuve empeñado en que a los niños no se les enseñaran la matemática como una religión. Como la gramática, que son las reglas que vamos aprobando para comunicarnos, y no como la lengua, la cual crearon todos los hombres del mundo. El lenguaje es una de las propiedades sociales que todavía nadie puede privatizar. Es difícil que alguien pretenda quitarle lo socialista a la distribución de la lengua.
 
Cada pueblo construye su idioma. La lengua va surgiendo, se va creando y recreando, enriqueciéndose con palabras de otras lenguas. En esto Galileo fue un gran revolucionario en cuanto a que vulgarizó la ciencia. Se hablaba entonces en latín y el que presentará sus trabajos en lengua vulgar, era mal visto en su época.
 
Entonces vulgarizar, poner al alcance de la gente, eso es lo que en mi caso he hecho, y sigo haciendo. Todavía espero que haya sensibilidad en algunas gentes en la Universidad
para que no se queden en papel, no se pierdan, porque yo las he escrito, no las he editado, pero están escritas.
José Ruiz de Esparza
Historiador de la Ciencia
Nota.
En 1992, cuando preparaba un escrito acerca de los orígenes de las matemáticas profesionales en México, realicé varias entrevistas para conocer los detalles de aquellos comienzos. Algunos informantes mencionaron al ingeniero Heberto Castillo, señalando su original manera de pensar y resolver problemas matemáticos. Decidí buscarlo y el 6 de abril, él amablemente me recibió en su oficina de la colonia Romero de Terreros, en Coyoacán. Ahí conversamos durante poco más de una hora, esto fue algo de lo que comentó.
_______________________________________________________________

 

como citar este artículo

Ruiz de Esparza, José. (2005). Entrevista al matemático Heberto Castillo. Ciencias 80, octubre-diciembre, 70-75. [En línea]
 
 
  ←Regresar al índiceartículo siguiente→
  1 12  
   
     
Exhibicionistas y mirones
 
 
 
Susana Biro
conoce más del autor
   
HTML↓
 
←Regresar al índiceartículo siguiente→
       
       
 
 
Hacia el final del Año Internacional de la Física es posible mirar atrás y ver las acciones emprendidas por distintas agrupaciones de profesionales para dar a conocer esta rama de las ciencias. Y, como con muchas otras cosas, un paseo por la red proporciona un amplio —aunque no muy profundo— panorama de la cuestión. La búsqueda de las palabras year of physics arroja ligas a más sitios de los que puede visitarse en un año, y la lectura de aquellas páginas que están escritas en una lengua comprensible muestra que en todos lados se han organizado actividades para difundir los múltiples temas de la física.
 
Resulta interesante leer las explicaciones de algunos de los organizadores de este gran suceso mundial apoyado por la unesco. En la página del American Institute of Physics (www.physics2005.org) hacen énfasis en el centenario de “las pioneras contribuciones” de Albert Einstein en 1905. Más adelante puntualizan que los “eventos a lo largo del año destacarán la vitalidad de la física y su importancia en el milenio que inicia”. Invitan a físicos de todos los rincones del planeta a que organicen algún evento que pueda “atraer nuevas vías de apoyo y financiamiento [...] y tal vez inspirar a la siguiente generación de científicos”.
 
En una página equivalente en Europa (www.wyp2005.org) dicen aproximadamente lo mismo, pero de un modo distinto. Para empezar, proponen trabajar mediante la cooperación de todos los países europeos para “mostrar los logros de la física en tres milenios”. Enuncian un reto: el interés del público por la física está decreciendo, al igual que el número de estudiantes en esta área, por lo tanto hay que hacer algo. Entonces plantean una vía de acción: “celebrar el centenario del año milagroso de Einstein a la vez que aumentar la conciencia pública de la física”. Y agregan: “la fama internacional de Einstein será el vehículo natural para atraer el interés del público”. De modo que esta gran fiesta de Einstein es además —o principalmente— una forma de atraer la mirada del mundo entero hacia la física.
 
Entre las actividades organizadas por instituciones pequeñas, medianas y grandes destacan las conferencias, las exposiciones, los libros y los números especiales de revistas. Uno de los esfuerzos más entretenidos y, a mi parecer, más eficaces para el propósito de este festival de la física es la página del proyecto Quantum Diaries (interactions.org/quantumdiaries). Se trata de los blogs escritos durante todo el año por físicos de todo el mundo. El término blog viene de weblog y se refiere a un fenómeno relativamente reciente que consiste en llevar una bitácora en la red, a la vista de todos. Inicialmente, este tipo de bitácoras eran difíciles de hacer, pues implicaba tener que desarrollar los programas necesarios uno mismo. En la actualidad basta con acceder a páginas como www.blogger.com para iniciar un blog al instante.
 
A partir del primero de enero, treinta y tres voluntarios de quince países han anotado sus actividades, reflexiones y comentarios acerca de los bloggers que los acompañan en este curioso viaje por el espacio-tiempo. Escriben en nueve idiomas, aunque predomina el inglés y hay muchas bitácoras bilingües. Todos han agregado una foto, incluso algunos un pequeño audiovisual de sí mismos. Al recorrer sus archivos es inevitable preguntarse qué tipo de persona o, mejor dicho, qué tipo de físico aceptaría contarle al mundo entero hasta los más mínimos detalles de su vida durante un año. Una revisión muestra que predominan los jóvenes —pocos pasan de los cincuenta— y los hombres —sólo hay nueve mujeres—, pero sin duda la característica que todos deben compartir es que tienen cierta proclividad al exhibicionismo.
 
Entonces, basta con que el lector tenga un poco de interés por las vidas privadas del prójimo para que pase un rato realmente divertido leyendo las bitácoras, por ejemplo, de un estudiante de doctorado que además toca en una banda de rock, o de una investigadora, profesora y aficionada al buen comer. Así, casi sin darse cuenta, se enterará también del trabajo y la forma de vida de algunos físicos.
Susana Biro
_______________________________________________________________

como citar este artículo

Biro, Susana. (2005). Exhibicionistas y mirones. Ciencias 80, octubre-diciembre, 14-15. [En línea]
  ←Regresar al índiceartículo siguiente→
1 12
     
La física del siglo XXl
 
¿De qué está hecho el mundo y lo que lo rodea?, ¿cuándo y cómo empezó el Universo?, ¿qué es lo más pequeño que existe? Durante miles de años, estas preguntas han estimulado la imaginación de muchas personas.
Myriam Mondragón
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
 
 
 
¿De qué está hecho el mundo y lo que lo rodea?, ¿cuándo y cómo empezó el Universo?, ¿qué es lo más pequeño que existe? Durante miles de años, estas preguntas han estimulado la imaginación de muchas personas. Los antiguos griegos, por ejemplo, tenían el concepto de átomo como la unidad de materia más pequeña e indivisible. Pero es en los últimos dos siglos, y sobre todo en los pasados cien años, cuando los avances matemáticos, conceptuales y tecnológicos permitieron a los físicos explorar en forma más sistemática las respuestas a estas y otras preguntas, aunque todavía queda mucho por resolver.

La mecánica cuántica y la teoría de la relatividad revolucionaron la forma en que percibimos el mundo. El siglo pasado presenció adelantos sin precedentes en la física teórica. Uno de ellos es la teoría moderna de las partículas elementales, la cual describe los bloques fundamentales de la materia, las partículas más pequeñas e indivisibles, además cómo interactúan entre sí, cómo se mantienen unidas y cómo reaccionan ante las diferentes fuerzas. Este conjunto de conocimientos se encuentra representado en el modelo estándar de las partículas elementales, el cual usa el formalismo matemático que combina la mecánica cuántica con la relatividad, incluyendo creación y aniquilación de partículas, conocido como teoría del campo.

Resulta claro que si todo está compuesto de bloques fundamentales, las propiedades de éstos determinan la estructura del Universo en su conjunto. De ahí que exista una importante conexión entre la física de partículas elementales, la de astropartículas y la cosmología.

A partir de pocos elementos, seis quarks, seis leptones y las partículas que transmiten la fuerza entre ellos, el modelo estándar explica todas las partículas compuestas que conocemos y la forma en que interactúan. Sin embargo, dista mucho de ser una teoría completamente satisfactoria. En qué consiste y hasta dónde llega nuestro conocimiento sobre las partículas fundamentales son la base para entender por qué seguimos buscando mejores respuestas.

Los quarks y los leptones son las partículas más pequeñas de la materia. Los primeros se encuentran dentro del núcleo del átomo y tienen propiedades poco comunes. Por ejemplo, a diferencia de los protones y electrones, que tienen carga eléctrica +1 y -1, los quarks tienen una carga fraccionaria, ±2/3 y ±1/3. Además poseen otro tipo de carga conocida como color y representada con los tres colores primarios. Casi toda la materia que nos rodea está compuesta de combinaciones de dos tipos de quarks, los up y los down. Los quarks nunca se encuentran aislados porque para uno es energéticamente más favorable juntarse con otro y formar otra partícula, que estar solo. A esta propiedad se le llama confinamiento. Los leptones, en cambio, se encuentran solos. Los hay cargados, como el electrón, o neutros, como los neutrinos.

Hasta aquí todo es razonablemente sencillo; sin embargo, existen más quarks y leptones —además de los up, down, electrón y neutrino—, todos con los mismos números cuánticos y propiedades, pero con masas extremadamente diferentes. A cada grupo de quarks y leptones se le conoce como familia, y se distingue entre tres familias manifestando que los quarks y leptones vienen en tres diferentes sabores —aunque, al contrario del color, no se asignó un sabor particular, como dulce o amargo. El primer misterio sin resolver: sabemos, por observaciones cosmológicas y por los experimentos de partículas, que sólo hay tres generaciones de familias y que cuando se crean, las partículas más pesadas decaen inmediatamente a las más ligeras. Pero, ¿por qué, si al final todas las partículas decaen a la primera familia, aparecen dos generaciones más pesadas?, y también ¿por qué sólo hay dos generaciones más pesadas y no más, por ejemplo, seis o incluso una cantidad infinita de ellas?
En el modelo estándar, las interacciones de una partícula son todas las fuerzas que la afectan —es decir, la manera en que la presencia de otras partículas la perturban—, sus decaimientos y aniquilaciones. En este caso, el meollo del asunto consiste en explicar cómo dos objetos pueden afectarse el uno al otro sin tener contacto. La razón es que las partículas de la materia intercambian otro tipo de partículas que son portadoras de fuerza. Es necesario señalar que una fuerza y una interacción no son exactamente lo mismo, pero por simplicidad muchas veces estos nombres se usan indistintamente.

Hay cuatro interacciones fundamentales: la gravedad, la electromagnética, la fuerza fuerte y la débil. La gravedad y el electromagnetismo pertenecen a nuestra experiencia cotidiana. La fuerte y la débil actúan en el nivel atómico y subatómico, de manera que no las percibimos. El electromagnetismo es el responsable de que objetos con cargas iguales se repelen y con cargas opuestas se atraigan, su partícula mediadora es el fotón y, hasta donde sabemos, no tiene masa y viaja a la velocidad de la luz. La fuerza de gravedad afecta todos los objetos con masa, pero como la de las partículas fundamentales es tan pequeña los efectos gravitatorios son despreciables. En parte, esto es una suerte porque en el modelo estándar no puede explicarse satisfactoriamente la gravedad. Además, no se ha encontrado el gravitón, que sería su partícula mediadora. Hasta ahora no hay una teoría completa y matemáticamente coherente sobre la gravedad cuántica.

La fuerza fuerte es la que perciben los quarks, como su nombre lo indica es muy intensa y eso hace que se mantengan unidos y formen otras partículas. Sus mediadores son los gluones —de glue, pegamento en inglés— que, como los propios quarks, poseen carga de color. A la teoría que describe estas complejas interacciones se le conoce como cromodinámica cuántica. La cuarta y última interacción, la fuerza débil, tiene que ver con el decaimiento de las partículas. Es decir, con la aparición de nuevas partículas de menor masa a partir de otras que pierden energía cinética. Usa tres partículas mediadoras, W+, W- y Z. Los W± tienen carga eléctrica y el Z es neutro. Al contrario del fotón que no tiene masa, los W y el Z son muy masivos. Sin embargo, desde hace algunos años sabemos que en realidad la fuerza electromagnética y la débil son dos aspectos de una misma interacción: la fuerza electrodébil.

Finalmente, así como la interacción débil explica cómo surgen partículas con menor masa, también es necesario explicar qué clase de interacción provoca que las partículas adquieran masa. Un intento por aclarar ese fenómeno es el mecanismo de Higgs, pero supone la existencia de una partícula llamada bosón de Higgs, que hasta ahora no se ha encontrado.

 

El mecanismo de Higgs

Una analogía muy citada para describir cómo funciona el mecanismo de Higgs es la siguiente: imaginemos que estamos en un cuarto donde hay una fiesta con mucha gente; de pronto, llega una persona famosa, que en nuestro caso sería la partícula que incrementará su masa. En el momento que entra por la puerta, la gente se aglomera a su alrededor y conforme se mueve atrae más gente. Esto aumentará su resistencia al movimiento, lo que a su vez es indicio de que adquirió masa.

El equivalente del cuarto lleno de gente sería el campo de Higgs y, como el campo electromagnético, se supone que llena el Universo. De hecho, así como un electrón que se mueve a través de una red cristalina de átomos cargados positivamente puede aumentar su masa hasta cuarenta veces, se supondría que una partícula moviéndose por el campo de Higgs lo perturbaría, como lo hace el famoso en la fiesta, y de esta manera adquiriría masa. Sin embargo, como se señaló, el bosón de Higgs es la única partícula del modelo estándar que todavía no se ha encontrado. Suponemos que es una partícula fundamental como las otras, pero realmente no conocemos su naturaleza. Buena parte de los futuros experimentos estarán dedicados a buscar esta partícula, sus propiedades e interacciones. También aquí surgen preguntas interesantes, ¿existe realmente una partícula como el Higgs o es únicamente un recurso matemático y en realidad el mecanismo por el cual adquieren masa las partículas es otro?

Para fines prácticos, el modelo estándar funciona muy bien suponiendo la existencia de esa partícula. Sin embargo, podría ser que el Higgs resultara un condensado de dos fermiones y no una partícula fundamental o bien que hubiera más de uno. Su naturaleza podría revelar interacciones fuertes hasta ahora insospechadas. Por esto, la búsqueda del bosón de Higgs es uno de los aspectos más estimulantes de la actual física de partículas.

Además de todas las partículas mencionadas, por cada una existe su respectiva antipartícula. Las últimas tienen la misma masa que las primeras, pero con todos los números cuánticos opuestos; por ejemplo, carga eléctrica opuesta y carga de color opuesta. Sabemos que sólo observamos cinco por ciento de toda la materia que existe en el Universo, el restante noventa y cinco por ciento es otra forma de materia cuyas propiedades desconocemos —es decir, no es ni materia, ni antimateria—, llamada materia obscura. Además, cabe señalar que el cinco por ciento que observamos es materia, pero no vemos regiones hechas de antimateria. Otra vez surgen preguntas, ¿por qué el cinco por ciento de la materia observable está hecho de materia y no de antimateria?, ¿qué es exactamente la materia obscura?

Por otro lado, por problemas de consistencia de la teoría del campo, sabemos que el modelo estándar probablemente sólo es válido hasta cierto rango de energía. De igual forma que la descripción adecuada para la dinámica a velocidades comparables a la de la luz es la relatividad y para fenómenos a velocidades muy pequeñas comparadas con la de la luz es la dinámica de Newton, pensamos que el modelo estándar sólo es válido hasta cierto punto, después del cual, hay una física que, por lo pronto, no conocemos o una descripción matemática diferente; aunque lo más probablemente es que sea una combinación de ambas.

Las matemáticas son el lenguaje de la física, por eso conceptos como los de elegancia y simplicidad han sido una poderosa guía en nuestra descripción de la naturaleza. Las ecuaciones deben emanar de lo que las haga atractivas, distinguidas y que, igual que en la moda, lleven al deseo de imitarlas. En física, esto significa que si un determinado fenómeno es descrito de manera simple y elegante es probable que esa descripción pueda aplicarse en otras áreas de la física con similar éxito. El mecanismo de Higgs es un buen ejemplo de ello.

Simetría y unificación

Un concepto muy apreciado es el de simetría, por el cual se entiende que una propiedad de las partículas permanece igual cuando sufre un cambio o transformación. Una simetría puede ser algo sencillo, como una rotación, o más complicado, como cambiar de signo la carga de la partícula y hacerle una inversión en el espacio —combinación llamada conjugación de carga y paridad. Ligado al de simetría, otro concepto que prueba ser notablemente útil, eficaz y elegante, es el de unificación, por el cual entendemos que dos fenómenos que se creían no relacionados y se describían de distintas maneras, en realidad pueden describirse de la misma forma y son dos aspectos del mismo fenómeno. Las unificaciones en la física llevaron a descripciones más simples, pero también trajeron sorpresas. La primera fue la de las electricidades, hecha por Faraday. Después el electromagnetismo por ­Maxwell. La unificación de la fuerza débil y el electromagnetismo en la fuerza electrodébil tuvo como consecuencia la incorporación de una nueva partícula al modelo estándar, el bosón de Higgs. Einstein también siguió la idea de unificación, pero en este caso la de la gravedad y el electromagnetismo, simplemente notando que ambas tienen la propiedad de que la intensidad disminuye con el cuadrado de la distancia. Sin embargo, esta no se ha encontrado en la naturaleza. Con el descubrimiento de las fuerzas débil y fuerte quedo claro que la unificación de las interacciones fundamentales se llevaría a cabo en forma más complicada. La de la fuerza electromagnética con la débil resultó en la teoría electrodébil. El siguiente paso sería unificar ésta con la fuerte y eventualmente con la gravedad.

Recientemente se han desarrollado diversas ideas para tratar de explicar algunos de los misterios sobre la estructura de la materia. Sin embargo, no es una tarea sencilla por la exigencia de que debe ser matemáticamente consistente, no contradecir los datos experimentales y, por lo tanto, encajar en el modelo estándar y ser compatible con lo que sabemos de astropartículas y cosmología. Es como armar un rompecabezas gigante y complicado, pero que cuando se termine, nos mostrará una imagen tanto de las partículas fundamentales como del cosmos.

 

Teorías de gran unificación

Los intentos por continuar con la idea de la unificación originaron las teorías de gran unificación o gut —por sus siglas en inglés. En éstas todas las interacciones fundamentales, excepto la gravedad, se unifican a energías muy altas. Las constantes de acoplamiento de las tres fuerzas, que miden con qué intensidad se acoplan a los campos, se vuelven de la misma intensidad a energías muy altas. De manera que existiría una sola fuerza fundamental —la unificada. Esto significa que a estas energías hay una mayor simetría, donde todos los acoplamientos y las masas serían del mismo orden de magnitud, lo que permitiría explicar algunas de nuestras preguntas, como la carga fraccionaria de los quarks, el número de generaciones o los cocientes de masas entre las partículas.
Por otro lado, ya señalamos que las partículas se separan por sus diferentes propiedades —carga eléctrica, carga de color, sabor, entre otras—; una fundamental es el espín, que en el mundo macroscópico sería algo así como la rotación de la partícula sobre su propio eje —lo que se conoce como momento angular—, en el microscópico decimos que el espín es el momento angular intrínseco de la partícula, y mide 0, 1/2, 1, 3/2, etcétera. Los fermiones tienen espín semi-entero y dos iguales no pueden ocupar simultáneamente el mismo estado. Los bosones tienen espín entero y, a diferencia de los primeros, pueden agruparse en un mismo estado. Por lo tanto, tienen propiedades estadísticas muy diferentes. A la simetría entre los bosones y fermiones se le conoce como supersimetría (susy).

La supersimetría dice que por cada bosón o fermión fundamental existe un supercompañero supersimétrico con la estadística opuesta. Es decir, a todos los fermiones les corresponde un bosón y a los bosones un fermión.

La idea de unificar bosones y fermiones no sólo es muy atractiva, sino que además, desde el punto de vista matemático, resulta en una teoría mejor comportada, que resolvería algunos de los problemas de consistencia matemática del modelo estándar. Sin embargo, en los actuales experimentos no se observa esta clase de simetría, los bosones y fermiones fundamentales no están relacionados entre sí. Esto significa que o bien la supersimetría no existe o si existe debe manifestarse a energías más altas de las que tenemos en los laboratorios —se dice que a energías bajas la simetría está rota. Por esto, si uno construye una teoría supersimétrica como una extensión del modelo estándar, los supercompañeros de las partículas elementales que observamos tendrían que tener masas muy grandes. Este es otro de los temas fundamentales que se habrán de explorar en futuros aceleradores. Una notable consecuencia de la supersimetría es que la materia oscura sea uno de estos compañeros supersimétricos.

Las dos simetrías mencionadas tienen ventajas y belleza, pero la combinación sale aún mejor. Al extrapolar a energías altas los valores de las constantes de acoplamiento en teorías con supersimetría resulta que éstas convergen de manera más clara que en las teorías gut sin supersimetría. Esto significa que a energías muy altas —o en distancias muy pequeñas— sólo habría una interacción fundamental además de la gravedad. Este resultado, combinado con las ventajas que por separado presentan las teorías gut y la supersimetría, hace que las teorías supersimétricas de gran unificación sean muy populares.

Cabe señalar que los intentos por unificar las cuatro fuerzas fundamentales siempre presentan problemas en el caso de la gravedad. Si tratamos la teoría de la relatividad general con la misma descripción matemática que las otras teorías, surgen inconsistencias manifestadas en cantidades infinitas que no se pueden desaparecer

—regularizar. Así, la teoría resultante no tiene sentido. Sin embargo, cuando la supersimetría, que es una simetría global —que se transforma uniformemente a través del espacio-tiempo—, la volvemos local; es decir, cuando hacemos que sus transformaciones varíen en el espacio-tiempo, aparece una partícula con las propiedades del gravitón. De manera que al tratarla como una simetría local, la supersimetría se conecta con la relatividad general y la gravedad queda automáticamente incluida. Más aún, estas teorías parecen estar libres de algunas de las mencionadas cantidades infinitas. Esto se debe al efecto de los supercompañeros predichos por la supersimetría. Sin embargo, todavía sería necesario encontrar el gravitón, la partícula que media la gravedad y que, en contraste con las otras partículas mediadoras de la fuerza, tiene espín 2. ¿Será que realmente existe?

Por otro lado, como suponemos que la gravedad es válida en distancias extremadamente pequeñas, entonces una descripción microscópica de la gravedad implica hablar de la curvatura del espacio-tiempo en esas distancias, con métodos cuánticos; es decir, probabilidades. Inmediatamente surgen varias preguntas, ¿es la relatividad general una teoría válida en distancias pequeñísimas?, ¿es realmente posible una descripción cuántica de la gravedad?, y si es así, ¿son las matemáticas que estamos usando las adecuadas? Formulado de otra manera, ¿cuál es la descripción correcta del espacio-tiempo en distancias arbitrariamente pequeñas? Ya sabemos por la relatividad general que una masa grande deforma el espacio-tiempo, en distancias pequeñísimas, ¿cuál es el efecto de la masa en el espacio-tiempo y viceversa?

Teoría de cuerdas

 

En paralelo al esfuerzo de unificación, creció el interés en continuar con la descripción geométrica del espacio-tiempo. La idea es que tanto las partículas como sus masas pueden describirse geométricamente.

A principios del siglo XX, Theodor Kaluza intentó unificar la teoría general de la relatividad con el electromagnetismo introduciendo una quinta dimensión en sus cálculos. Así logró describir las dos con el mismo formalismo. Sin embargo, parecía sólo un truco matemático, porque no observa ninguna dimensión espacial, además de las que conocemos. Años después, Oscar Klein propuso que esta quinta dimensión podría estar enrollada en sí misma como un pequeño cilindro o un popote. Entonces desde lejos sólo se ve una línea, pero si se es del tamaño de esta dimensión —una hormiga, por ejemplo— podría desplazarse a lo largo del popote o alrededor del mismo. En esta quinta dimensión, la gravedad se comporta exactamente como el electromagnetismo en las cuatro dimensiones que conocemos. A las teorías del campo que contienen esta clase de dimensiones extra se les conoce como teorías de Kaluza-Klein.

Una idea que combina todas estas posibilidades es que las partículas en distancias muy pequeñas sean bi-dimensionales; es decir, cuerditas. Una cuerda además de desplazarse, como lo hace un punto, también puede vibrar y son precisamente estas vibraciones las que percibimos como partículas. Diferentes modos de vibración corresponderían a diferentes partículas. Por tanto, sólo habría un componente fundamental, la cuerda y sus distintos modos de vibración. Una propiedad sorprendente de esta descripción, que condujo a muchos teóricos al estudio de las teorías de cuerdas, es que una de estas vibraciones correspondería al gravitón. Es decir, la gravedad aparece naturalmente unificada con las otras interacciones fundamentales. Para ser más precisos, resulta en algo que coincide con la relatividad general para distancias en las que ésta es una descripción adecuada, pero para distancias más pequeñas —las de las cuerdas— resulta en una teoría que no tendría los problemas que aparecen en una unificación tradicional. Esto parecería el fin de nuestra búsqueda si no fuera por varios detalles, la teoría debe ser matemáticamente coherente y si trata de las partículas y sus interacciones, debe describirlas. Por consistencia matemática, las teorías de cuerdas deben incluir la supersimetría. Además, ¡las cuerdas deben existir —en su versión más sencilla— en seis dimensiones espaciales más de las que conocemos! Éstas se encuentran enrolladas en sí mismas —como en las teorías de Kaluza-Kelin— razón por la cual no las vemos.

Además, en teoría de cuerdas aparecen unos objetos llamados branas. El nombre deriva de la generalización de una membrana en más dimensiones. Una cero-brana sería una partícula, uno-brana una cuerda, dos-brana una superficie y así sucesivamente. Se les conoce como D-branas o Dp-branas, donde el prefijo p denota la dimensión. Las cuerdas cerradas pueden moverse libremente, pero las abiertas tienen sus extremos fijos a una D-brana. Cuando una cuerda cerrada se acerca a una D-brana puede abrirse y pegarse a ella. Como el gravitón correspondería en la descripción de cuerdas a la vibración de una cuerda cerrada y las partículas fundamentales a las vibraciones de cuerdas abiertas, la gravedad podría desplazarse entre las branas —espacio conocido como bulto o bulk—, pero las otras interacciones estarían condenadas a vivir sobre la brana. Una propuesta es que nuestro Universo es una D3-brana en un espacio de más dimensiones, pero no podemos observarlas por no poder despegarnos de ella. Sólo la gravedad podría escapar de la brana. Recientemente, existe mucho interés en esta área de la física teórica y las matemáticas por la conexión que provee entre la geometría diferencial y algebraica, descripciones de la mecánica cuántica de hoyos negros y posibles nuevas teorías cosmológicas. Las matemáticas de las dimensiones extra en estas teorías se pueden trasladar a la física de cuatro dimensiones en forma determinada por los tipos de D-branas y por cómo se envuelven en la geometría interna del espacio, de manera que aparecen como partículas en cuatro dimensiones.

Los últimos adelantos en teoría de cuerdas indican que sólo hay cinco consistentes matemáticamente. Todas tienen diez dimensiones —una espacial y nueve temporales— y son supersimétricas. Más aún, todas son equivalentes entre sí y a una teoría de supergravedad en once dimensiones.

La cosa se complica cuando queremos hacer contacto con las partículas e interacciones que observamos. Conforme vamos a energías más bajas, o distancias más grandes, deberíamos pasar suavemente de la teoría de cuerdas al modelo estándar, quizás transitando por una teoría de gran unificación, una teoría de Kaluza-Klein o alguna combinación. Sin embargo, son innumerables las formas que pueden tomar las dimensiones compactas y, además, en las teorías de cuerdas aparecen muchas más partículas de las que observamos. Por esto, no existe ni con mucho un sólo camino, ni siquiera una sola clase de caminos, para llegar a la descripción de bajas energías. No obstante, los desarrollos matemáticos de las teorías de cuerdas y branas son impresionantes y, en algunos casos, ya se han aplicado con éxito en otras ramas de la física, como en el caso de ciertos aspectos de dinámica de membranas en biofísica.

A pesar de los espectaculares avances en la física y las matemáticas en el último siglo, la verdadera naturaleza del espacio-tiempo, de las partículas elementales y de las fuerzas fundamentales todavía nos elude. En buena medida, debido a la falta de información experimental que proporcione una guía y probablemente a que todavía se necesitan más desarrollos matemáticos. Sin embargo, los experimentos en los aceleradores futuros están diseñados precisamente para tratar de contestar o dar luz a muchas de estas preguntas. Por otro lado, las observaciones cosmológicas, aunque lejos de tener la precisión de un experimento controlado en el laboratorio, se han perfeccionado y son más precisas en los años recientes. Los observatorios de rayos cósmicos también suministrarán información sobre partículas ultraenergéticas y sus posibles conexiones con algunas de las extensiones del modelo estándar y cosmología. Las matemáticas seguirán desarrollándose para describir estas observaciones. Pero, como siempre, la última palabra será de la naturaleza, que a pesar de la gran imaginación en todas las ideas que se han descrito, seguramente volverá a sorprendernos.
 
Instituto de Física,
Universidad Nacional Autónoma de México.
Referencias bibliográficas
Greene, B. 2001. El universo elegante: supercuerdas,
dimensiones ocultas y la búsqueda de una teoría
final. Planeta.
Penrose, R. 2004. The road to reality: a complete
guide to the laws of the Universe. Jonathan Cape.
_______________________________________________________________

 

como citar este artículo

Mondragón, Myriam. (2005). La física del siglo XXI. Ciencias 80, octubre-diciembre, 24-32. [En línea]
 
 
  ←Regresar al índiceartículo siguiente→
1 12
     
La hipótesis cuántica de la luz
 
En 2005 se celebra el centenario de los trabajos de Albert Einstein, publicados en Annalen der physik, que llevaron a reconocer nuevas propiedades de la luz, la materia, el espacio y el tiempo.
Eugenio Ley Koo
conoce más del autor
     
     
HTML ↓ PDF ←Regresar al índiceartículo siguiente→
     
     
 
 
En 2005 se celebra el centenario de los trabajos de Albert Einstein, publicados en Annalen der physik, que llevaron a reconocer nuevas propiedades de la luz, la materia, el espacio y el tiempo. En ellos, conocidos en la literatura como los artículos sobre el efecto fotoeléctrico, el movimiento browniano y la relatividad, abordó problemas de frontera para la época, asociados a preguntas sobre la luz ¿ondas o corpúsculos? y ¿existe el éter luminífero?, y sobre la materia ¿existen los átomos? Para las dos primeras, las respuestas de consenso eran ondas y que el éter si existe con base en la teoría electromagnética de Maxwell. Para la tercera, había premios Nobel de física y de química que respondían “la hipótesis atómica no es necesaria para entender el comportamiento de la materia”. Einstein, en el trabajo sobre movimiento browniano, proporciona los métodos para validar o rechazar la hipótesis atómica; los experimentos favorecieron la validación y permitieron contar el número de átomos y determinar sus tamaños. En el artículo sobre la relatividad, responde a la segunda pregunta “la introducción de un éter luminífero es superflua”. Mientras que en el texto sobre el efecto fotoeléctrico, la primera pregunta se transforma y sugiere la respuesta ondas y partículas; pero durante veinte años los problemas que reconoció y sus sucesivos argumentos no fueron aceptadas por algunos de sus más destacados contemporáneos, como Planck, Bohr y Millikan. La validación de la hipótesis cuántica de la luz en el nivel experimental se produjo con los trabajos de Compton y de Bothe y Geiger sobre la dispersión de rayos X por electrones. La aceptación final de la propuesta de Einstein coincide cronológicamente con la formulación de la mecánica cuántica en 1925.
 
 
En el año 2000 se celebró el centenario del quantum, con motivo del trabajo de Max Planck para describir la ley de radiación de cuerpo negro —objeto que absorbe toda la luz que incide sobre él— con base en mediciones experimentales. También logró deducirla a partir de argumentos de electrodinámica, termodinámica y mecánica estadística, donde introdujo la hipótesis de que los intercambios de energía entre la materia —modelada a través de osciladores— y la radiación se realizan por medio de “elementos de energía”, denominados hf, proporcionales a la frecuencia de la radiación. Al comparar los resultados de la ley deducida y las mediciones experimentales del espectro de frecuencias de la radiación a determinada temperatura, Planck obtuvo los valores de la constante de Boltzmann y la constante de acción. A partir de éstas, también obtiene el número de Avogadro, utilizando la constante de los gases ideales; y la carga del electrón, usando el valor medido por Faraday para la cantidad de electricidad asociada a los iones de un mol —número de gramos de un compuesto, igual a su peso molecular— en la separación electrolítica.
 
En su artículo de marzo de 1905, Einstein contrasta la naturaleza discreta de la materia, según la teoría cinética, y la naturaleza continua de la luz, según la teoría electromagnética de Maxwell. La energía de una porción de materia se escribe como la suma de las energías de sus átomos componentes. La de la radiación electromagnética es una función espacial continua. En particular, la energía de la luz emitida por una fuente puntual se distribuye continuamente en un volumen ininterrumpidamente creciente.
 
 
Reconoce que la teoría ondulatoria de la luz tiene una base experimental, y que es válida en los fenómenos de propagación, reflexión, refracción y difracción. Pero advierte que tal teoría, basada en funciones espaciales continuas, puede conducir a contradicciones al aplicarse en fenómenos de emisión y transformación de la luz. En relación con las observaciones sobre radiación de cuerpo negro, fluorescencia, producción de rayos catódicos por luz ultravioleta y otros procesos de emisión y absorción de la luz, se tiene un mejor entendimiento con base en el supuesto de que la energía de la luz se distribuye de manera discontinua en el espacio. Según su hipótesis “la energía de un rayo de luz que parte de una fuente puntual no se distribuye continuamente en el espacio ininterrumpidamente creciente, sino consta de un número finito de cuantos que se localizan en diversos puntos del espacio, que se mueven sin dividirse y que pueden ser producidos y absorbidos solamente como unidades completas”.
 
En la primera sección del artículo considera el límite de bajas frecuencias de la ley de radiación de cuerpo negro, obtenido previamente por Rayleigh y Jeans, con base en la energía promedio de los osciladores materiales en equilibrio termodinámico con la radiación y el principio de equipartición. Planck reemplazó este principio por su hipótesis de elementos de energía para evitar la catástrofe ultravioleta —límite en que se favorece la presencia de radiación de alta frecuencia y el crecimiento ilimitado de la energía total—, y encontró la ley de radiación de cuerpo negro que concuerda con las mediciones experimentales. En la segunda sección, Einstein señala que la determinación de las constantes fundamentales en el trabajo de Planck depende sólo del límite de altas temperaturas y bajas frecuencias de su fórmula completa. Mientras la teoría ondulatoria de la radiación y la teoría cinética, que conducen al principio de equipartición, son aplicables en dicho límite, Einstein reconoce sus fallas en otro, como lo había descrito correctamente Wien. En las siguientes cuatro secciones, usa los métodos de la termodinámica y la mecánica estadística, aplicados a la radiación y la materia, para identificar la energía del cuanto de luz. Mientras que en las tres últimas explica la relación de frecuencias de la luz fluorescente y la luz que la induce; describe la energía cinética de los fotoelectrones en términos de la energía del cuanto y la función de trabajo; y expone la relación entre la energía del cuanto y la energía de ionización.
 
Es importante destacar la diferencia entre el elemento de energía de Planck y el cuanto de luz de Einstein. El primero fue introducido específicamente en conexión con el intercambio de energía entre la materia y la radiación en equilibrio termodinámico a determinada temperatura. Einstein identifica al cuanto de luz como la energía de cada partícula asociada a la radiación electromagnética. Planck y sus contemporáneos no podían aceptar esta idea que equivalía asociarle propiedades corpusculares a la luz. Consideraban que la teoría electromagnética de la luz, desarrollada en el siglo xix, había respondido definitivamente la pregunta ¿ondas o corpúsculos? sobre la naturaleza de la luz, a favor de las primeras. Es interesante señalar que en los trabajos de Einstein, entre 1905 y 1909, al aplicar el método de fluctuaciones, que desarrolló en conexión con su estudio del movimiento browniano, al problema de radiación de cuerpo negro, en los límites de Rayleigh-Jeans y de Wien coexisten los comportamientos ondulatorio y corpuscular de la radiación electromagnética, dominando uno y otro en los límites respectivos.
En su trabajo de 1913 sobre el átomo de hidrógeno, Bohr reconoció las limitaciones de la mecánica de Newton y la teoría electromagnética de Maxwell para entender el espectro de radiaciones característico de ese elemento. Para remediarlas, introdujo el postulado de órbitas estacionarias, con el fin de asegurar que el electrón no radia mientras se mueve en una de ellas, y el postulado de la radiación asociada a saltos cuánticos del electrón entre dos de tales órbitas con una frecuencia que sigue de aplicar la hipótesis de Planck, pero también la hipótesis cuántica de Einstein. En todo caso, Bohr se definió por la primera y rechazó la segunda.
 
Por su parte, a partir de 1911, Millikan inició una serie de mediciones sistemáticas sobre el efecto fotoeléctrico, con el expreso propósito de mostrar que la ecuación de Einstein para tal efecto no era válida. Después de varios años, sus mediciones mostraron que la energía de los fotoelectrones varía linealmente con la frecuencia de la luz, y la pendiente es la constante de acción de Planck. Entonces aceptó que la ecuación de Einstein describe correctamente el fenómeno, pero subrayó que la hipótesis cuántica de la luz no puede ser aceptada. Durante la siguiente década, este tipo de posiciones se extendieron, a pesar de que Einstein recibió el Premio Nobel en 1921 por su trabajo sobre el efecto fotoeléctrico.
 
En 1917 Einstein dedicó un ar­tículo titulado “Teoría cuántica de la radiación” para deducir la ley de Planck de radiación de cuerpo negro, considerando el equilibrio termodinámico entre átomos o moléculas, con dos niveles discretos de energía, y el campo de radiación. Introdujo los conceptos de emisión espontánea, emisión estimulada y absorción estimulada en átomos, como procesos resultantes de sus interacciones con el campo de radiación. También reconoció que el cuanto de luz posee una cantidad de movimiento.
 
 
El artículo consta de siete secciones. En la primera, “Hipótesis fundamental de la teoría cuántica. Distribución canónica de estados”, adopta la distribución exponencial de Boltzmann para describir la ocupación de los niveles de energía de un sistema de átomos. En la segunda, “Hipótesis sobre el intercambio radiativo de energía”, define los diversos procesos de emisión y absorción. En la tercera, “Derivación de la ley de radiación de Planck”, establece la condición de equilibrio entre los átomos de dos niveles y el campo de radiación. La cuarta, “Un método para calcular el movimiento de las moléculas en el campo de radiación”, está encaminada a asegurar que ese movimiento sea compatible con la distribución de Maxwell o de Boltzmann para las moléculas a la misma temperatura que la radiación. En la quinta calcula el promedio de la cantidad de movimiento transferida del campo de radiación a las moléculas, y en la sexta el valor medio cuadrático de la misma. La última contiene sus conclusiones: la absorción o emisión de un cuanto de luz con energía hf —donde h es la constante de acción de Planck y f la frecuencia— por una molécula es acompañada por una transferencia de cantidad de movimiento hf/c —donde c es la velocidad de la luz en el vacío—, en la dirección de la luz absorbida y en la dirección opuesta de la luz emitida, respectivamente; la emisión espontánea también es direccional, y no existe radiación saliente como onda esférica —reforzando en este punto la hipótesis cuántica formulada en 1905—; la dirección de retroceso de la molécula en los procesos estimulados queda determinada por la radiación, pero en la emisión espontánea es un proceso al azar.
 
Einstein señala que su modelo de moléculas con dos niveles desempeña el papel del modelo de osciladores de Planck, y que la hipótesis cuántica de la luz conduce de manera natural tanto al postulado de radiación de Bohr como a la ley de radiación de Planck. Subraya que la transferencia de cantidad de movimiento a las moléculas asociada a la absorción y emisión de radiación es indispensable para entender la coexistencia de la distribución de Boltzmann para la materia y la distribución de Planck para la radiación, cuando ambas se encuentran a la misma temperatura. La conexión con la teoría ondulatoria sigue siendo elusiva, y el carácter azaroso de la direccionalidad de la radiación emitida espontáneamente constituye un nuevo problema.
 
Varios artículos publicados entre 1923 y 1924 resultaron relevantes para responder la pregunta ¿ondas o partículas? acerca de la luz. Se trata de los trabajos de Compton, de Bohr, Kramers y Slater, y de Bose, mencionados en orden cronológico de publicación. El último está conectado con la hipótesis cuántica, mientras que los otros dos se escribieron independientemente de dicha hipótesis y como alternativa a ella, respectivamente.
 
Bose envió su trabajo al Philosophical Magazine a fines de 1923. A mediados del siguiente año, recibió la respuesta de no aceptación por parte del editor y decidió enviárselo a Einstein, pensando que él si lo entendería, y pidiéndole que, si le parecía correcto, buscara a alguien para traducirlo al alemán y enviarlo al Zeitschrift für Physik. Efectivamente, Einstein apreció lo novedoso del trabajo, lo tradujo y lo envió con el título “La ley de Planck y la hipótesis del cuanto de luz”, incluyendo un comentario al final: “En mi opinión la deducción de Bose de la ley de Planck constituye un avance importante. El método usado también conduce a la teoría cuántica del gas ideal como lo reportaré en otro lugar”.
 
Bose tomó como punto de partida la hipótesis cuántica de la luz, suponiendo que la radiación está formada por cuantos de luz con energía (e=hf) y cantidad de movimiento (p=e/c=hf/c). Introdujo un nuevo método para contar el número de estados microscópicos dividiendo el espacio fase de un cuanto de luz en celdas de tamaño h3, siendo h el cuanto de acción —cantidad de movimiento por desplazamiento— de Planck.
 
 
Aunque Bose afirma que siguió los métodos de Boltzmann de la mecánica estadística, donde se cuenta el número de partículas, él cuenta el número de celdas. En todo caso, al maximizar la entropía de la distribución de cuantos de luz en el espacio fase, a una temperatura T, obtuvo la ley de distribución de Planck. Bose le mostró a Einstein su determinación del factor que aparece en la aproximación Rayleigh-Jeans y en la distribución de Planck a partir de las propiedades de cantidad de movimiento del cuanto de luz y sin necesidad de invocar la electrodinámica. Para Einstein, esta deducción de la ley de Planck es importante porque permite reconocer que la radiación está formada por partículas relativistas de masa cero. En la deducción de Bose también está implícito que el número de partículas no se conserva.
 
Aunque los artículos de Einstein de 1906 a 1909 sugieren la coexistencia de los comportamientos ondulatorio y corpuscular en la luz, el trabajo de Bose lo convenció de la necesidad de admitir que el cuanto de luz corresponde a partículas de luz. El nombre de fotón para tales partículas se debe al fisicoquímico estadounidense Gilbert Newton Lewis en un trabajo de 1926 que tituló “La conservación de fotones”, aunque su concepto de átomo de luz no corresponde al cuanto de luz de Einstein.
 
El dilema sobre la naturaleza ondulatoria o corpuscular de la luz, se manifestó de manera práctica y específica en conexión con los rayos X desde su descubrimiento por Roentgen en 1895 hasta la década de los años veintes del siglo pasado. La naturaleza ondulatoria de los rayos X fue descubierta y aplicada en cristalografía por Von Laue y los Bragg desde 1912. Maurice de Broglie extendió las mediciones del efecto fotoeléctrico a la región de rayos X, confirmando la validez de la ecuación de Einstein hacia fines de la primera guerra mundial.
 
El trabajo de A. Compton describe la colisión entre un rayo X individual con energía (e=hf) y cantidad de movimiento (p=hf/c) con un electrón inicialmente en reposo, como si fuera un choque entre bolas de billar, y determina la energía del rayo X dispersado y del electrón golpeado en función del ángulo de salida de uno de ellos. Esta descripción coincide con las mediciones realizadas por el mismo autor. Mientras este efecto Compton hace uso de propiedades corpusculares de los rayos X, es interesante notar que en el mismo período publicó un artículo en el cual el fenómeno estudiado es típicamente una manifestación de comportamiento ondulatorio. Aunque las propiedades de los rayos X que supone Compton coinciden con las del cuanto de luz, él no hace referencia al trabajo de Einstein.
 
Por su parte, el trabajo de Bohr, Kramers y Slater fue escrito como una alternativa a la hipótesis cuántica de la luz. Para evitarla, así como sus consecuencias, Bohr estuvo dispuesto a suponer que en los procesos individuales no eran válidas la conservación de energía y de cantidad de movimiento, aceptando la última sólo en forma estadística. Las cuidadosas mediciones sobre el efecto Compton de las energías correlacionadas del rayo X y el electrón dispersados por Bothe y Geiger, y por Compton y Simon, iniciadas en 1924 y publicadas en 1925, corroboraron que la conservación ocurre a nivel individual y no estadístico. Bohr aceptó que la alternativa propuesta no funcionó.
 
 
Finalmente, después de veinte años se reconoció que la luz es descrita adecuadamente por la teoría electromagnética de Maxwell en su comportamiento ondulatorio y por la hipótesis cuántica de la luz de Einstein en su comportamiento corpuscular al interactuar dinámicamente con la materia.
 
Formulación de la mecánica cuántica
 
Los desarrollos de la mecánica cuántica durante el período de 1900 hasta 1925, conocidos como la mecánica cuántica antigua, comprenden la formulación de la ley de radiación de cuerpo negro por Planck, la hipótesis cuántica de la luz de Einstein y el trabajo de Bohr sobre los átomos, todos con sus múltiples extensiones y aplicaciones. La cuantización de la acción, de la energía y la cantidad de movimiento de la radiación, así como la cuantización de los niveles de energía de los átomos señalan el abandono de las ideas de la mecánica y electrodinámica clásicas. En 1925 se presenta la formulación matricial de la mecánica cuántica por Heisenberg y un año después, la formulación ondulatoria por Schrödinger.
 
 
El reconocimiento final de que la luz exhibe tanto un comportamiento ondulatorio como uno corpuscular es contemporáneo con la propuesta de Louis de Broglie, en 1923, de que la materia además de su comportamiento corpuscular, tradicionalmente aceptado, debe tener también uno ondulatorio. Esta hipótesis fue encontrada por de Broglie al tratar de entender el espectro discreto de energía asociado a los átomos. Algunos ejemplos de sistemas clásicos con espectros discretos están en instrumentos musicales y en cavidades de resonancia electromagnética, en los cuales se reconoce la presencia de ondas acústicas y ondas de radiación estacionarias, respectivamente. La selección de órbitas circulares estacionarias por Bohr en el átomo de hidrógeno es explicada por de Broglie como la condición para que en la órbita de determinada longitud algunas ondas interfieran constructivamente, y también sean estacionarias. La longitud de onda de las ondas propuestas por de Broglie es inversamente proporcional a la cantidad de movimiento de la partícula material, el electrón en el presente ejemplo. Schrödinger adoptó esta propuesta y reconoció que la cuantización debe poder escribirse en términos de una ecuación de onda y los niveles de energía discretos de un sistema material corresponden a las soluciones de un problema de valores propios. Para 1926, identificó las ecuaciones que llevan su nombre, en sus versiones dependientes e independientes del tiempo, aplicándolas sucesivamente para encontrar las descripciones ondulatorias del átomo de hidrógeno, el oscilador armónico, etcé­tera. En 1927, se tuvieron evidencias experimentales de difracción de electrones, por un cristal de níquel realizado por Davisson y Germer y por láminas delgadas de diferentes materiales por G. P. Thomson. Esto confirmó la hipótesis ondulatoria de Louis de Broglie incluyendo el valor cuantitativo de la longitud de onda. La aceptación de que el electrón posee propiedades corpusculares y ondulatorias fue mucho más rápida que la del cuanto de luz. Einstein se mostró muy receptivo con las ideas y trabajos de L. de Broglie y de Schrödinger.
 
Heisenberg llegó a la versión matricial de la mecánica cuántica en su intento de sistematizar la información sobre las intensidades y frecuencias de las radiaciones emitidas o absorbidas por los átomos, reconociendo que éstas son las cantidades medibles espectroscópicamente. En 1925 trata de establecer las bases para una mecánica cuántica teórica sustentada exclusivamente en relaciones entre cantidades que sean observables en principio. Reconoce que en el caso de átomos, las cantidades medidas espectroscópicamente pertenecen a esta categoría, en contraste con otras como la posición y la velocidad del electrón que no pueden observarse en los átomos. Para las últimas propone desarrollos de Fourier en el tiempo con frecuencias determinadas por la condición de Bohr-Einstein y coeficientes que llama amplitudes de transición, cuyos cuadrados en valor absoluto identifica como cantidades observables por ser proporcionales a las probabilidades de transición entre dos estados estacionarios, los cuales corresponden al coeficiente de emisión espontánea de Einstein. Entre las aplicaciones, establece la conexión con la teoría de dispersión de Kramers y analiza la radiación de un oscilador anarmónico y de un rotador. En el proceso encuentra que el producto de amplitudes de transición asociadas a diferentes cantidades es no conmutativo.
 
Heisenberg pidió a Born que leyera su manuscrito y decidiera si merecía ser publicado. Born lo encontró interesante y reconoció que el producto de amplitudes corresponde al producto de matrices, entendiendo bajo qué condiciones es conmutativo o no. Envió el manuscrito de Heisenberg para su publicación y comenzó a trabajar con Jordan en la interpretación y extensión de sus resultados con base en las propiedades de matrices. El trabajo de Born y Jordan incluye la identificación de la multiplicación encontrada por Heisenberg como una multiplicación de matrices, la demostración de conservación de energía y de la condición de frecuencia de Bohr, así como la incorporación de las leyes del campo electromagnético en el nuevo formalismo. Mientras los dos primeros trabajos con uno y dos autores sobre la formulación matricial de la mecánica cuántica se limitaron a sistemas de una dimensión, el artículo de los tres autores, M. Born, W. Heisenberg y P. Jordan, cubre sistemas de varias dimensiones, incluye una parte sobre mecánica matricial y otra sobre cuantización del campo electromagnético y cálculo de fluctuaciones del mismo.
 
Durante el verano y el otoño de 1925 Heisenberg estuvo en Copenhague y en Cambridge difundiendo los avances de los desarrollos de la mecánica matricial. Y en enero de 1926, Pauli envió el artículo “Sobre el espectro del átomo de hidrógeno desde el punto de vista de la nueva mecánica” al Zeitschrift für Physik, y Dirac envió “Mecánica cuántica y una investigación preliminar sobre el átomo de hidrógeno” a Proceedings of the Royal Society.
 
En el mismo año Schrödinger demostró la equivalencia entre las formulaciones matricial y ondulatoria de la mecánica cuántica. Poco tiempo después, Dirac presentó su versión de esta equivalencia con un tratamiento más abstracto y general, reconociendo adicionalmente la conexión con la mecánica clásica. Las ecuaciones de la mecánica cuántica se obtienen a partir de las ecuaciones de la mecánica clásica hamiltoniana, reemplazando las cantidades físicas por operadores o matrices, y convirtiendo paréntesis de Poisson en conmutadores.
 
La poca familiaridad de los físicos con matrices, en contraste con su conocimiento sobre ondas, determinó sus preferencias sobre las dos versiones de la mecánica cuántica. Heisenberg investigó el átomo de helio con la versión ondulatoria y Born hizo lo mismo al investigar el problema de dispersión. Mientras que Pauli desarrolló la descripción matricial del momento angular intríseco o el espín del electrón.
 
A finales de 1924, inmediatamente después de recibir el trabajo de Bose, Einstein aplicó el método de contar el número de estados microscópicos y su distribución en las celdas del espacio fase para el caso del gas atómico cuántico. Las diferencias con respecto al caso estudiado por Bose es que los átomos tienen masa y su número se conserva. La publicación del trabajo se efectuó en dos partes. En la primera, introduce lo que se llama la distribución de Bose-Einstein, que difiere de la de Planck en la presencia del término correspondiente al potencial químico. Analiza las desviaciones perturbativas a altas temperaturas de la distribución del gas ideal clásico y verifica la consistencia de la distribución cuántica y la tercera ley de la termodinámica, formulada por Nernst diez años antes, de que la entropía tiende a anularse cuando la temperatura tiende al cero absoluto. En la segunda parte, que apareció publicada a principios de 1925, reconoce la posibilidad de que a una temperatura suficientemente baja ocurra una transición de fase en la que los átomos del gas ocupan de manera creciente el estado de energía más baja. Este fenómeno se conoce con el nombre de condensación de Bose-Einstein.
 
Ehrenfest y otros colegas señalaron que en los trabajos de Bose y Einstein, los cuantos y los átomos no son tratados como estadísticamente independientes. Einstein aceptó el señalamiento, subrayando que las diferencias en las formas de contar como Boltzmann y como Bose “expresan indirectamente cierta hipótesis sobre una influencia mutua de las partículas que por el momento es de una naturaleza muy misteriosa”.
 
En 1925 Pauli formuló el llamado principio de exclusión. Bohr, al estudiar los átomos, reconoció que los electrones ocupan los estados estacionarios con energías crecientes de manera sucesiva, resultando la llamada estructura de capas, en vez de ocupar todos el estado más bajo de energía. El principio de exclusión trata de justificar ese comportamiento establecido experimentalmente al afirmar que “en el átomo cada estado cuántico electrónico puede ser ocupado por un solo electrón”. Entonces, el estado más bajo de un átomo no puede ser aquel en que todos los electrones ocupan el de más baja energía, sino que los electrones ocupan los estados con energías sucesivamente crecientes debido a la limitación del principio de exclusión.
 
Para 1926, Fermi publicó un artículo que difiere del trabajo de Einstein porque se aplica en átomos que deben de satisfacer el principio de exclusión con respecto a los estados cuánticos de energía disponibles para ellos. Mientras el número de ocupación de un estado cuántico puede ser mayor que uno para el gas clásico, o el estudiado por Einstein, en el presente caso ese número sólo puede ser cero o uno. La forma de contar que introduce Fermi es diferente de la de Boltzmann y la de Bose; aunque mantiene la idea de celdas en el espacio fase introducida por el último.
 
En la segunda mitad del mismo año, Dirac aborda el mismo problema del gas cuántico en sus dos versiones, la de Einstein y la de Fermi, pero sin citar la referencia al último. Reconoce que las partículas idénticas en la descripción cuántica son indistinguibles y que las funciones de onda para sistemas de ellas poseen simetría de intercambio, estableciendo que bajo el intercambio de dos de las partículas la función de onda no cambia en el caso estudiado por Einstein, y se dice que es simétrica, y cambia de signo en el caso de partículas sujetas al principio de exclusión de Pauli, para las cuales la función se dice que es antisimétrica. Las simetrías respectivas se traducen en que los bosones —partícula de espín entero que se comportan de acuerdo a la estadística de Bose-Einstein— tienden a ocupar el mismo estado cuántico, explicando la influencia mutua y misteriosa mencionada por Einstein para responder a Ehrenfest; y en que los fermiones —partícula de espín semi-entero que se comportan de acuerdo a la estadística de Fermi-Dirac— no pueden ocupar el mismo estado cuántico como lo establece el principio de exclusión, que es una consecuencia de la condición de antisimetría de la función de onda.
 
Dirac inició el desarrollo de la electrodinámica cuántica en 1927. Introdujo operadores de creación y aniquilación de fotones que satisfacen reglas de anticonmutación para describir los procesos de emisión y absorción de radiación por sistemas de partículas cargadas, desarrollando el método de segunda cuantización. También encontró las fórmulas para calcular los coeficientes de emisión espontánea, emisión estimulada y absorción introducidos por Einstein diez años antes.
 
 
Born identificó la función de onda como una amplitud de probabilidad, cuyo cuadrado en valor absoluto representa una densidad de probabilidad. Heisenberg formuló el principio de incertidumbre, reconociendo que el concepto clásico de órbita deja de tener sentido en el nivel cuántico. Bohr formuló el principio de complementariedad, que permite reconocer las condiciones en que ciertos conceptos y otros alternos son aplicables o no. La interpretación de la mecánica cuántica sobre estas bases transformó el debate inicial sobre ondas o partículas, en uno sobre si era o no una descripción completa de la realidad física.
 
Discusión
 
A partir del trabajo de Einstein de 1917, desde 1955 se logró la invención de amplificadores de microondas —luz y rayos X— por emisión estimulada de radiación, conocidos con los acrónimos de maser, laser y x-raser. Sus aplicaciones son múltiples y bien conocidas, destacando el desarrollo de la óptica y las espectroscopías no lineales.
 
 
Del trabajo de 1925 sobre la condensación de Bose-Einstein puede mencionarse que los fenómenos de superconductividad, descubierto por Kammerling Onnes en 1911, y de superfluidez son estudiados como manifestaciones de tal condensación. Experimentos encaminados a producir el cambio de fase de gas atómico a condensado de Bose-Einstein se iniciaron desde la década de los años ochentas del pasado siglo por Klepner usando técnicas de criogenía convencional con hidrógeno atómico. En 1995, las técnicas de atrapamiento y enfriamiento de átomos usando luz láser culminaron con la condensación de Bose-Einstein de un gas de rubidio atómico, logrando temperaturas extremadamente bajas. Otros experimentos con diferentes átomos alcalinos también mostraron su condensación de Bose-Einstein en ese año y los siguientes. Poco después también Klepner la logró en hidrógeno.
 
El núcleo atómico fue descubierto por Rutherford en 1911, y el neutrón por Chadwick en 1932, identificándolo como una partícula componente del núcleo. Los procesos de decaimiento y las reacciones nucleares permitieron reconocer nuevas interacciones de los componentes del núcleo. A partir de los años treintas esos sistemas y procesos se han estudiado usando los métodos de la mecánica cuántica.
 
 
En el estudio de los rayos cósmicos, y también en aceleradores de partículas, se han producido e identificado cientos de nuevas formas de materia que se conocen con el nombre genérico de partículas elementales. También su estudio ha estado guiado por la mecánica cuántica.
Eugenio Ley Koo
Instituto de Física,
Universidad Nacional Autónoma de México.

 _______________________________________________________________

como citar este artículo

Ley Koo, Eugenio. (2005). La hipótesis cuántica de la luz. Ciencias 80, octubre-diciembre, 38-48. [En línea]
 
  ←Regresar al índiceartículo siguiente→
 
1
12  
  del tintero  
     
Los físicos
 
 
 
Friederich Dürrenmatt
conoce más del autor
   
HTML↓ PDF ←Regresar al índice artículo siguiente→
       
       
Newton: Richard.
Inspector: Dígame, Albert.
Newton: ¿Verdad que le molesta no poder detenerme?
Inspector: Pero Albert...
Newton: ¿Querría detenerme por haber estrangulado a la enfermera o por haber hecho posible la bomba atómica?
Inspector: Pero Albert...
Newton: ¿Qué ocurre cuando usted gira el interruptor que hay junto a la puerta, Richard?
Inspector: Se enciende la luz.
Newton: Produce usted un contacto eléctrico. ¿Entiende algo de electricidad Richard?
Inspector: Yo no soy físico.
Newton: Yo tampoco entiendo mucho. Me limito a formular una teoría basada en observaciones empíricas, la transcribo en lenguaje matemático y obtengo varias fórmulas. Luego vienen los técnicos, que sólo se interesan por las fórmulas. Tratan la electricidad como un rufián a sus prostitutas. Las explotan. Construyen máquinas, y una máquina solamente es utilizable cuando se independiza de los postulados teóricos que condujeron a su invención. De ahí que hoy en día cualquier burro pueda encender una bombilla [...] o hacer explotar una bomba atómica. (Le da unas palmaditas en el hombro al inspector). Y ahora usted quiere detenerme por eso, Richard. No es justo.
Inspector: Pero si no tengo la menor intención de detenerlo.
Newton: Sólo porque me cree loco. Pero ¿por qué no se niega a encender las luces si no entiende nada de electricidad? El criminal aquí es usted Richard. Y ahora tengo que esconder otra vez mi coñac, o la enfermera en jefe se pondrá frenética. (Newton vuelve a esconder la botella de coñac tras la rejilla de la chimenea, pero deja la copa sobre la mesita). Adiós.
Inspector: Adiós, Albert.
Newton: ¡Debería detenerse a sí mismo, Richard!
(Desaparece otra vez en la habitación número tres).
Inspector: Ahora me limitaré a fumar.
***
Möbius: He estado un poco violento, ¿verdad?
Enfermera Monika: Bastante.
Möbius: Tenía que decir la verdad.
Enfermera Monika: Así parece.
Möbius: Y acabé loco.
Enfermera Monika: Fingió estarlo.
Möbius: ¿Se dio usted cuenta?
Enfermera Monika: Ya llevo años cuidándolo.
Möbius (va de un lado a otro, y luego se detiene): Pues sí. Reconozco que he fingido estar loco.
Enfermera Monika: ¿Por qué?
Möbius: Para despedirme de mi esposa y de mis hijos. Una despedida para siempre.
Enfermera Monika: ¿De ese modo tan atroz?
Möbius: De ese modo tan humano, querrá usted decir. Si se está en un manicomio, la mejor manera de anular el pasado es comportándose como un loco, mi familia podrá ahora olvidarme con la conciencia tranquila. La escena que acabo de montar les habrá quitado las ganas de volver a verme. Por lo que a mí respecta, las consecuencias son irrelevantes; sólo importa la vida fuera del sanatorio. Estar loco cuesta una fortuna. Durante años mi buena Lina ha venido pagando sumas astronómicas, y había que poner punto final a todo esto. Era el momento propicio. Salomón me ha revelado cuanto había que revelar, el sistema de todos los inventos posibles se ha cerrado, las últimas páginas ya han sido dictadas y mi mujer ha encontrado un nuevo esposo en la persona del misterioso Rose, un hombre honrado a carta cabal. Puede usted estar tranquila, señorita Monika. Todo está en orden. (Quiere irse).
Enfermera Monika: Lo tenía usted todo planeado.
Möbius: Por algo soy físico. (Se vuelve hacia su habitación).
Enfermera Monika: Señor Möbius.
Möbius (deteniéndose): ¿Señorita Monika?
Enfermera Monika: Tengo que hablar con usted.
Möbius: Soy todo oídos.
Enfermera Monika: Se trata de nosotros dos.
Möbius: Pues, entonces, sentémonos.
(Se sientan. Ella en el sofá y él en el sillón de la izquierda).
Enfermera Monika: También nosotros tendremos que despedirnos. Para siempre.
Möbius (asustado): ¿Me abandona?
Enfermera Monika: Es una
orden.
Möbius: ¿Qué ha pasado?
Enfermera Monika: Me trasladarán el pabellón principal. Desde mañana habrá aquí enfermeros encargados de la vigilancia. De ahora en adelante, a ninguna enfermera le está permitido poner los pies en esta villa.
Möbius: ¿Debido a Newton y Einstein?
Enfermera Monika: A petición del fiscal. La directora temía que surgieran dificultades y cedió.
(Silencio).
***
Einstein: ¿Y lo dice tan tranquilo?
Möbius: ¿Cómo quiere que lo diga?
Einstein: Mis servicios secretos creían que usted está elaborando la teoría uniforme de las partículas elementales...
Möbius: También puedo tranquilizar a sus servicios secretos. La teoría uniforme del campo ha sido formulada.
Newton (secándose el sudor de la frente con una servilleta): ¡La fórmula universal!
Einstein: ¡Increíble! ¡Hace años que, en gigantescos laboratorios estatales, hordas de físicos bien remunerados intentan en vano hacer progresar la física, y usted lo consigue sentado al escritorio de un manicomio y sin mayor esfuerzo! (También se seca el sudor de la frente con la servilleta).
Newton: ¿Y el sistema de todos los inventos posible, Möbius?
Möbius: También existe. Lo elaboré por curiosidad, como un complemento practico a mis trabajos teóricos. ¿Por qué habría de hacerme el inocente? Todo lo que pensamos tiene sus consecuencias. Era mi deber estudiar las repercusiones de mis teorías del campo y de la gravitación. El resultado es devastador. Si mis investigaciones cayeran en manos de los hombres, se liberarían fuentes de energía nuevas e inconcebibles y se inventarían técnicas que superan todo lo imaginable.
Einstein: Será algo muy difícil de evitar.
Newton: El problema está en saber en qué manos caerán.
Möbius (riéndose): Y seguro que usted, Kilton, le desea esta suerte a sus servicios secretos y al Estado Mayor que está detrás.
Newton: ¿Por qué no? Cualquier Estado Mayor me resulta igualmente sagrado para reinsertar en la comunidad científica al físico más grande de todos los tiempos.
Einstein: Para mí sólo es sagrado mi Estado Mayor. Estamos suministrando a la humanidad unos instrumentos de poder descomunales. Y eso nos da derecho a imponer condiciones. Debemos decidir a favor de quien queremos aplicar nuestra ciencia, y yo me he decidido.
Newton: Absurdo, Eisler. Lo importante es la libertad de nuestra ciencia y nada más. Nuestra misión es abrir nuevos caminos y punto. Que la humanidad sepa o no recorrer el camino que nosotros le trazamos, es asunto suyo, no nuestro.
Einstein: Es usted un esteta lamentable, Kilton. ¿Por qué no se viene con nosotros, si lo único que le preocupa es la libertad de la ciencia. Hace tiempo que nosotros tampoco podemos permitirnos tener a los físicos bajo tutela. También necesitamos resultados. Nuestro sistema político se ve igualmente obligado a hincar la rodilla ante la ciencia.
Newton: Nuestros dos sistemas políticos, Eisler, tienen que hincar la rodilla ante Möbius, sobre todo.
Einstein: Al contrario. Es él quien tendrá que obedecernos. Después de todo, ambos lo tenemos en jaque.
Newton: ¿De veras lo cree? Me parece que somos más bien nosotros dos quienes nos tenemos mutuamente en jaque. Por desgracia, nuestros servicios secretos han tenido la misma idea. Si Möbius se va con usted, yo no puedo hacer nada en contra porque usted me lo impediría. Y usted se quedaría inerme si Möbius se decidiera en mi favor. Es él quien puede elegir en este caso, no nosotros.
Einstein (Levantándose solemnemente): Cojamos nuestros revólveres.
Newton (También se levanta):
Muy bien. Combatamos.
(Newton coge los dos revólveres ocultos en la chimenea y le entrega el suyo a Einstein).
Einstein: Lamento mucho que este asunto tenga un final cruento. Pero debemos disparar. Uno contra el otro y, por supuesto, contra los guardianes e incluso contra Möbius, si fuera necesario. Podrá ser el hombre más importante del mundo pero sus manuscritos son más importantes.
Möbius: ¿Mis manuscritos? ¡Si los he quemado! (Silencio mortal).
 
 
Friederich Dürrenmatt
Novelista y dramaturgo
Nota
Fragmentos de la obra de teatro Los físicos del dramaturgo, novelista y ensayista suizo Friederich Dürrenmatt escrita en 1962. En esta obra, un físico nuclear llamado Möbius se percata de que con su fórmula se puede crear un arma mortífera y se pregunta cómo proteger al mundo. Opta por la mejor forma de encubrimiento: el teatro, la mascarada. En lugar de convertirse en símbolo del conocimiento humano en nuestra era, abandona a su familia y se refugia en un manicomio finge estar loco, sobre todo para poder presentar sus descubrimientos como producto de su locura.
_______________________________________________________________

 

como citar este artículo

Dürrenmatt, Friederich y (Traducción Del Solar, Juan José). (2005). Los físicos. Ciencias 80, octubre-diciembre, 60-63. [En línea]
  ←Regresar al índice artículo siguiente→
Você está aqui: Inicio Búsqueda Titulo revistas revista ciencias 80