revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
R07Articulos3   menu2
   
   
Alejandro García-Diego      
               
               
A manera de presentación
 
El autor del presente ensayo no pretende reclamar o hacer suya la originalidad de las ideas aquí expuestas. Muchas de ellas están discutidas en algunos trabajos de los miembros del personal académico del Instituto para la Historia y Filosofía de la Ciencia y la Tecnología de la Universidad de Toronto (Ontario, Canadá). Otras son del dominio público. Sin embargo, el autor considera que su divulgación y conocimiento son de vital importancia para todos aquéllos que deseen iniciarse en el estudio de la historia de las matemáticas y de las ciencias. En particular, una de las obras del ya fallecido Dr. Kenneth O, May1 fue de fundamental importancia para el desarrollo del presente trabajo.
 
Qué es y cómo se hace la historia de la ciencias
 
Introducción
 
La inquietud de los matemáticos y científicos por conocer los orígenes y desarrollo de sus respectivas disciplinas ha sido motivada, en general, por razones didácticas. La mayoría de los pedagogos encontraron que la manera más natural de introducir la materia bajo estudio en un libro de texto fue la de presentar un “bosquejo histórico” de la misma. En la mayoría de los casos este boceto cronológico consiste únicamente en una breve descripción de los eventos que el autor considera relevantes para la formación del marco teórico del tema en discusión. Por otro lado, también es frecuente observar al investigador buscando las raíces y orígenes de los términos y conceptos por él utilizados. Sin embargo, hoy día existe asimismo un gran número de individuos que consideran el estudio de la historia de las ciencias valioso en sí mismo.
 
Pero ¿qué se entiende por hacer historia de las ciencias? La historia de las ciencias, como casi cualquier disciplina, pretende encontrar respuestas a ciertas cuestiones. Obviamente, como su nombre lo indica, estas preguntas son de origen histórico y generalmente involucran el desarrollo de una cronología. Existen varios tipos de interrogantes, igualmente válidas todas ellas. La diferencia esencial radica en el posible interés que despierte en nosotros una pregunta en particular. Cuestiones cuya formulación parezca a primera instancia trivial (¿cuándo?, ¿quién?, ¿dónde?, ¿por qué?) pueden provocar difíciles e interesantes respuestas; o viceversa, interrogantes que a primera vista semejen involucrar razonamientos muy complejos, pueden tener soluciones relativamente muy sencillas.
 
Como historiadores de las matemáticas y de las ciencias nos interesa conocer cuáles fueron los orígenes de los problemas que el hombre se propuso resolver en el pasado, cuáles eran las ideas que utilizaron como punto de partida, y qué era lo que ellos esperaban como respuestas. Pero no nos interesa —o no creemos provechoso y sí muy injusto— el acusar a los intelectuales del pasado de ignorantes debido a su desconocimiento de nuestros conceptos y métodos actuales; como también criticamos el aplicar nuestros conceptos y métodos modernos a las ciencias del pasado. Nuestra finalidad como historiadores de las ciencias no es la de mostrar qué tan parecidos son los conceptos del pasado comparados con los de ahora. La meta del historiador es juzgar —no simplemente describir— los eventos del pasado tal y como se dieron en el pasado, en sí mismos y como producto de su cultura.
 
De acuerdo con las política editorial de la revista Historia Mathematica, su comité está dispuesto a publicar manuscritos que traten aspectos de la historia de
 
“…todas las ciencias matemáticas en todas las partes del mundo y de todos los periodos, incluyendo teoría y práctica; ciencias de la computación, estadística, cibernética, investigación de operaciones, ciencias actuariales, tecnología matemática, ambas, hardware (desde el ábaco hasta la computadora) y software (algoritmos, lenguaje, notación y tablas); todas sus aplicaciones; interrelaciones con las ciencias naturales, ciencias sociales, humanidades, artes y educación, filosofía, psicología y sociología de las matemáticas; comunicación matemática, incluyendo sistemas de información y bibliografía; biografías de matemáticos e historiadores; organizaciones e instituciones; historiografía; y la interacción entre todas las facetas de actividad matemática y otros aspectos de la cultura y la sociedad (Historia Mathematica 10 (1983) información para autores).
 
Y ésta es únicamente una revista entre quinientas, aproximadamente, de las que publican periódicamente artículos de la historia de las ciencias y la tecnología.
 
Aunque la finalidad del historiador es clara —intentar reconstruir el pasado— es absurdo tratar de sugerir cómo debe uno aproximarse a la historia de las ciencias; y, peor aún, cómo debe uno llevar a cabo el análisis histórico. Sería similar a pretender decirle a un científico cómo debería interpretar sus resultados. El historiador podría estar atraído por la historia intelectual de las ideas; es decir, en el cómo una idea se origina, desarrolla y transforma para ir confirmando el campo de las ciencias (véase, por ejemplo, David C. Lindbergh, Theories of visión from Al-Kindi to Kepler, Chicago, Chicago University Press, 1976). Otros podrían estar interesados en la historia social de las ciencias; donde interesa explicar de qué forma los distintos factores sociales que rodean al individuo moldean su concepción de las ciencias (véase por ejemplo Wolf Lepenies, “Anthropological perspectives in the sociology of science”, contenido en Science and cultures: Anthropological and historical studies of sciences. Everett Mendelsohn & Tehuda Elkana (editores), Dordrecht: Reidel, 1981). Algunos otros podrían estar intrigados por aspectos historiográficos o metodológicos (véase: Henry Guerlac, “Some Historical Assumptions of the History of Science”, contenido en Scientific Change, A. C. Crombie (ed.), Londres: Heinemann, 1963, pp. 797-813).
 
Tal vez sería más provechoso y práctico el señalar algunos de los errores que con mayor frecuencia se cometen al hacer historia de las ciencias.
 
1. No basta simplemente con describir cronológicamente el orden de los eventos (Louis N. Magner, A History of the Life Sciences, New York: Marcel Dekker, Inc., 1979. Véase también la reseña que hiciera sobre el mismo libro Peter J. Bowler, Isis, 70 (1980) 500-501). La cronología, por sí sola, no explica cómo y por qué se han desarrollado las ciencias. De la misma manera que los datos experimentales y la observación no conforman las ciencias naturales. Como dice Kenneth O. May: “la historia surge cuando la cronología es seleccionada, organizada, relacionada y explicada” (Kenneth O, May, Op. cit., p. 28). Este error normalmente cometido por científicos y matemáticos, sin un entrenamiento profesional en historia, involucra el hecho de producir análisis no históricos, o mejor dicho, historia sin análisis. Es decir, que el interesado no toma en cuenta las circunstancias y los motivos por los que se dieron dichos eventos. Como se dijo con anterioridad, nosotros estamos interesados en examinar y explicar cómo surgieron los problemas en el pasado, en conocer las herramientas o conocimientos que se podían utilizar para resolver el problema, y en comprender qué era lo que se entendía entonces como una solución a dicha cuestión.
 
2. Otro error, estrechamente relacionado con el anterior, consiste en pretender que “el pasado hable por sí solo” (Hubert Kennedy, Peano: Life and Works of Guiseppe Peano, New York: Reidel, 1980. Consúltese también la reseña de este libro que presentara Beatrice Lumpkin, Science and Nature No. 4 (1981) 72-76). Numerosos autores se limitan simplemente a citar en numerosas y largas ocasiones a los intelectuales del pasado, sin comprender que lo realmente importante es explicar el por qué se establecen tales argumentos.
 
3. Tampoco debemos forzar las fuentes para demostrar la validez de ciertas hipótesis prefabricadas —error comúnmente cometido por aquéllos que pretenden probar que las condiciones sociales han determinado indefinidamente el desarrollo de las ciencias— (véase como un ejemplo del uso de hipótesis prefabricadas el libre de Imre Lakatos, Pruebas y Refutaciones, Madrid, Alianza Editorial, 1978. Es particularmente interesante la reseña de este libro publicado por Martin Gardner en el The New York Review of Books, el 13 de agosto de 1981, pp. 37-40). No debemos olvidar que las condiciones históricas se encuentran en constante y continua transformación; de la misma manera, tampoco debemos tratar de establecer modelos que pretendan explicar la historia de las ciencias en su totalidad (David Bloor, Kwnoledge and social imagery, Londres, Routledge & Kegan Paul, 1976. Consúltese: Gad Freudenthal, How Strong is Dr. Bloor’s “Strong Programme”? Studies in History and Philosophy of Science 10 (1976) 67-83). En la lucha ideológica es común recurrir a la opinión de algún intelectual del pasado para fortalecer o apoyar nuestro propio punto de vista, sin tomar en cuenta las condiciones históricas bajo las cuales se estableció dicho juicio en el pasado.
 
4. Es de fundamental importancia el evitar la credulidad, Uno debe leer y analizar todas sus fuentes críticamente. En especial aquéllas que son de orden autobiográfico (Alan Wood, Bertrand Russell, el escéptico apasionado, Madrid, Aguilar, 1967, en relación con la autobiografía de Bertrand Russell, La autobiografía de Bertrand Russell, Madrid, Aguilar, 3 vols. En el caso de las obras autobiográficas también es muy interesante consultar cómo es que James D. Watson describe su descubrimiento de la estructura molecular del ADN. Véase: James D. Watson, La doble hélice, México, Conacyt, 1981. Los dos siguientes libros presentan diferentes interpretaciones —al menos en lo relacionado con el papel que jugó Rosalind Franklin en dicho descubrimiento— a la presentada por Watson: Robert Olby, The Path of the Double Helix, Seattle, Wash., University of Washington Press, 1975 y Anne Sayre, Rosalind Franklin and DNA, New York, W. W. Norton, 1975). La simple existencia de un documento no garantiza la veracidad de su contenido. Es recomendable comparar la información con otras fuentes que puedan comprobarla. Aun cartas personales deben ser juzgadas críticamente. Sí debemos ser cautelosos con el uso de las fuentes primarias, este cuidado debe ser aún mayor con el estudio de las fuentes secundarias. Debemos tomar en cuenta que en el pasado algunos autores escribieron con el fin de entender o el de popularizar las ciencias, y que en muchas de estas obras se distorsionó la verdad aunque fuera de una manera accidental. Recordemos por un momento el interesante ensayo de Alexandre Koyré (“Galileo y el experimento de Pisa: a propósito de una leyenda”, contenido en su libro Estudios de Historia del Pensamiento Científico, México, Siglo XXI, 1977, pp. 196-205) donde éste discute las deformaciones que han surgido alrededor del relato original de Viviani. En este aspecto de deformar el pasado en aras de presentarlo de una manera más entretenida, tal vez el campo —y por consecuencia el más peligroso— sea el libro de Eric T. Bell, Los Grandes Matemáticos, Buenos Aires, Editorial Losada.
 
5. El tratar de resolver problemas de prioridad (cuando estamos tratando de establecer plena justicia) con conduce, generalmente, a resultados valiosos (Girolamo Cardano, The Great Art or the Rules of Algebra, Camb., Mass., MIT Press, pp. xvii-xxii). Carl B. Boyer, en uno de sus libros sobre historia de las matemáticas, ha enunciado al menos treinta casos —entre los capítulos dieciocho a veinticuatro, esencialmente cubriendo de la mitad del siglo XVII a la mitad del siglo XIX— de resultados y teoremas matemáticos que no han sido bautizados bajo los nombres de sus descubridores originales. Hubert Kennedy llegó incluso a establecer la siguiente ley:
 
Ley de Boyer: las fórmulas y teoremas matemáticos no son llamados usualmente como sus descubridores originales (Hubert Kennedy), Who discovered Boyer’s law?, American Mathematical Monthly, 79, (1972) (67).
 
Y en seguida agrega que ésta es tal vez una de las pocas leyes cuyo argumento confirma su propia validez.
 
La literatura secundaria ha pretendido mostrar que Gauss se oponía al uso del infinito actual en Matemáticas, a través de extraer un párrafo de una carta personal.
 
6. Otro grave error usualmente cometido es lo que Ken May ha llamado el Síndrome Salomónico. Este error consiste en querer juzgar, desde un punto de vista actual, quién en el pasado estaba en ‘lo correcto’ y quién en el ‘error’. El principal problema es que este tipo de ensayo no nos explica ni qué pasó ni el por qué pasó (véase, Alexadre Koyré, “Un experimento de medición”, contenido en Koyré, Op. cit., pp. 274-305, y véase también la crítica a este ensayo por Thomas B. Seattle, An Experiment in the history of science, Science 133, (1961), pp. 19-23).
 
Es necesario ser extremadamente cuidadosos con las notas autobiográficas. Varios filósofos e historiadores han señalado numerosas exageraciones en sus recopilaciones.
 
7. El hacer historia especulativa puede presentar profundos problemas. Es natural encontrar argumentos especulativos en la mayoría de los trabajos históricos, debido a que nuestras fuentes presentan, por lo general, grandes lagunas de oscuridad y se vuelve necesario el suponer qué podría haber sucedido. Desgraciadamente, existen áreas del conocimiento matemático y científico de las cuales se desconocen casi por completo todas sus fuentes (por ejemplo, ¿cómo surgió el proceso de contar?). En el presente ejemplo nosotros podemos suponer cómo pudo haber surgido, pero a pesar de que nuestro relato suene muy lógico y consistente nunca lo podremos concebir como un hecho (véase, por ejemplo, Richard J. Gillings, Mathematics in the time of the Pharaohs, New York, Dover, 1982 y Otto Neugebauer, The exact sciences in antiquity, New York, Dover, 1969; quienes presentan dos interpretaciones diferentes de un área eminentemente especulativa de la historia de las matemáticas: la matemática egipcia).
 
8. Ken May también hay señalado el daño que puede ocasionar el Síndrome de Mateo. Es costumbre de los historiadores el tratar de asignar más o de exagerar, los ya increíbles logro de algunos científicos del pasado (consúltese: Leopold Infeld, El elegido de los dioses. La historia de Evariste Galois, Buenos Aires, Siglo XXI, 1974 y Tony Rothman, Genius and Biographers: The Fictionalization of Evariste Galois, The American Mathematical Monthly, 89 (1982), pp. 84-106). Es muy común el poner únicamente atención a las ‘estrellas’ y dejar de lado a todos aquellos peones que poco a poco han contribuido al enriquecimiento de las distintas ciencias (véase, Eric T. Bell, Op. cit.).
 
9. Este error, estrechamente relacionado con el mencionado en el inciso cinco, es el de suponer que porque estamos apoyando nuestras ideas en las opiniones de otros historiadores y/o filósofos, esto automáticamente garantiza su credibilidad. Este defecto es fácil de detectar cuando encontramos una gran cantidad de citas o las fuentes de consulta no incluyen fuentes primarias (véase, Laurence Ch. Young, Marthematicians and Their Times: History of Mathematics and Mathematics of History, New York, North Holland, 1981. Consúltese también la reseña de este libro presentada por Philip C. Enros, Historia Mathematica, 11, (1984) pp. 99-100). Las citas deben ser usadas con mucha cautela. Para demostrar su comprensión es más recomendable expresar las ideas con nuestras propias palabras o, en su defecto, parafrasearlas.
 
10. Por último, uno de los errores más graves en lo que se puede incurrir es el de plagiarismo (el copiar o imitar el lenguaje, ideas y pensamiento de otro y pasarlos como si fuera el trabajo original de uno. Standard Desk Dictionary, New York, Funk & Wagnalls, 1977, p. 502). La manera más fácil de evitarlo es el de seguir el método de notas, que fuerza de una manera natural y sutil, el desarrollo de un trabajo original.
 
El proceso
 
Pero ¿cómo se lleva a cabo dicho fin? ¿Cómo es posible —o qué pasos son necesarios— para conducir a buen término nuestra investigación? Para que ésta sea útil de alguna manera a la comunidad de historiadores, debe contener:
 
nuevos datos históricos obtenidos de fuentes primarias, análisis de datos conocidos, reseña de trabajos históricos anteriores, examen de recientes investigaciones científicas o históricas, manuscritos previamente no publicados, traducción o reimpresión de materiales inaccesibles, bibliografías anotadas y cronología crítica (Historia Mathematica, 10, (1983). Información para autores).
 
Obviamente no se exige que un ensayo presentado en un curso de licenciatura sea necesariamente publicable. Al estudiante basta con exigirle que presente un problema —aunque no necesariamente sea original— y lo resuelva de una manera lógica y convincente. El alumno podría incluir nueva evidencia para apoyar sus puntos de vista o basarse en los de otros —siempre y cuando respete los derechos de los autores y no se vea envuelto en problemas de plagiarismo— para presentar viejos puntos de vista bajo una nueva perspectiva.
 
El historiador debe, con respecto a la información necesaria para producir un trabajo: recobrarla, almacenarla, analizarla y presentarla. Obviamente estas etapas no son rígidas ni excluyentes, sino que se encuentran retroalimentándose constantemente. En casi cada paso del trabajo el investigador usa simultáneamente información científica, bibliográfica e histórica.
 
La mayor dificultad que enfrenta cualquier historiador es la ignorancia y limitaciones de las fuentes a su alcance. Además, por más rica que sea una biblioteca —aún en países desarrollados— siempre nos encontraremos con inminentes limitaciones bibliográficas.
 
Ante todo es necesario describir las fuentes necesarias para el desarrollo de una investigación histórica. La clasificación general incluye:
 
i) fuentes primarias: son fuentes de información directa o de evidencia e incluyen normalmente publicaciones que contienen contribuciones originales al conocimiento científico o filosófico, correspondencia personal, diarios personales, escritos autobiográficos, manuscritos, artefactos, películas, fotografías, cintas.
 
ii) fuentes secundarias: son escritos basados en fuentes primarias. Las fuentes secundarias incorporan a nuestra bibliografía publicaciones históricas, tratados generales y algunos libros de texto.
 
iii) fuentes terciarias: son aquéllas que tratan generalmente los materiales de referencia. Estas fuentes comprenden diccionarios generales, diccionarios biográficos, diccionarios científicos, el catálogo de la biblioteca, catálogos impresos, revistas de reseñas, índices de revistas y periódicos, bibliografías, guías, índices de citas científicas, directorios, tratados históricos. Es aquí, en las fuentes terciarias, donde se encuentra el punto de partida más lógico para iniciar nuestras investigaciones. Las enciclopedias acostumbran describir las posturas o conocimientos generalmente aceptados y éstos, en ocasiones, no siempre presentan el punto de vista de los expertos. No es necesario hacer hincapié en que la categoría o clasificación de nuestras fuentes serán consideradas como fuentes primarias, en otras como secundarias, y viceversa. Sin embargo, es importante señalar que toda fuente debe ser analizada con extremo cuidado. Siempre debemos estudiar nuestras fuentes sin importar si son primarias, secundarias o de orden n-ésimo con el mismo carácter crítico y escéptico. Todas las fuentes pueden presentar la misma naturaleza indigna de confianza y ser incorrectamente interpretadas.
 
Una vez recobrada la información necesaria, el problema más inmediato es cómo conservar la información vital para nuestra investigación. Debemos tomar en cuenta ante todo que si la nota que hemos elaborador no la podemos localizar más tarde, nuestra labor fue infructuosa. Por cuestiones de manejo de grandes cantidades de información, el medio que ha demostrado ser el más práctico para escribir y conservar nuestras notas es el de fichas o tarjetas. Sin embargo, antes de entrar a los detalles de cómo se maneja este tipo específico de notas, hagamos algunas observaciones válidas para cualquier sistema de información.
 
1. No es necesario —ni recomendable— hacer notas cuando se puede hacer uso del original o de una fotocopia del original.
 
2. Es necesario clasificar todas las notas haciendo referencia al tema de que se trata, la fuente de la que proceda y la fecha a la que corresponda.
 
3. Es necesario escribir de tal manera como si otra persona fuera a leer las notas. Muchas veces nuestras notas son tomadas con tan mala caligrafía que el propio autor las encuentra imposibles de descifrar más tarde. Es necesario recalcar que no resulta aconsejable convertirnos en hermenéuticos de nuestros propios textos.
 
4. Es también necesario clasificar las notas bajo temas generales o clasificaciones cronológicas.
 
Tal vez uno de los sistemas de mayor uso en el mundo sea el de las fichas o tarjetas (de 3 X 5, 4 X 6 o hasta 5 X 8 pulgadas). La mayoría de las bibliotecas que no cuentan con un sistema de micropelículas o microfichas para el uso de sus catálogos, cuenta con un sistema de tarjetas —parece ser que la razón principal para la existencia de dicho sistema es el poder satisfacer las demandas de su continuo crecimiento. La biblioteca general de nuestra Facultad cuenta con dicho método y es la manera más práctica —cuando se tienen recursos limitados— para describir el acervo de una biblioteca, ya sea ésta pública o personal.
 
Es necesario esbozar ciertas características (que se aplican a diversos sistemas de fichas) antes de entrar en detalles de cómo elaborar nuestras propias tarjetas.
 
1. El sistema se debe planear en función de las necesidades de uno mismo.
2. Los ficheros debe ser trabajados periódicamente.
3. Debe conservarse un solo dato por tarjeta.
4. Cada tarjeta debe ser catalogada bajo una palabra o palabras clave.
5. Uno debe ser explícito, claro, concreto y legible.
6. En el caso de transcribir una cita, ésta debe ser copiada cuidando exageradamente todos los detalles del original, incluyendo puntuación.
 
El siguiente sistema, modificado del original de Ken May, ha probado ser muy útil, preciso y funcional para el autor del presente ensayo. Ante todo las tarjetas de información han de ser divididas en dos grandes categorías: bibliográficas y de notas. Las primeras, a su vez, pueden ser subdivididas en dos: por autores y temáticas. Las segundas —las de notas— también deben ser subdivididas en dos: temáticas y cronológicas. De tal manera que obtendríamos el siguiente cuadro:
 
cuadro
 
Todo el sistema de información se puede mantener en un solo fichero, o se puede utilizar un fichero para cada una de las distintas categorías. Es importante hacer notar que entre más tarjetas se tengan, aunque muchas de éstas contengan esencialmente la misma información, más fácil será localizar referencias cruzadas de los datos necesarios. Se ha encontrado el uso del papel carbón muy práctico para producir una, dos o hasta tres copias simultáneamente —para evitar malgastar tiempo reescribiendo los mismos datos hasta en tres o cuatro ocasiones distintas. El duplicar la información es particularmente benéfico en el caso de fichas bibliográficas, las cuales pueden ser arregladas por medio del nombre del autor y el tema de estudio. El clasificarlas bajo el título del artículo o del libro no representa ninguna ventaja. De la misma manera toda ficha temática puede ser catalogada simultáneamente bajo uno o varios subórdenes temáticos y otro cronológico.
 
Una de las formas más completas para elaborar las fichas bibliográficas es la siguiente:
 
ejemplo 1
ejemplo 2
 
 1. Año de publicación. Es de vital importancia que el año de publicaciones se encuentre en la esquina superior derecha, pues una vez clasificada la ficha por autor, ésta debe ser catalogada en orden cronológico. El subíndice alfabético puede ser utilizado para distinguir entre distintas obras publicadas —o escritas— por el mismo autor en el mismo año. Es recomendable usar estos caracteres aun en el caso en que sólo se cuente con una obra por año.
2. Nombre del autor empezando por el apellido.
3. Título completo de la obra.
4. Lugar de publicación y editor.
5. Informaciones acerca de posibles republicaciones y otras ediciones. También se puede indicar si el libro contiene alguna importante introducción o prefacio por algún otro autor. Es práctico producir distintas fichas para las traducciones.
6. Clasificaciones temáticas (palabra(s) clave), para poder ser clasificada en un orden temático, además del de autores.
7. Fecha en que fue leído. La fecha de adquisición se puede indicar dentro del mismo artículo y/o libro.
8. Estos caracteres indican si tal fuente se encuentra en la biblioteca personal de uno (!) y si conservamos el original (o) o una copia fotostática (x).
9. Este espacio está reservado para el número del catálogo de la biblioteca, en caso de que uno tenga que relocalizar el mismo libro en distintas ocasiones.
10. Esta información nos puede indicar la procedencia original de dicha fuente bibliográfica [véase, más adelante, la descripción de la ficha de notas (ejemplo 4)].
 
Este ejemplo de ficha bibliográfica puede ser utilizado indistintamente para un libro o artículo. La diferencia esencial sería el caso del inciso 4, en donde en lugar de indicar el lugar de publicación y editor, señalaríamos el nombre de la revista donde fue publicado indicando el volumen y las páginas. Otro posible cambio sería el inciso 5, en donde en lugar —o además— de mencionar posibles reimpresiones, podríamos enumerar algunas de las obras relacionadas con este escrito. Tal vez el usuario encontraría útil el distinguir entre fichas bibliográficas que hagan referencia a fuentes primarias y secundarias. En el caso particular del que escribe estas notas no ha encontrado dicha distinción del todo práctica, pues como lo indicaba con anterioridad, es muy relativo cuando una fuente es primaria o secundaria.
 
Como también indicaba anteriormente, en lugar de duplicar la información escribiendo dos fichas distintas para ser clasificadas (una por el autor y otra temáticamente), resulta muy práctico el usar papel carbón para obtener una copia extra. En tal situación, el original puede ser clasificado por autor y la copia bajo tema. En este último caso es de vital importancia el no dejar de indicar la palabra o palabras claves —tal vez abreviadas— que nos ayuden a su clasificación. Es recomendable el que estas palabras no definan categorías demasiado generales que provoquen que nuestro sistema no resulte ser práctico. Por ejemplo,
 
ejemplo 3
 
los términos “Harvey, Malpighi, Hooke” son más específicos que el vocablo “fisiología” para caracterizar una de las obras de Wilson. En la práctica resulta benéfico tratar de ser lo más preciso posible. En este sentido también es recomendable establecer tantas subdivisiones de una categoría como sean posibles y necesarias.
 
¿Cuál es la información que se debe transcribir a una tarjeta al hacer nuestras notas? Esto depende en gran parte de cada uno; además, también está en función de la fuente que esté uno consultando y está también en relación directa con el trabajo en particular y la profundidad deseada. Siempre debemos pensar que hemos de ser lo más generosos posible con la transcripción de las indagaciones, simplemente porque nunca sabremos en qué momentos nos podrán ser de utilidad. Más vale notas de más, que de menos. Es por esto que es fundamental tratar de conservar dicha información de la mejor manera posible. A casi todo investigador le ha sucedido el que olvide sus fuentes y aun las notas. Es frecuente el preguntarnos: ¿dónde lo leí?, ¿quién lo dijo?, ¿en dónde lo dijo?, y así en adelante. Independientemente de los enunciados que contenga cada ficha, ésta debe estar de tal manera estructurada que siempre nos sea posible determinar la fuente de información original. La siguiente ficha ya no es bibliográfica, sino que contiene detalles que más tarde nos ayudarán a construir nuestra propia versión de los hechos y, más importante aún, también nos permitirán regresar a nuestras fuentes originales.
 
ejemplo 4
 
1. Estos datos son más que suficientes para indicarnos la fuente de procedencia de nuestra información. Los datos provienen del diario personal de Lady Amberley del día 16 de abril de 1871 y se encuentra ella citada en una obra de Gray. El año 1962 nos señala la fecha de publicación de su escrito y el carácter alfabético (en este caso “b”) nos dice que es su segunda obra que tenemos clasificada en dicho año. Los números latinos (en esta ocasión “302”) nos indican la página exacta. Un carácter romano (junto a la fecha entre paréntesis —en este caso “II”) nos indica el volumen preciso, si el trabajo original fue publicado en más de un volumen. Claro que en función de que nuestro sistema funcione perfectamente fue necesario haber elaborado la ficha bibliográfica de dicha obra de Gray con anterioridad.
2. La fecha del evento nos permite establecer un orden cronológico que puede —y en la mayoría de los casos resulta— ser completamente independiente del orden temático.
3. Las palabras clave —en nuestro caso particular ‘Spalding, Imprinting’— nos indican dónde será clasificada la ficha desde el punto de vista temático. Estas palabras clave pueden resultar ser demasiado generales (e. o., en el caso que estuviéramos interesados en escribir un ensayo biográfico sobre él) o muy precisas (e. o., en el caso que estuviéramos describiendo un ensayo sobre la historia de la etología o los orígenes del “Imprinting”). Es importante tratar de mantener simultáneamente ambas categorías —temáticas y cronológicas—, pues en algunas ocasiones nos interesará conocer la metamorfosis de cierto concepto en el transcurso del tiempo, pero de igual manera nos podría interesar el cómo era interpretado un concepto por un número determinado de intelectuales contemporáneos. Por ejemplo, ¿cómo formuló Darwin su concepto de ‘selección natural’ en 1859 y cómo lo hizo en 1872? ¿Existe algún cambio en su interpretación de dicho concepto entre la primera y la sexta edición de El Origen de las Especies por medio de la Selección Natural? Si mantuviéramos un orden estrictamente cronológico tendríamos que consultar todas nuestras notas sobre Darwin de 1859 hasta 1872 inclusive—, que en un principio pueden resultar ser pocas fichas, pero que en un lapso de tiempo relativamente pequeño pueden alcanzar un número extraordinario. En tal caso hubiera sido muy práctico haber mantenido una categoría especial para el concepto “selección natural”. ¿Cómo saber qué categoría va a resultar importante? Esta es una pregunta que no tiene fácil respuesta. Tal vez ahora cierta categoría resulte muy provechosa, y tal vez en tres o diez años no tenga ninguna razón de existir. Es por esto que señalábamos con anterioridad que es necesario estar trabajando constantemente en los archiveros: añadiendo, clasificando y posiblemente, reclasificando.
 
La siguiente ficha ilustra claramente una tarjeta que nos sirve para conservar un dato histórico importante así como las distintas fuentes donde es mencionado
 
Ejemplo 5
 
Resumiendo: es de vital importancia, independientemente del sistema que seleccionemos para tomar nuestras notas, que éste nos permita —de una manera precisa, práctica y concreta— recobrar, almacenar, analizar y presentar la información necesaria para llevar nuestra investigación histórica a un feliz término.
 
Sugerencias generales para producir el ensayo
 
Nuestro entrenamiento profesional —como matemáticos y científicos— está altamente basado en la elaboración de exámenes y reportes de laboratorio. En muy contadas ocasiones se nos exige escribir un ensayo, por lo que el aprendizaje de las técnicas y métodos de investigación y redacción se ven fuertemente relegadas a lo que el estudiante fue capaz de asimilar en su enseñanza preuniversitaria, a su propio potencial o intuición gramatical (si es que tiene alguna). Sin embargo, es muy probable que nuestra futura actividad profesional nos demande su conocimiento —ya se a través de la necesidad de escribir artículos de investigación y divulgación, reseñas de libros, notas de clase, reportes de trabajo, etc. Escribir un ensayo histórico para un curso universitario se puede convertir en una de las experiencias más inolvidables (léase “positivas”) o, al revés, en una de las experiencias más traumáticas y desastrosas y, por lo tanto, también indeleble. La mayor parte de los profesionistas se han visto envueltos en ambas situaciones.
 
La siguiente lista de regla, una vez más, no tiene la finalidad de describir estas técnicas y métodos de redacción y buen escribir, sino que únicamente pretende esbozar una serie de lineamientos prácticos para tratar de hacer más placentero el requerimiento, o al menos para sobrellevarlo.
 
1. Planear. Debemos siempre, ante todo, planear el ensayo. Se deben seguir ciertas etapas, como seleccionar el tema, enfoque, estilo y formato. Al iniciar nuestra investigación debemos considerar a quién va a estar dirigido nuestro ensayo. También tenemos que tomar en cuenta el conocimiento del área que estamos dando por supuesto y cómo se relaciona este problema con otros eventos cronológicamente simultáneos.
 
2. Iniciar inmediatamente. Aunque el dicho mencione que “no por mucho madrugar amanece más temprano” es necesario iniciar la lectura de las fuentes seleccionadas una vez que el ensayo ha sido asignado. De esta manera se evitará, al menos, que su realización se cruce con la preparación de los exámenes de otras materias. Si estamos acostumbrados a hacer las cosas la víspera porque trabajamos mejor “con cierta presión”, es recomendable evitar dicha práctica en este tipo de situaciones. Ni aún los más talentosos redactores pueden hacer un trabajo decente sin el tiempo suficiente.
 
3. Hacer un bosquejo preliminar. Sería absurdo pensar que una vez leídas las fuentes uno se puede sentar a escribir el ensayo directamente. Para la mayor parte de nuestros proyectos tenemos un punto de partida o una idea preconcebida de lo que vamos a encontrar. Muchas veces el proceso de investigación nos muestra que nuestra impresión era falsa, o que al menos podía conducir a malos entendidos. Por esto es necesario evaluar y discutir —con unos mismo— las posibles consecuencias de lo que uno ha leído antes de iniciar la redacción del escrito. Es recomendable hacer una lista de las ideas que queremos discutir junto con los ejemplos o citas que apoyen o le den validez a nuestras aserciones.
 
4. Escribir un manuscrito preliminar. No todos tenemos la claridad y la disciplina mental de Bertrand Russell, quién podía dictarle un libro completo a una de sus secretarias en un solo día (Bertrand Russell, Retratos de memoria y otros ensayos, Madrid, Alianza Editorial, 1976, pp. 214-218. Consúltese también: Kenneth Blackwell & Elizabeth Ramsden, Russell’s unpublished book on the theory of knowledge, Russell No. 19 (otoño 1975) pp. 3-14 & 18). El sueño ideal de todo estudiante mexicano sería pensar que el primer manuscrito que uno hiciera fuera tan bueno que después no sería necesario hacer ningún otro. Sin embargo, la realidad es muy distinta. En el primer manuscrito es recomendable jugar con las palabras, estudiar en detalle qué vocablo puede expresar más claramente lo que queremos decir. También es posible cambiar el orden de algunos de los párrafos —o de secciones completas—, analizando el mejor orden lógico de nuestros argumentos. Debemos tomar en cuenta que este primer manuscrito debe ser únicamente para nosotros. No importa qué tan manchado o parchado esté. Lo importante es que debe contener el germen de nuestras ideas.
 
5. Dejar descansar el manuscrito por un par de días. Es muy provechoso dejar descansar el manuscrito por un par de días para evitar caer en los mismos errores o círculos viciosos. Es posible, asimismo, que el simple hecho de estar pensando en el escrito nos permita tener una visión más clara de sus finalidades, méritos y defectos. También es muy conveniente pedir a una tercera persona que lea el ensayo y exprese una opinión crítico-constructiva de los diferentes elementos que lo componen. Esto no implica necesariamente que uno tengo que tomar en cuenta una y cada una de las sugerencias del afortunado lector. Pero sí nos puede señalar graves errores de composición, comprensión, análisis y hasta ¡ortografía! —entre otros, los cuales deben ser corregidos antes de su presentación final.
 
6. Impresión final. No es recomendable tratar de implementar cambios a la hora de esta obteniendo la impresión final. Tal vez el cambio de una u otra palabra no altere mayormente la esencia del ensayo. Pero aún en el caso de ser un(a) excelente mecanógrafo(a) no es aconsejable intentar cambiar partes sustanciales del ensayo a la hora de estarlo mecanografiando. Si aún no estamos satisfechos con el resultado final, volvamos al manuscrito preliminar. Aún en el caso de haber contratado los servicios de un(a) mecanógrafo(a) profesional, uno es completamente responsable de la presentación final, incluyendo todos los méritos y principalmente todos los errores.
 
7. Corregir exhaustivamente. La única manera de evitar errores es revisar y corregir, revisar y corregir… Uno tienen que revisar en numerosas ocasiones el material escrito en especial s uno ha sido el que llevó a cabo la copia final. ¡Una vez que uno tiene la certeza de que el escrito no contiene errores, habrá que revisarlo una vez más!
 
8. Hacer una fotocopia. Nunca se debe entregar un trabajo a nivel universitario sin conservar una copia fotostática del mismo. La mayoría de los maestros universitarios han perdido trabajos realizados por los alumnos y es responsabilidad del afectado el poder demostrar que el trabajo fue elaborado y cuándo se entregó. Al presentar el trabajo final, solicite a su maestro que le firme su copia (con fecha). En algunas ocasiones la copia fotostática del ensayo puede parecer más clara y limpia que el original. En dicho caso, presente la copia (si así lo autoriza el profesor).
 
     
Referencias bibliográficas

1. Kenneth O. May. Bibliography and Research Manual of the History of Mathematics. Toronto: University of Toronto Press, 1974.


     
____________________________________________________________      
Alejandro García-Diego
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
  [En línea]
     
R07Articulos2   menu2
   
   
Marcial Bonilla
     
               
               

Algunas anomalías del agua pueden explicarse mejor recurriendo a su estructura molecular

     
El agua es sin duda el líquido más común sobre la superficie
de la Tierra; sin embargo no es el más simple de estudiar. En efecto, esta sustancia ha motivado la publicación de un número mayor de artículos y análisis teóricos que cualquier otra. Es por esto que cuando se presenta un artículo más acerca de un tema que tiene  alrededor de 200 años de ser estudiado, surge la pregunta ¿qué novedad puede decirse de un tema tan viejo?

En principio podría esperarse que un líquido de composición química tan simple (H2O) y de tal importancia biológica e industrial debería estar completamente caracterizado, por lo menos desde el punto de vista físico-químico. Tal simplicidad del agua, como veremos más adelante, es sólo aparente.

Propiedades anomalas del agua

El agua es una sustancia que presenta una serie de anomalías únicas que la hacen un compuesto muy especial. [C. Austen Angell (1982)]. En el aspecto químico se puede comportar como un ácido fuerte capaz de disolver el oro y el platino. En el aspecto físico ciertas propiedades del agua han llamado la atención de los científicos y constituyen campos reconocidos de investigación contemporánea. Tal es el caso del agua “virtuosa” que se obtiene por depósito de moléculas de agua en fase de vapor sobre un metal frío y que constituye un tema que ocupa a un gran número de científicos actualmente.

Algunas anomalías del agua a temperaturas entre 0 y 100°C pueden explicarse mejor recurriendo a su estructura molecular. Como es el caso de la anomalía de la densidad: el agua presenta una densidad menor en el estado cristalino que en el estado líquido. Efectivamente, su se compara el agua con otros dos líquidos “vecinos”, el H2O2 y el H4N2, que tienen entre ellos temperaturas de ebullición y de cristalización semejantes, son hidruros de oxígeno en un caso y en otro, de su vecino más cercano, el nitrógeno se encuentra que el cristal del agua, el hielo, es el único que flota en el líquido, es decir, el único que presenta una densidad menor en estado sólido. Esto no se puede explicar fácilmente, ya que teniendo los 3 compuestos enlaces de hidrógeno, es únicamente el agua la que aumenta su volumen en el estado sólido.

Otra anomalía del agua es debida a la variación de la densidad con la temperatura. En un líquido normal sucede que la densidad disminuye con la temperatura; sin embargo en el agua la densidad es máxima a los 4°C. De todos los líquidos conocidos sólo el InSb y otros dos más raros presentan esta anomalía. La explicación reside en la estructura molecular del agua y en un fenómeno llamado contracción vibracional.

En la mayor parte de los líquidos, la viscosidad aumenta con la presión. El agua, sin embargo, es una excepción pues su viscosidad disminuye mientras la temperatura y la presión sean menores que 50°C y 1000 atmósferas, respectivamente.

Existen algunas propiedades del agua que por ser muy comunes a veces se olvidan pero que producen efectos importantes en los fenómenos naturales. Este es el caso de la propiedad del agua para absorber calor sin cambiar mucho su temperatura. El agua tiene una capacidad calorífica muy grande comparada con otros líquidos: por ejemplo, la capacidad calorífica del agua es 3 veces mayor que la de la gasolina y más de 2 veces mayor que la del alcohol etílico.

El gran poder solvente del agua para sales ionizadas es otra de estas propiedades. Esto se debe a la constante dieléctrica del agua. A temperatura ambiente esta constante vale 80 para el agua y 5 para la gasolina, que no puede disolver ninguna sal.

Eléctricamente el agua es un buen aislante en estado puro, pero cuando contiene sales en solución se convierte en un conductor eléctrico excelente. Sin embargo el agua pura, bajo ciertas condiciones, puede convertirse en mejor conductor que cualquier solución salina.
 
Estado metaestables del agua

Los conocimientos en este campo son muy recientes, debido a que se requieren técnicas muy sofisticadas para estudiar muestras muy pequeñas o muy puras. La discusión científica se remonta, sin embargo, varios siglos atrás. En efecto, desde el siglo XVIII se tiene información de dos estados metaestables del agua: el agua “supercaliente” y el agua “superfría”.2

Agua supercaliente. Ciertos experimentos recientes [R. E. Apfel (1972)] han conseguido estudiar la evolución de una pequeña gota de agua en una columna de aceite de silicona sujeta a un gradiente de temperatura y a una presión constante de una atmósfera. La gota permanece líquida hasta una temperatura de 280°C cuando desaparece tras una breve explosión. (Cuando un líquido se sobrecalienta (supercalienta), es decir, permanece líquido más allá de su temperatura normal de ebullición, ocurre que libera la energía acumulada por medio de una explosión al convertirse en vapor). Esto representa un problema serio para los ingenieros, especialmente los ingenieros nucleares.

Agua superfría. Aunque los experimentos iniciales se limitaban a una mera descripción de fenómenos y no eran reproducibles, actualmente, sin embargo, el estudio del agua superfría y el estado vitroso constituye un nuevo campo de investigación reconocido. Cuando ciertas soluciones salinas son sometidas a muy bajas temperaturas permanecen líquidas hasta una temperatura en la que ocurre la transición vitrosa. Las temperaturas de esta transición depende de la concentración de sales en la solución.

Uno de los aspectos más estudiados del agua es su estructura. Ello se debe, entre otros aspectos, a su importancia en los procesos biológicos. El agua se encuentra abundantemente en los organismos vivos y desempeña un papel importante en los procesos biológicos tales como el paso de ciertos compuestos a través de membranas. Saber cómo se estructura el agua en torno a ciertas moléculas nos proporciona una información básica para el estudio de los mecanismo biológicos.

Estructura del agua

La estructura del agua ha sido objeto de profundo interés desde hace mucho tiempo. Sin embargo no fue sino hasta finales del siglo XIX que se tuvo la primera referencia en la literatura científica. Fue Roentgen (1892) quien primero visualizó la estructura del agua como una extensión de la estructura cristalina del hielo. En efecto, él supuso que al derretirse el hielo, una parte forma un fluido en el cual el restante flota. La fracción de “hielez” del agua depende de los cambios de presión y temperatura. (Esta representación es un prototipo de los llamados “modelos de mezcla” del agua, que suponen la coexistencia de más de una especie de moléculas de agua).

Configuración molecular

Es necesario tener en cuenta la distribución de cargas en la molécula de agua para entender las anomalías de este líquido. Una molécula de agua está formada por un átomo de oxígeno al que se unen dos átomos de hidrógeno por medio de enlaces covalentes simples.

Para visualizar mejor la estructura del agua a nivel molecular veamos dos moléculas que son muy semejantes a ella: el metano (CH4) y el amoníaco (NH3). Los átomos de C, N y O pertenecen a un mismo renglón de la tabla periódica y requieren de 4, 3 y 2 electrones, respectivamente, para cerrar su capa externa (es decir, tratan de conseguir 4, 3 y 2 electrones, respectivamente para cerrar la capa externa con 8 electrones y de esta manea poder ser estables, como los gases raros). En el metano los cuatro libres del carbono están apareados con hidrógenos. La geometría de esta molécula tiene la forma de un tetraedro centrado en el carbono.
 
 Figura 1. Molécula de Metano (CH4).

Es diferente el caso del amoníaco y del agua. Para estas moléculas el equilibrio químico se obtiene mediante tres y dos átomos de hidrógeno, respectivamente, unidos al átomo central por medio del mismo número de pares de electrones compartidos. La estructura tetraédrica está parcialmente presente en estas moléculas, con la particularidad de que los pares de electrones no unidos por enlaces covalente forman dobletes libres. La distribución de cargas en las moléculas de agua debe tenerse en cuenta, pues su comportamiento anómalo sólo puede ser explicado mediante esta distribución.

Se puede considerar que una molécula de agua tiene dos cargas positivas y dos cargas negativas repartidas en los vértices de un tetraedro centrado en el oxígeno. Las cargas positivas provienen de los dos átomos de hidrógeno que “donaron” su electrón al oxígeno y compensan esta pérdida por un carácter positivo. Las cargas negativas provienen de dos pares de electrones libres.
 
Figura 2. a) Molécula de amoníaco (NH3). b) Molécula de agua (H2O) (– significa pares de electrones libres y + exceso de carga positiva).

La asociación de moléculas de agua entre ellas mismas es consecuencia de esta distribución de carga. En efecto, la energía electrostática se minimiza de esta manera y consecuentemente la agrupación es favorecida mediante la asociación de un centro de carga positivo de una molécula con otro negativo, perteneciente a otra molécula y viceversa. Esta asociación se llama enlace de hidrógeno o puente de hidrógeno O … H. De esta forma cada molécula de agua se encuentra ligada a otras cuatro moléculas por medio de sus centros de carga. Esto tiene como consecuencia una geometría muy abierta que es la responsable de que el hielo flote en el agua. En otras palabras, el hielo presenta una estructura más abierta que el agua y es la causante de la disminución de la densidad. El agua presenta una estructura más irregular y hace que las distancias de los primeros y segundos vecinos se acorten, provocando un aumento de la densidad.
 
 Figura 3. Cristal de Hielo.

Una representación de la estructura del agua, en relación con la estructura del hielo, podría visualizarse “filmando” a una velocidad de 10 E + 13 cuadros por segundo para evitar el efecto de las vibraciones moleculares. Tales fotografías mostrarían que los anillos de seis átomos de hielo se degradan en anillos de 5, 6 y 7 átomos en el agua (ver Figura 4).

Esta deformación fue sugerida inicialmente por Bernal y Fowler en 1933, y desde entonces esta imagen ha estado presente en varios modelos publicados de la estructura del agua. El modelo de Bernal describe la transición del hielo a agua en términos de una deformación de los puentes de hidrógeno que permanecen sin romperse. El grado de distorsión de los enlaces es el parámetro sensible a los cambios de temperatura y presión. Este tipo de modelos que suponen la existencia de una sola clase de moléculas son conocidos como “modelos uniformistas”. En contraposición a los llamados “modelos de mezcla”, que suponen la coexistencia de dos o más tipos de moléculas de agua y cuyo prototipo podría ser el llamado modelo de Roetgen, citado anteriormente.
 
Figura 4. Agua de acuerdo al modelo de Bernal.

Algunos modelos para el agua

El carácter único del agua como líquido y como solvente es manifestado por el considerable número de modelos que han aparecido a través de los años. A medida que se tienen más datos y conocimientos sobre el agua, algunos de esos modelos que no están de acuerdo con ellos, son desechados y permanecen sólo como de interés histórico. Esta revisión no pretende ser exhaustiva, sino intenta centrarse en los modelos más importantes del agua. Una revisión de los modelos antiguos, la han hecho H. M. Chadwell (1927). Otra revisión más reciente es la de Kavanu (1964), Franks (1973), asimismo publicó un excelente libro acerca del agua.

a) Punto de la red vacante

En este modelo [Forslind (1952, 1953)] la fase líquida es considerada como un sistema esencialmente cristalino, muy relacionado a una red ligeramente expandida e idealizada de hielo-I (ver Figura 5). El modelo supone una estructura abierta con las moléculas en una coordinación tetraédrica suficientemente larga para acomodar moléculas libres, no asociadas, sin perturbar considerablemente el orden estructural. El modelo es capaz de predecir, cuando la temperatura se aumenta, cómo una molécula que ocupa una posición en la red puede pasar a ocupar una posición en la cavidad.

Las características de este modelo se pueden resumir de la siguiente manera: 1) Permite que las moléculas cambien de posiciones. 2) Da oportunidad para que las moléculas ocupen posiciones intersticiales y 3) Permite que los defectos de la red se difundan a través de ésta. También explica el aumento de la densidad del agua en términos de estos fenómenos.

b) Modelo del cúmulo titilante

El modelo del cúmulo titilante de H. S. Frank y W. Y. Wen (1957), postula que la formación de puentes de hidrógeno en agua líquida es un fenómeno cooperativo. La existencia de un par de átomos unidos por puentes de hidrógeno promueve la tendencia de cada átomo para enlazar, por medio de puentes de hidrógeno, otro vecino y así sucesivamente. Las moléculas de agua enlazadas por puentes de hidrógeno son susceptibles de formar más puente de hidrógeno con otras moléculas que, a su vez, proporcionan una estabilidad adicional al sistema enlazado existente, dando al proceso un elemento de retroalimentación positiva.

El resultado neto del fenómeno cooperativo de formación de enlaces de hidrógeno es que cuando un puente de hidrógeno se forma, hay una tendencia a que varios más se formen, mientras que si uno se rompe, un grupo entero tiende a romperse. De acuerdo con lo anterior se producen “cúmulos titilantes” de corta vida (tiempos de relajación de 10e–10 a 10e–11s), de extensión espacial variable que consisten de moléculas fuertemente enlazadas.

Se acepta que la estabilización por puentes de hidrógeno para moléculas en el interior del cúmulo es mayor que para las de la superficie. Estos cúmulos están mezclados y alternan funciones con moléculas no-enlazadas, que forman una o dos capas entre los cúmulos y constituyen el resto del sistema. La formación y rompimiento de los cúmulos se explica mediante las fluctuaciones de energía local que crean una “zona fría” adecuada para la formación de un cúmulo, o una “zona de fusión” que propicia su rompimiento.

El modelo del cúmulo titilante, por ejemplo, ofrece una explicación para ciertas propiedades del agua y hace posible la interpretación de los cambios estructurales hacia una mayor “hielez” inducida por solutos no-polares.

c) El modelo del agua hidratada

W. F. Claussen (1951) y L. Pauling y R. S. Marsh (1952), demostraron que las moléculas de agua pueden formar estructuras que, mientras retienen los ángulos de enlace y las distancias intermoleculares características del hielo, son más “flojas” que éste y contienen cavidades relativamente grandes. Estudios de rayos X han confirmado que las distancias y ángulos entre las moléculas de agua en los hidratos de los no-electrolitos difieren muy poco de los valores correspondientes para hielo hexagonal ordinario.

Estos hidratos cristalizan en dos estructuras. La red de uno de ellos es una unidad de estructura cúbica con una longitud lateral de 11.88 Å y contiene cavidades casi esféricas con radios de 3.95 Å y 4.3 Å. El primero está rodeado por 20 moléculas de agua en los vértices de un dodecaedro pentagonal casi regular, y el último por 24 moléculas en los vértices de un tetradecaedro, Los compuestos de esta clase, en los cuales ciertas moléculas están restringidas a ocupar las cavidades de la red (“intersticios”) formadas por otras moléculas, se llaman “clathratos”.

Linus Pauling (1959, 1960) propuso que el agua líquida posee una estructura inestable semejante a los hidratos de sal. En otras palabras, el agua es vista como un “hidrato de agua”. Narten, Danford y Levi (1967) descartaron este modelo del agua con base en resultados experimentales de difracción de rayos X y propusieron una estructura modificada de hielo-I.

 d) El modelo del enlace distorsionado

Este modelo de J. A. Pople (1951) supone que, cuando el hielo se derrite, la flexibilidad de los puentes de hidrógeno aumenta y da lugar a algunos rearreglos en la estructura del agua, sin que haya rompimiento de los puentes de hidrógeno.

La deformación de los enlaces de hidrógeno tiene como resultado la destrucción de la periodicidad a largo alcance de al red de hielo, dando lugar entonces al establecimiento de una estructura irregular de moléculas de agua, siendo casi completamente desordenada a unos pocos radios moleculares de cualquier molécula considerada como origen. De acuerdo a esto hay un aumento en el número de moléculas en la primera y segunda esfera en torno a una molécula dada.

 
 Figura 5. Hielo-I.

Las funciones de distribución radial calculadas para diferentes temperaturas coinciden con los valores experimentales.


El modelo de Narten

Narten, Dandford y Levy (1966) propusieron un modelo intersticial para el agua que por primera vez relacionaba datos experimentales en difracción de rayos X con un modelo estructural teórico.

El modelo presupone una estructura a corto alcance parecida a la de hielo-I. En efecto (ver figura 5), en la estructura modificada del hielo-I cada molécula de agua está rodeada tetraedralmente por otros átomos de oxígeno que mantienen el ángulo tetraédrico (aproximadamente 109) y forman capas de anillos de seis moléculas. Dos capas adyacentes, relacionadas por simetría de espejo, forman cavidades poliédricas con 12 vértices. Estas cavidades pueden ser ocupadas por moléculas de agua “intersticiales”.

Las moléculas de agua puede ocupar posiciones tanto de la red como de las cavidades. Sin embargo no todas las posiciones están ocupadas. Por este motivo se introducen unos factores de ocupación de la red y de la cavidad, f1 y f2, respectivamente, que permiten mantener ciertas vacantes en las posiciones de todas la malla cristalina. Esta característica es importante pues permite ajustar la densidad teórica a la densidad macroscópica observada.

Las posiciones de las moléculas del “cristal” son generadas por desplazamientos de las posiciones generales de la celda unitaria del hielo-I modificada en las tres direcciones espaciales. La celda unitaria consiste en total de doce moléculas: ocho de la red, ocupando posiciones asimétricas, y cuatro ocupando posiciones en las cavidades. Las posiciones generales son generadas mediante traslaciones de la celda unitaria dadas por el vector 1X + mY + nZ, donde 1, m y n son números enteros y X, Y, Z son los vectores de traslación de la celda unitaria en las direcciones x, y, z. Se definen asimismo pesos estadísticos para los diferentes tipos de interacciones: Red-red (r-r), red-cavidad (r-c) y cavidad-cavidad (c-c).

En un líquido las posiciones ocupadas por los átomos no son rígidas, sino que a éstas se les permite oscilar en torno a las posiciones de equilibrio. El método para introducir este efecto es mediante un parámetro en la ecuación de intensidad llamado “factor de temperatura”, que permite a las moléculas vibrar en torno a su posición de equilibrio.

Hay dos caminos posibles para calcular teóricamente la función de distribución radial del agua. Uno es a partir de la función potencial de las moléculas de agua y otro mediante el conocimiento detallado de la geometría de la estructura del agua, pues en este caso es posible generar la función de intensidad y de allí la función de distribución radial. El primer camino, sin embargo, es más difícil, pues sería necesario conocer con precisión la función potencial y esto no es posible cuando se trata de fuerzas de largo alcance, de muchos cuerpos y no centrales.

 
Figura 6. Función de intensidad del agua (4°C) calculada teóricamente.

La intensidad teórica, por otra parte, puede calcularse a partir de una estructura geométrica bien definida, que se puede deducir del conocimiento del arreglo atómico del agua en el estado sólido y de lo que se espera en el estado gaseoso. La descripción geométrica que se escoja permitirá conocer un conjunto de distancias radiales promedio rij, que hacen posible calcular la intensidad mediante la ecuación:

Entra fórmula 01.pdf

Donde el índice i es sumado sobre la unidad estequiométrica y j sobre todos los átomos de la estructura discretas de los bij son los factores de temperatura (bij = ½ variación cuadrática media en rij, entre pares atómicos). Las rij son las separaciones interatómicas promedio.

La serie de términos de id(s), que se hacen más pequeñas a medida que aumenta la distancia, podría terminarse para una distancia arbitraria máxima roij, y suponer una estructura uniforme o “continua” más allá. Finalmente esto correspondería a hacer un hoyo en un medio uniforme y sin estructura donde se insertarían las interacciones discretas.

La intensidad reducida para la distribución continua de distancias empezando en roij y extendiéndose a los límites de la muestra es:

Entra fórmula 02.pdf

Aquí los índices i y k son sumados sobre la unidad estequiométrica y 0 es la densidad macroscópica.

La curva de intensidad reducida del modelo puede calcularse como la suma de las contribuciones discreta y continua:

Entra fórmula 03.pdf

(Se puede demostrar formalmente que la intensidad total es la suma de las contribuciones discreta y continua).

Las funciones de intensidad generadas con esta expresión (previo ajuste de distancias intramoleculares y factores de temperatura) exhiben una buena concordancia con los obtenidos experimentalmente. Aun cuando esta concordancia es necesaria para que el modelo pueda sostenerse, sin embargo de ninguna manera constituye una prueba irrefutable de que sea “el modelo”. En otras palabras el modelo no es único, pues puede haber otros que, suponiendo una geometría ligeramente diferente, también sean capaces de generar la función de intensidad y la función de distribución radial. En tal caso sería necesario analizar la bondad del ajuste para cada modelo.

El modelo de Narten proporciona un marco teórico para generar modelos de estructuras moleculares de agua y soluciones acuosas mediante el cálculo de las funciones de intensidad y distribución radial y su comparación con el experimento.

Referencias bibliográficas

1. Argelli, C. La Recherche. Vol. 13 No. 113 (1982.)
2. Daiton, J. Trans Royal Soc. Vol. 41, 162 (1739).
3. Apfel, R. E., Nat. Phys. Sciencie, Vol. 63, 238 (1972).
4. Roentgen, W. K., Ann. Phys, Vol. 45, 91 (1982).
5. Bernal, J. B. Y Fowler, R. H., J. Chem Rev., Vol. 4, 375 (1927).
6. Franks, F., Water: A Comprehensive Treatise, Vols. 1 … 7, (1973), … (1982), Plenum Press, N. Y.
7. Kavanau, J. L., Water and Water Solute Interactions, Holden-Day (1964).
8. Frank, H. S. Y Wen, W. Y., Disc. Faraday Soc., Vol. 24, 133 (1957).
9. Pauling, L., Hydrogen Bonding, Pergamon Press, Londres (1959).
10. Narten, A. H., Danford, N. D., Levy, H. A., Disc. Faraday Soc., Vol. 43, 97 (1967).
11. Narten, A. H., Danford, N. D., Levy, H. A., ORNL-3397 (1966).
12. Bonilla-Marín, M. Tesis doctoral. Universidad de Londres (1983.)
     
____________________________________________________________      
Marcial Bonilla
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
 R07Articulos   menu2
   
   
Antonio Sarmiento      
               
               
Las simetrías en partículas elementales podrían conducirnos a la unificación de las interacciones
La teoría de la relatividad, debida principalmente a Einstein,
ha sido considerara recientemente como una mera aproximación al tratamiento de la gravitación. La razón para ello estriba en la incompatibilidad que existe entre dicha teoría y el otro gran logro de la física de nuestro siglo: la mecánica cuántica. Los intentos para encontrar una descripción teórica que unifique ambas teorías, se han visto frustrados durante décadas por problemas conceptuales desanimantes e intrincadas dificultades técnicas.

Sin embargo, recientemente ha surgido un esquema alentador conocido con el nombre de supergravedad, que intenta describir el más familiar de los campos, el campo gravitacional, como una componente más de una red muy elaborada de fuerzas y campos.

Un sentimiento algo común entre los físicos de nuestros días es el de creer que nos encontramos en vísperas de dos sucesos sensacionales: el descubrimiento de dos bloques fundamentales, que unidos de varias formas, originan las partículas subatómicas y el descubrimiento de una nueva superfuerza que unifique todas las fuerzas conocidas de la naturaleza en un solo mecanismo responsable de la unión entre los bloques fundamentales. Si contásemos con una teoría de tales fenómenos, tendríamos una explicación total sobre la manera en que está estructurado el universo físico y sobre cuál es su funcionamiento, —la culminación de la ciencia fundamental de acuerdo a algunos científicos.
Un intrigante arreglo de fragmentos brota cuando las partículas nucleares chocan entre sí a enormes energías, estos fragmentos se desintegran en formas más estables después de fracciones de tiempo increíblemente diminutas, mucho menores que un segundo. Al analizar cuidadosamente dichos fragmentos se descubren docenas de especies distintas de partículas que contrastan con las pocas formas estables de que está compuesta la materia ordinaria. La tarea requerida es la de organizar estas diversas especies en un patrón significativo y entender las relaciones entre ellas. ¿Cuál es su función? ¿Por qué necesita la naturaleza tantas especies?

Las partículas subnucleares interaccionan de formas complejas pero, afortunadamente, las fuerzas involucradas en dichas interacciones pueden organizarse en cuatro tipos básicos que, en orden de poder relativo creciente, son: gravitacionales, nucleares débiles, electromagnéticas y nucleares fueres (Ver Tabla).

Las fuerzas gravitacionales y electromagnéticas son familiares en la vida diaria mientras que el campo de acción de las fuerzas nucleares se restringe a las dimensiones subatómicas: la interacción fuerte mantiene a los núcleos unidos y la interacción débil controla procesos como la emisión de electrones por núcleos radioactivos (decaimiento beta). En principio, estas cuatro fuerzas deberían explicar la estructura interna y la organización de toda la materia. Uno de los avances más excitantes de la década pasada fue el desarrollo de esquemas que parecen combinar las fuerzas nucleares con el electromagnetismo (Teorías de Gran Unificación), esto significa que en lugar de las cuatro fuerzas tradicionales tendremos que analizar sólo dos tipos de fuerzas: la fuerza nucleo-electromagnética y la fuerza gravitacional. Pero, ¿acaso no resulta intrigante que la gravedad quede aislada de esta manera?

Quizá la gravedad, la primer fuerza que se modeló matemáticamente y sin embargo la más misteriosa de la naturaleza, no pueda unificarse con las demás sino sólo a través de una superfuerza —una simple interacción básica que pueda describir todos los procesos conocidos.

 
 Figura 1. Cuatro fuerzas básicas regulan todas las interacciones conocidas entre las partículas materiales. A pesar de sus diferencias en intensidad y rango de acción, las cuatro fuerzas describen mediante teorías de igual forma matemáticas; las teorías de normal local. En teoría cuántica de campo la fuerza entre dos partículas se manifiesta a través del intercambio de una tercer partículas llamada virtual. La masa de esta partícula virtual determina el rango de acción de la fuerza. Las partículas virtuales sin masa, como el fotón y el gravitón originan fuerzas con un rango de acción infinito.

El confirmar qué tan correctas son estas ideas adquiere una importancia vital para el conocimiento de las condiciones imperantes en el universo desde su origen, condiciones que nos permiten intentar una descripción de su evolución. De acuerdo a la representación cosmológica aceptada hoy en día, poco después de la Gran Explosión la temperatura del universo era lo suficientemente alta como para pensar en la existencia de un solo tipo de fuerza. Al expandirse el universo con el transcurrir del tiempo y disminuir la temperatura, todas las fuerzas conocidas, empezando por la gravedad se fueron desacoplando una a una y adquirieron el caracter individual que exhiben en el presente. Este proceso puede verse de manera análoga a la forma en que ocurren los cambios de fase gas  líquido  sólido al disminuir la temperatura. De manera que, validez de por medio, mientras no logremos someter a la gravitación a los esquemas unificadores, no podremos empezar a formarnos una idea de las condiciones existentes en el universo antes de que la gravedad se desacoplara de las demás fuerzas conocidas. El papel de las diferentes fuerzas en la evolución del universo constituye un tema que escapa a la intención original de este trabajo y que, consecuentemente, no será tratado más ampliamente.

UNIFICACION Y SIMETRIA

La ambiciosa tarea de combinar todas las interacciones está siendo desarrollada por un ejército de teóricos que utilizan técnicas fascinantes. Un concepto central en el programa de unificación es el de simetría, cualidad que observamos en la naturaleza desde los copos de nieve hasta las estructura de la Vía Láctea. La simetría, concepto que ha jugado un papel importante en las normas decorativas de muchas culturas, es la cualidad de algunos objetos que, en pocas palabras, les permite mantener su forma o su diseño bajo ciertos movimientos.

 
 Figura 2. Las simetrías de la naturaleza determinan las propiedades de las fuerzas en las teorías de norma. La forma de un copo de nieve permanece invariante al girar el copo 60°. En física se trabaja con simetrías no geométricas; la invariancia de las fuerzas entre un conjunto de partículas cargadas cuando las polaridades de todas ellas se invierten, se conoce como simetría de carga. La simetría de espín isotópico es la invariancia de las interacciones fuertes bajo el intercambio de protones y neutrones, ambas partículas son dos estados alternativos de una sola super partícula y las transiciones entre los estados se pueden imaginar como el ajuste de la orientación de un indicador en un espacio interno. A las simetrías de esta última clase, donde la transformación es una rotación interna o un corrimiento en la fase, se les conoce como simetrías de normas.

Las simetrías geométricas como las que caracterizan formas simples, círculos o cuadrados, sobresalen al verlas. Existen también otras simetrías, de naturaleza no geométrica y por ello no tan obvias, que resultan mucho más útiles: las simetrías entre frío y caliente, entre las cargas eléctricas positiva y negativa, entre los polos magnéticos norte y sur, —simetrías abstractas cuya función esencial es la de proporcionar una relación simple entre entidades físicamente distintas, conceptos que constituyen un lenguaje unificado para la descripción de cosas diferentes mediante el uso de un solo esquema. Recientemente se han descubierto simetrías muy sutiles en los nichos más profundos de la materia y se las ha utilizado en la construcción de una descripción de las partículas y fuerzas fundamentales con la que se ha logrado cierta simplicidad y orden en el estudio de las prolíficas especies subnucleares. En la física, lo que permanece invariante no es un dibujo o un objeto, es el esquema matemático de la teoría que nos permiten la descripción de las partículas y de las fuerzas que rigen sus interacciones.

 
 Figura 3. Simetrías locales y globales. Consideramos un globo perfectamente esférico marcado con un sistema de coordenadas que nos permiten identificar todos los puntos en la superficie. Al girar el globo sobre un eje, la forma permanece invariante y la simetría correspondiente es global pues las posiciones de todos los puntos en la superficie cambian por el mismo desplazamiento angular. La simetría local requiere que el globo mantenga su forma aun si los puntos en la superficie se mueven independientemente. Nótese que la deformación de la superficie que resulta de dicho movimiento, introduce fuerzas entre los puntos. Se piensa que cada una de las cuatro fuerzas en la naturaleza se originan al requerir que alguna ley de la naturaleza permanezca invariante bajo transformación de simetría local.

Existen dos tipos de simetría, las simetrías que resultan de la aplicación de una transformación uniforme a todos los constituyentes de un objeto (globales) y aquellas en las que la transformación que las origina es distinto para cada una de las partículas del objeto (locales). Si bien, una simetría global donde las transformación es la misma para todos los puntos de un cuerpo, puede parecer un concepto más amplio, las simetrías locales en donde cada punto se transforma independientemente, imponen exigencias más estrictas en las teorías y revelan uniones más profundas en la naturaleza. Un ejemplo debido a Freedman y Van Nieuwenhuizen aclara esta afirmación. Un globo esférico al que se gira cierto ángulo alrededor de un eje que pase por su centro, preserva su forma esférica y como todos los puntos de su superficie se han transformado de la misma manera (han rotado un mismo ángulo), se tiene entonces una simetría global. Sin embargo, moviendo independientemente cada uno de los puntos en la superficie del globo de manera que permanezcan sobre dicha superficie, es decir, que sus distancias al centro de la esfera permanezcan fijas para que la forma esférica se mantenga, estamos originando una simetría local. En este caso, la superficie del globo se arrugará en algunas regiones y se estirará en otras dando origen a fuerzas que tratarán de resistir a la superficie a su estado original. Estas fuerzas aparecen de una manera idéntica cuando una teoría física posee una simetría local: el paso de una simetría global a otra local puede usarse para describir el origen de las fuerzas gravitacionales y electromagnéticas.

Existen razones para sospechar que las demás fuerzas surgen también de simetrías locales pues mediante la aplicación de simetrías abstractas a las partículas subatómicas se ha logrado el reconocimiento de ciertos patrones que no son de manera alguna obvios. Un ejemplo sencillo es el del protón y el neutrón, los constituyentes de todos los núcleos atómicos: superficialmente se trata de dos partículas distintas —el protón está cargado eléctricamente mientras que el neutrón no sólo no tiene carga sino que es ligeramente más pesado; sin embargo, en muchos procesos nucleares ambas partículas se comportan de manera idéntica y la carga del protón actúa únicamente como una etiqueta y no como un atributo físico adicional. Es posible entonces considerar a ambos, neutrón y protón, como dos estados del mismo objeto básico y pensarlos relacionados por una simetría abstracta similar a aquella que existe entre polo norte y polo sur.

De esta manera se ha logrado agrupar a legiones entras de especies subnucleares en familias, representando cada familia esencialmente un solo tipo de objeto que posee varias facetas distintas. Se necesitan simetrías mucho más complejas, que involucren muchas componentes, para identificar estas agrupaciones más elaboradas; aun así, la técnica ha rendido altos dividendos al extender nuestra comprensión del mundo subnuclear.

Desde que fueron reconocidas como tales, las partículas subatómicas se habían dividido en dos grupos completamente distintos: los fermiones y los bosones. Las partículas como los electrones poseen una propiedad crucial que afecta drásticamente su comportamiento colectivo: dos electrones idénticos, i. e. dos electrones con las mismas características cuánticas (incluyendo la orientación), no pueden moverse en la misma órbita alrededor de un único átomo. Esta exclusividad, formulada como un principio de la física por Wolfgang Pauli, opera en forma de repulsión: cuando se intenta aglutinar electrones, se manifiesta una poderosa resistencia a ello.

La tendencia de los electrones a evitarse entre ellos y buscar la soledad es la responsable de la estructura difusa de los átomos, obliga a los electrones a apilarse alrededor del núcleo en órbitas progresivamente más alejadas, tal y como se acumulan aeronaves sobre un aeropuerto en espera de pista para aterrizar.

Las partículas que obedecen el principio de exclusión de Pauli se conocen por el nombre colectivo de fermiones (en honor de Enrico Fermi quien sentó las bases de su comportamiento estadístico); en este grupo se encuentran también los protones y los neutrones. Una característica de estos fermiones es que se encuentran girando de una manera similar a como la Tierra gira sobre su propio eje y que además, dicho movimiento permanece siempre constante —una unidad fundamental fija llamada espín. Usualmente, al espín del electrón se le asigna el valor 1/2.

 
 Figura 4. La supersimetría relaciona partículas cuyos espines son adyacentes, i.e. difieren por 1/2 de aquí que cualquier fermión y bosón cuyos espines son adyacentes se consideran como manifestaciones alternativas de una sola “superpartícula” con un indicador (flecha) en una espacio auxiliar.

Existen también otras partículas que no giran sobre su propio eje, no obedecen al principio de exclusión y pueden ser aglutinadas sin resistencia; los mesones son un ejemplo de tales partículas. Su comportamiento colectivo es muy distinto del de los fermiones y se les conoce con el nombre de bosones (en honor de Satyendra Bose por razones similares al nombre de los fermiones). Algunas otras partículas como los fotones, tienen también espín pero este es el doble del de los electrones; en general, las partículas con múltiplos pares de espín (valores enteros) son también bosones mientras que aquellas partículas con múltiplos impares de espín (valores semienteros) son fermiones.

La cantidad de espín presente en cada partícula es crucial para el tipo de matemáticas utilizadas en su descripción: los bosones muestran ciertas simetrías que son muy distintas de las simetrías que muestran los fermiones, razón por la cual se les había considerado como dos grupos distintos y ajenos. No obstante, a principios de los años 70 un número de físicos teóricos descubrieron independientemente una simetría matemática sutil que relaciona a los dos grupos que hasta entonces se consideraban dispares. Tal y como una reflexión en el espejo cambia a una mano derecha en izquierda, una clase de reflexión abstracta cambia a un fermión en un bosón. Esta poderosa simetría se conoce hoy día con el nombre de supersimetría.

La operación de supersimetría, al igual que las otras simetrías abstractas, es únicamente un aparato conceptual, no es posible cambiar real o físicamente a un fermión en bosón, como tampoco lo es el cambiar un protón en un neutrón. Lo que se logra mediante el concepto de supersimetría es la construcción de un lenguaje matemático unificado que describirá el comportamiento de estos dos diferentes tipos de partículas usando un solo esquema.

UNIFICACION E INTERACCION

El concepto de supersimetría constituye una herramienta que podría capacitarnos para unificar a la gravedad con las demás fuerzas de la naturaleza y simultáneamente descubrir la superfamilia final que contendría a todas las partículas subatómicas, un logro doble que resolvería de una buena vez el problema de la constitución del mundo material. La clave para lograr tal ambición se encuentra en el hecho de que en el dominio subatómico las partículas actúan como portadoras las fuerzas.

 
Figura 5. El concepto de campo, una o varias cantidades definidas en cada punto del espacio-tiempo, puede representarse en teoría cuántica de campo por medio de las partículas virtuales. Para el caso de un campo escalar, que se define por una sola cantidad en cada punto (cuya intensidad es proporcional al área de los discos de la figura), se pueden pensar en una partícula virtual con una sola orientación o espín cero. Las tres componentes (una magnitud y dos ángulos) de una campo vectorial en el espacio tridimensional se pueden representar mediante una partícula virtual con tres posibles orientaciones o espín uno. 

Dos partículas interaccionan mediante el intercambio de partículas mensajeras de forma análoga a dos jugadores de tenis que interaccionan mediante el intercambio de pelotas. Las fuerzas fundamentales son entonces inseparables de la naturaleza de las partículas materiales mismas; se encuentran en un esquema de agrupación que incluya a las partículas mensajeras de todas las fuerzas en la naturaleza, entonces la simetría asociada con dicho esquema proveerá una descripción unificada de todas las fuerzas.

Para poder incorporar a la gravedad en el esquema unificador será entonces necesario describir a la fuerza gravitacional en términos del intercambio de partículas mensajeras; si bien no encontramos en la vida diaria partículas de fuerza gravitacional, no partículas de fuerza electromagnética, en el dominio atómico se vuelve manifiesta la naturaleza de dichas fuerzas. La fuerza electromagnética muestra su comportamiento corpuscular a través del fotón, la interacción fuerte lo hace a través de mesones , la interacción débil mediante bosones vectoriales intermedios y, de la misma manera, la fuerza gravitacional se asocia con una nueva clase de partícula: el gravitón (ver Tabla). Esta partícula, todavía no detectada pero requerida por los esquemas actuales que intentan representar a la física como un todo unitario, jugaría en la gravitación el mismo papel que el fotón juega en el electromagnetismo, que los mesones  juegan en la interacción fuerte y que los bosones vectoriales juegan en la interacción débil.

Con la ayuda de las matemáticas podemos explorar las propiedades de estos aún no detectados gravitones. Al hacerlo encontramos que los gravitones deberían ser bosones, poseer un espín de cuatro veces la unidad, carecer de masa, y que deberían viajar a la misma velocidad que los fotones, la velocidad de la luz. De hecho, se puede demostrar que el intercambio de bosones con valores enteros impares de espín origina fuerzas repulsivas entre las partículas. De aquí que el hecho de que el gravitón deba tener el doble del espín que el fotón, sirva para explicar la diferencia entre los dos tipos de interacción: dos cargas del mismo signo se repelen mutuamente en electromagnetismo pues interactúan a través de partículas cuyo espín tiene el valor 1, mientras que dos cuerpos con masa (del único signo conocido) se atraen al interactuar gravitacionalmente pues intercambian partículas con valor 2 para el espín. También el hecho de que el gravitón deba carecer de masa explica el rango de acción de la atracción gravitacional, ya que se puede probar que las fuerzas de largo alcance provienen del intercambio de partículas sin masa, mientras que las de corto alcance se originan del intercambio de partículas con masa. Pero ¿a qué familia deberán pertenecer los gravitones? ¿Podrán relacionarse con otras partículas a través de una simetría abstracta de la misma manera que los neutrones están relacionados con los protones? Es aquí donde interviene el concepto de supersimetría; se han encontrado varios esquemas que combinan al gravitón con otras partículas y que precisamente se distinguen por el hecho de requerir que ambos, fermiones y bosones, pertenezcan a esta nueva supersimetría. Mediante la transformación de supersimetría podemos asociarle a cada fermión un bosón de espín contiguo, es decir, la operación transforma a un fermión con espín J en un bosón cuyo espín puede tener uno de dos valores: J + 1/2 o J – 1/2. Además, al pedir que la supersimetría global se extienda a invariancia local, aparece de manera natural una nueva fuerza que deberá representarse mediante partículas mensajeras cuyo espín deberá tener un valor que diferirá del espín del gravitón en 1/2. De esta manera, un fermión llamada gravitino debería introducirse para jugar el papel de la contraparte del gravitón y redondear la teoría. El gravitino debería tener la poco usual propiedad de poseer un espín de tres veces la unidad y su descubrimiento representaría un poderoso apoyo en favor de las ideas mencionadas.

Este esquema teórico recibe el nombre de supergravedad y el reto central al que se enfrenta es el de identificar la simetría abstracta particular que utiliza la naturaleza para unificar al gravitón con todas las otras partículas. Las matemáticas utilizadas permiten varias posibles elecciones, pero ¿cuál, si existe, es la simetría correcta?

La elección más promisoria requiere de la existencia de ocho gravitinos, veintiocho partículas con espín doble, cincuenta y seis con espín unitario y no menos de setenta partículas sin espín. ¿Pueden unificarse todos estos nuevos miembros de la familia del gravitón con todos los otros fragmentos de materia que se han descubierto? En particular, ¿caben en la nueva familia el fotón y los mensajeros de las fuerzas nucleares?

 
 Figura 6. El repetir una transformación de supersimetría como la indicada (fermión  bosón  fermión) mueve a la partícula de un punto en el espacio a otro distinto. Si la supersimetría es local, el desplazamiento puede ser diferente para cada punto del espacio. Esta relación entre supersimetría y la estructura del espacio-tiempo da origen a la fuerza gravitacional en teoría cuántica de campo.

Un análisis superficial sugiere que esta particular versión de supergravedad es sólo parcialmente correcta. De acuerdo al pensamiento actual, la superfamilia no es lo suficientemente grande como para acomodar todos los esperados bloques constituyentes de la materia, bloques cuya detección no se ha logrado aún para todos ellos pero cuya aparición se considera sólo una cuestión de tiempo. Esto último se debe a los grandes éxitos logrados recientemente en la detección de las partículas mensajeras involucradas en la teoría que unifica las interacciones débiles y las electromagnéticas (las 3 partículas mensajeras llamadas bosones vectoriales intermedios fueron descubiertas en 1983 y comunicadas mediante artículos que firman 137 autores).

 
 Figura 7. Historia sobre las teorías sobre las interacciones de la naturaleza. Supergravedad es una teoría desarrollada en la segunda mirad de la década de los setenta, que describe la gravitación dentro de una teoría cuántica de campo. La teoría de supergravedad no ha sido aún confrontada con resultados experimentales.

PARTICULARIDADES DEL ESQUEMA TEORICO

Mientras esperamos que el difícil y penoso trabajo de llevar a la teoría a un contacto mayor con el experimento empiece a dar algunos frutos, podemos continuar colectando evidencia que apoye o vuelva inaceptable la idea de supergravedad. (La espera puede resultar larga pues las energía involucradas en el siguiente paso, las teorías de Gran Unificación que no contemplan incluir a la gravitación, sino sólo a la interacción nuclear fuerte, son del orden de 1013 veces mayores que la capacidad disponible actualmente en el supersincrotón más poderoso).

Uno de tales segmentos de evidencia involucra a los gravitinos. Intentos previos para introducir el concepto de partículas con tres unidades de espín habían encontrado serios problemas. Cálculos elementales indicaban que las fuerzas entre ellos podían viajar más rápido que la luz contraviniendo la teoría especial de la relatividad. En las teorías actuales de supergravedad no se encuentra ese indeseable problema.

Otro signo alentador en el frente técnico está relacionado con una enfermedad que plaga todo el trabajo teórico moderno en procesos subatómicos: antes de poder hacer alguna predicción las teorías deben sobrepasar un enorme obstáculo, el hecho de que en todos los procesos investigados (excepto los simples), los cálculos divergen dando infinitos, es decir, respuestas sin sentido. Algunos físicos, mediante sagaces manipulaciones matemáticas, han diseñado técnicas que en algunos casos, pero no siempre, evitan la aparición de estas divergencias. La experiencia de la última década sugiere que, mientras mayor sea el grado de simetría abstracta en la teoría, mayor será la facilidad para evitar las divergencias destructivas.

Un ejemplo clásico lo constituye la interacción nuclear débil, interacción que al estudiarse de manera aislada no puede entenderse debido a que su descripción matemática se encuentra contaminada de inevitables divergencias. Sin embargo, al final de la década de los 60 y de manera un tanto independiente, Abdus Salam y Steven Weinbger, lograr unificar la fuerza nuclear débil con la fuerza electromagnética, esta última mucho más simétrica que la primera. Con el grado adicional de simetría, la teoría que describe la combinada fuerza electromagnético débil queda libre de divergencias. El decaimiento débil de núcleos atómicos involucra el cambio de neutrones en protones (o viceversa) con la creación de un electrón y un antineutrino (o sus antipartículas) que balancean el cambio de carga eléctrica. La interacción se realiza a través de partículas mensajeras, los mencionados bosones vectoriales intermedios cargados denotado por W+ / W dependiendo del signo de la carga. Existen también otras interacciones en la teoría incorporadas por Sheldon Glashow que explican el cambio de protones en protones, electrones en electrones, etc., y que se conocen con el nombre de Corrientes Neutras; éstas se llevan a cabo mediante el intercambio de un bosón vectorial intermedio neutro denotado por Z. Todos los bosones vectoriales intermedios son extremadamente inestables y decaen casi inmediatamente.

En forma similar al caso de la interacción débil, al estudiar la gravedad de manera aislada brotan divergencias que sólo han permitido la realización de muy pocos cálculos de interés; nadie ha encontrado hasta ahora la manera de evitar dichas divergencias. Se espera que, con la simetría extra que posee supergravedad, se repita el éxito de la teoría de Salam-Weinberg. Parece prematuro tomar una decisión a este respecto. Mencionaremos sin embargo que varios cálculos irrealizables por las divergencias presentes en la gravedad aislada han sido realizados con éxito dentro de supergravedad, proporcionando resultados finitos.

EPILOGO

En la relatividad general la atracción gravitacional se deriva de las propiedades geométricas del espacio-tiempo, mientras que en la teoría cuántica las fuerzas se originan mediante el intercambio de partículas mensajeras. Existen, pues, dos formas distintas de intentar la unificación de las dos teorías. Una es describir a la relatividad general con el lenguaje cuántico de campos y pensar a la interacción gravitacional en términos de partículas, la teoría expuesta en las líneas precedentes y llamada supergravedad. La otra sería pensar a ambas teorías en términos geométricos, el conceptualizar superespacios con propiedades que nos dijesen cómo se realizan las interacciones. Pocos intentos se han hecho en este campo y consecuentemente la literatura sobre el tema es comparativamente escasa.

Hasta hoy día la supergravedad es una tarea tenuemente percibida —un audaz intento de resolver de un solo golpe muchos de los problemas más importantes de la física fundamental moderna. Si resulta exitoso el intento, cosa que sólo con el tiempo sabremos, ¿significará esto que los físicos habrán terminado con su tarea y ya no tendrá qué hacer? Este punto de vista, en el que la teoría sería considerada como un vivo reflejo de la realidad, conduce a preguntas fuera de la intención original de este trabajo y difiere fuertemente de la experiencia previa. Con sólo un vistazo encontramos que la historia sugiere lo contrario: los grandes avances en nuestra comprensión del universo vienen usualmente acompañados de inmensas extensiones en el horizonte conceptual y por el surgimiento de nuevos tipos de problemas que reemplazan con creces a los viejos problemas resueltos. Más que llegar a convertirse en el fin del camino, la supergravedad bien podría significar el acceso a nuevos, mucho más ricos campos científicos.

       
     
AGRADECIMIENTOS
Se agradece a Alberto García la adaptación de las figuras.
* Investigador del Instituto de Astronomía, UNAM.
     
Referencias PARA LECTURAS COMPLEMENTARIAS

Sobre supergravedad

1. D. Z. Freedman y P. Van Nieuwenhuizen, Supergravity and the unification of the laws of Physics, Scientific American, February 1978, 126-143. Reimpreso en Investigación Científica, en español.
2. G. Hooft, Gauge Theories of the Forces between Elementary Particles, Scientific American, June 1980, 104-138.
3. S. Weinberg, Unified Theories of Elementary Particle Interaction, Scientific American, July 1974, 50-59.
4. S. Glashow, Quarks with color and flavor, Scientific American, Octobre 1975, 38-50.
5. S. Deser and B. Zumino, Consistent Supergravity, Physics Letters 62 B, 335-337, 1976.
6. D. Z. Freedman, P. Van Nieuwenhuizen and S. Ferrar, Progress toward a theory of supergravity, Physical Review D, 13, 3214-3218m 1976.
7. M. T. Grisaru, P. Van Nieuwenhuizen and J. A. M. Vermaseren, One-Loop renormalizability of pure supergravity and of Maxwell-Einstein theory in extended supergravity, Physical Review Letters, 37, 1662-1666, 1976.
8. J. Wess and J. Bagger, Supersimmetry and Supergravity, Princeton Unifersity Press, New Jersey, USAN, 1983.

Sobre unificación de electromagnetismo e interacción nuclear débil

1. E. Fermi, Zeitschrift für Physik, 88, 161, 1934.
2. S. Weinberg, Physical Review Letters, 19, 1264, 1967.
3. S. Weinberg, Lectures on Elementary Particles and Quantum Field Theory, S. Deser, M. Grisaru and H. Pendelton eds, MIT Press, Cambridge, Mass., 1970.
4. A. Salam, Weak and electromagnetic interactions, in Elementary Particle Physics, N. Svartholm ed., Almqvist and Wiskells, Stockholm, 1968, p. 367.
5. S. Glashow, Nuclear Physics 22, 579, 1961.

Sobre el descubrimiento de los bosones vectoriales intermedios

1. Electroweak interference confirmed, Physics today, August 1982, 19-21.
2. PP colisions yield intermediate bosons at 80 GeV, as predicted, Physics today, April 1983, 17-20.
3. Stalking the W particle, Sky and Telescope, May 1983, 406-407.
4. Proton Decay not seen at predicted rate, Physics today, September 1983, 20.
5. Discovery of the Z0 at CERN also yields anomalous events, Physics today, November 1983, 17-19.
6. Z0 particle discovered, Sky and Telescope, December 1983, 503-504.
7. G. Arnison et al, Physics Letters, 126B, 398 y 129B, 273, 1983.
8. P. Bagnania et al., Physcis Letters, 129B 130, 1983.

Sobre Gravedad

1. J. Schwarts and M. McGuinness, Einstein for Beginners, Writers ad Readers Pub. Coop., London, 1979.
2. A, Sarmiento G., Gravitación, Ciencias No. 5., Enero-Marzo 1984, 16-23.
3. S. Weinberg, Gravitation and Cosmology, J. Wiley & Sons, Inc., N. Y., 1972.
4. D. M. Greenberger and A. W. Overhauser, The Role of Gravity in Quantum Theory, Cientific American, May 1980, 66.

Sobre simetría y teoría de grupos

1. A. B. Wolbarst, Simmetry and Quantum Systems, Van Nostrand Reinhold Co., N. Y., 1977.
2. K. Moriyasu, An Elementary Primer for Gauge Theory, World Scientific Pub. Co., 1984.

     
____________________________________________________________      
Antonio Sarmiento
Investigador del Instituto de Astronomía
Universidad Nacional Autónoma de México.
     
_____________________________________________________
como citar este artículo 
 
[En línea]
     
Você está aqui: Inicio Blog (2) revistas revista ciencias 7