de la solapa |
![]() |
|
|||||||||||
Pròs Bíon: reflexiones sobre arte, ciencia y filosofía
|
![]() |
||||||||||||
María Antonia González Valerio (coord.).
Facultad de Filosofía y Letras-UNAM. México, 2014.
|
|||||||||||||
¿Cómo distinguir el arte de la ciencia? Tal pregunta
no tiene sentido sino hasta el Renacimiento (antiguamente se pudo decir que hubo tejné que producía episteme), cuando las artes “bellas” comenzaron a separarse de las artesanías y cuando surgieron las ciencias modernas con sus métodos de verificación y observación empíricos. El tema de la verdad y el estatuto espistémico será siempre fundamental. Algo se orienta del lado del ser y algo del lado del no-ser. Y poco a poco se van ganando las autonomías: arte autónomo (en esto la tercera crítica de Kant jugó un papel esencial), ciencia autónoma (la física del siglo xvii sería la punta de lanza).
Los saberes se vuelven pretendidamente autónomos —quizá, incluso, autosuficientes. Se genera la idea de unidad y, aunada a ella, la de sistematicidad y método. ¿Cómo pensar la unidad de la ciencia y también la del arte? ¿Cómo inventar una autonomía (y luego socavarla)? Así como se buscó con ahínco lo que automatiza y proporciona identidad —qué distingue un saber de otro—, se ha buscado también lo que reúne. Uno de los ensambles que más mueve a la reflexión acerca de lo que reúne es el uso de la técnica y la tecnología en las artes y en las ciencias, aunque con objetivos distintos. Se ha dicho mucho que las artes han usado los desarrollos científicos para sus propias producciones. Desde las matemáticas (exempli gratia, la perspectiva) y la química (exempli gratia, los pigmentos), hasta la tecnología (exempli gratia, la fotografía). También hay que considerar la creación de máquinas en ambos terrenos. Asimismo, se ha jugado a cierta “estetización” de la ciencia porque lo que produce puede ser bello (los axiomas o la visualización de los fractales) o porque hay invención e imaginación. Los puntos en los que podríamos marcar la relación entre arte y ciencia en un posible mapa son muchísimos, y no es necesario tratar de enlistarlos aquí. Para nuestra contemporaneidad, los momentos paradigmáticos de usos tecnológicos compartidos serían, por un lado, la inserción de la técnica fotográfica y del video y, por otro, la de las computadoras. Es a tal punto paradigmático que es casi imposible pensar en el arte actual sin incluir fotografía, video y computación, con lo que se hace patente la inserción de las artes en la llamada era de la tecnociencia.
El modelo de las artes en los años ochentas y noventas estuvo fuertemente marcado, e incluso determinado, por aquello que se llamó “nuevos medios”, es decir, por la inclusión de las tecnologías electrónicas hasta el punto en que se convirtieron en medio y tema del arte.
Es posible decir, sin dubitaciones, que el uso de la tecnología es un lugar común para el arte y la ciencia, pues sin ella no pueden habérselas hoy día. Lo que habría que discutir, en todo caso, es si se trata de la misma tecnología: ¿las artes llegan después a los desarrollos tecnológicos de punta? Esta pregunta la podemos extender: ¿cuando el arte trabaja con la ciencia, siempre va a la zaga de las investigaciones y descubrimientos científicos? ¿Para qué trabajaría el arte con la ciencia, específicamente con sus temas y contenidos? ¿Es esto posible?
En vez de continuar por el camino de dichos cuestionamientos —que serán abordados y desbordados en las páginas de este libro— regresemos al tema de la trama y digamos que la atropellada relación entre arte y ciencia está marcada por dos puntos básicos: el estatuto epistémico, es decir, la verdad de la ciencia enfrentada a la falsedad del arte (las implicaciones y consecuencias de ello siguen siendo contundentes para nuestra actualidad), y el uso necesario de la tecnología.
Ahora habrá que hablar de la pericia. Lo primero será poner en cuestión el estatuto epistémico y el modelo de verdad que está detrás de éste. Lo segundo será desplazar la concordancia en el uso de la tecnología hacia la concordancia en los temas y materiales de investigación (para que se produzca discordancia en el uso de la tecnología a partir de la prosecución de un fin harto diferente). Y habrá que poner un tercer elemento: el desplazamiento desde la física, las matemáticas, la electrónica y la computación, como centros de la discusión, hacia la biología, la cual es por supuesto deudora de lo anterior, pero no reductible a enfoques físico-químicos (aunque esto es un punto álgido del debate actual).
Planteemos entonces la relación entre arte, ciencia y filosofía, al decir, por lo pronto, que a aquel paradigma epistémico —que tal vez comienza con la condena platónica de la poesía y que señala las artes como no-verdaderas— podemos oponer un paradigma que piensa arte, ciencia y filosofía como modelos de comprensión de lo real, los cuales, lejos de pretender asemejarse o emparentar sus métodos, entendidos éstos más griega que modernamente, afirman de modo productivo sus diferencias. Mas para ello primero tendrán que haber devenido distintos: no se trata del arte inserto en la institucionalidad del museo y del mercado, es decir, no es el arte la consciencia estética. No se trata de la ciencia que afirma conocer la verdad sin mediaciones, esto es, la que lejos de hablar de modelos o metáforas habla de lo efectiva y empíricamente real. No se trata de la filosofía que recusa la metafísica y se limita a preguntar por las ciencias segundas y sus procederes, es decir, aquella que no puede y no quiere pensarse primeramente como ontología.
La pericia en esta trama se encuentra marcada, entonces, por tales personajes; una filosofía que se quiere ontológica, a saber, un modelo de comprensión de lo real; un arte que se reconoce como productor del mundo, esto es, un modelo de comprensión de lo real, y una ciencia que se asume como interpretación de la complejidad que deviene, es decir, un modelo de comprensión de lo real.
Lo que encontraremos serán híbridos artístico-filosófico-científicos que han cruzado e imbricado sus saberes para producir “cosas” indiscernibles, pero no son indiscernibles visuales, porque el tema no está en su (in)diferenciación del objeto cotidiano, sino en tanto que son modelos e interpretaciones del mundo.
¿Qué importa aquí si se trata de ciencia, de arte o de filosofía? Se está produciendo algo, se está operando una peripecia en una pretendida trama que modifica los sentidos y que disloca las identificaciones. Pero no hay que precipitarse en esto, no se trata de decir que todo es hibridación, sino más bien de señalar que una de las posibilidades más contundentes de la relación entre arte, ciencia y filosofía, en los últimos quince años, ha sido la producción de hibridaciones.
|
|||||||||||||
(Fragmentos de la Introducción). | |||||||||||||
_______________________________________________ | |||||||||||||
María Antonia González Valerio
|
|||||||||||||
_________________________________________________ | |||||||||||||
cómo citar este artículo →
González Valerio, María Antonia . 2015. Pròs Bíon: reflexiones sobre arte, ciencia y filosofía Ciencias, núm. 117, julio-octubre, pp. 77-78. [En línea].
|
de la solapa |
![]() |
|
||||||||||||
El arte de la aprehensión de las imágenes y el unicornio. Dos pequeñas historias acerca de la cámara fotográfica.
|
![]() |
|||||||||||||
Carlos Jurado.
Universidad de Ciencias y Artes de Chiapas.
Tuxtla Gutiérrez, 2009. |
||||||||||||||
Carlos Jurado se adentró en la fotografía estenopeica
—realizada con cámara de cartón y sin lente— desde 1973 y sobre esta disciplina dice: “… mi actividad profesional es la pintura y con el empleo de la cámara pinhole obtengo resultados que se emparentan con las formas y ambientes que habitualmente manejo. Otra de las ventajas que este proceso me proporciona, es la de elegir y fabricar mis propios formatos sin tener que ajustarme a los convencionales. Por otra parte mi trabajo no sería posible sin la utilización de materiales modernos como películas y papeles. Sin embargo procuro seguir manteniéndome como un aprendiz de alquimista, ya que la fotografía para mí, entre todas sus acepciones, es un acto puro de magia”.
Ante el entusiasmo que le suscitaron estas imágenes experimentales, afloró su capacidad de creador de la palabra, su talento de humorista y su bagaje de lector para crear este extraordinario texto, El arte de la aprensión de las imágenes y el unicornio, a manera de manual, como un tratado de lo que a través de los siglos sustentó el desarrollo de la cámara oscura. No es casual que Carlos Jurado haya elegido al unicornio, animal mitológico elevado hasta lo sublime durante la Edad Media, como la especie con la que se puede fabricar —a partir de su cuerno— la aguja adecuada para crear el minúsculo cíclope que iniciará la multiplicación de las imágenes por los siglos de los siglos. El unicornio ha sido símbolo de la castidad y emblema de la espada o la palabra de Dios; criatura infatigable ante los cazadores, sólo cae rendido ante una virgen. La leyenda dice también que se puede vivir mil años y que es el más noble de los animales. Carece de un perfil fijo y ofrece muchas variaciones, dándose donde hay animales de un solo cuerno, reales o fabulosos, como el pez espada, el rinoceronte, el narval o ciertos dragones míticos. Especial importancia en su iconografía occidental tienen los tapices del unicornio del siglo xv que se encuentran en el Museo Cluny de París, conocidos como la serie de La dama del unicornio donde se muestra a este fabuloso animal con una dama de recatada sensualidad con quien comparte escenas íntimas que aluden a los cinco sentidos. El unicornio tiene las características ideales para que, según el autor de este tratado, el mago Merlín atribuyera a su codiciado cuerno el poder de crear el ojo de “la caja mágica”, es decir de la cámara oscura que reproducirá las imágenes y, a la larga, será también la madre del cinematógrafo. A través de la lente, ese ojo inventado, se pueden reproducir todas las capacidades del ojo humano y más.
Carlos Jurado, pintor, fotógrafo y maestro, fue fundador de la Facultad de Artes Plásticas, de la Licenciatura en Fotografía y del Instituto de Artes Plásticas de la Universidad Veracruzana. Recientemente recibió el título de Doctor Honoris Causa de esta institución académica.
Experimentador infatigable, Carlos Jurado introdujo la cámara estenopeica como práctica creativa en México. Es legendaria su exposición de 1973 en el Instituto Francés de América Latina titulada Antifotografías con cámaras de cartón sin lentes. Esta búsqueda, como todo lo que es realmente creativo, nació de la necesidad del artista de reinventar la evolución de lo que somos y sabemos respecto a la reproducción de las imágenes. Así dio nacimiento a una creación fuera de serie en la fotografía mexicana. El deslumbramiento produjo otro fruto maravilloso, ese libro que ahora reedita la Universidad de Ciencias y Artes de Chiapas, como un homenaje en el ochenta aniversario del autor.
|
||||||||||||||
(Fragmentos de la introducción). | ||||||||||||||
_______________________________________________ | ||||||||||||||
Carlos Jurado | ||||||||||||||
_________________________________________________ | ||||||||||||||
cómo citar este artículo →
Jurado, Carlos. 2015. El arte de la aprehensión de las imágenes y el unicornio, Ciencias, núm. 117, julio-octubre, pp. 76. [En línea].
|
imago |
![]() |
|
||||||||||||||
Ciencia, arte y
magia de la imagen
estenopeica
|
![]() |
|||||||||||||||
César Carrillo Trueba |
||||||||||||||||
El principio óptico de la cámara fotográfica es bien
antiguo, se halla en la llamada camera obscura, una verdadera habitación protegida de los rayos del sol con un pequeño orificio por el que pasaba la luz, proyectando en el muro interior la imagen invertida del paisaje o el objeto que tenía enfrente. Si bien hay noticias de tal dispositivo desde varios siglos antes de nuestra era en China, una mención en la obra de Aristóteles y vastos tratados árabes, su uso comenzó a popularizarse en la Europa del Renacimiento, cuando varios pintores, entre ellos Leonardo da Vinci, se sirvieron de ella para dibujar, para apropiarse de su proyección perspectiva en el diseño de sus cuadros.
El cambio radical viene de la mano de la química, cuando el soporte en donde se forma la imagen es de material sensible, captándola y fijándola mediante un proceso ahora muy conocido. La experimentación de sus posibilidades de expresión vino a tornarla arte y la mirada del espectador se fue familiarizando con ella, dejándose conmover, sorprender, emocionar, toda una paleta de sensaciones y pensamientos alrededor de “la foto”.
Es probable que la primera cámara fuese estenopeica, es decir, una simple caja con un pequeño orificio que contiene un soporte sensible que dará origen a una fotografía, ya sea por medio del revelado y la impresión o directamente sobre papel. Las fotografías que ilustran este número de Ciencias fueron hechas con este tipo de cámaras, lo cual viene muy a cuento con los temas abordados. Curiosamente, el tamaño del orificio que debe llevar la cámara fue asunto de varias tesis y tratados, al igual que la distancia entre éste y el papel o la película y la sensibilidad de los mismos originaron otras tantas disquisiciones científicas y de orden técnico.
Y mientras la óptica lidiaba con una idea de luz ondulatoria, la química resolvía sus dificultades pensando en fotones, en su impacto en los cristales de haluro de plata y la formación de la llamada imagen latente, aquello que está en el soporte sensible pero nuestros ojos no ven y que sólo la química misma puede revelar.
Aun así, algo hay en todo ello de la antigua alquimia, como diría el reconocido fotógrafo Carlos Jurado, quien ha sido el impulsor en México de este tipo de fotografía y ha recreado en su arte esa magia particular que poseen las imágenes estenopeicas.
|
||||||||||||||||
_______________________________________________ | ||||||||||||||||
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
|
||||||||||||||||
_________________________________________________ | ||||||||||||||||
cómo citar este artículo →
Carrillo Trueba, César. 2015. Ciencia, arte y magia de la imagen estenopeica. Ciencias, núm. 117, julio-octubre, pp. 62-63. [En línea].
|
del mar |
![]() |
|
||||||||||||||||
Los rápidos submarinos
del Golfo de California
|
![]() |
|||||||||||||||||
Manuel López Mariscal
y Julio Candela Pérez
|
||||||||||||||||||
Mucha gente ha visto los rápidos en algún río o
arroyo, esas zonas en donde los ríos se hacen más someros, angostos y el agua fluye más rápido. Este aumento de la velocidad en los rápidos es una consecuencia de la conservación de masa, ya que si el río tiene un transporte o gasto (volumen por unidad de tiempo) constante, entonces el mismo volumen de agua tiene que pasar por una sección del río cuya área es más pequeña y eso hace que la velocidad aumente. La velocidad del río también puede aumentar por un incremento en la inclinación del fondo. Aunque en el Golfo de California o Mar de Cortés no hay rápidos, existen corrientes profundas pegadas al fondo que tienen un comportamiento similar al de los rápidos de un río, en donde la trayectoria de la corriente la lleva a lugares más angostos y menos profundos y, posteriormente, a fluir a lo largo de pendientes pronunciadas.
La línea de costa y la batimetría (topografía del fondo marino) de la parte norte del Golfo de California, son sumamente accidentadas y complejas (figura 1). Esta zona está poblada de islas, estrechos, canales y cuencas. Canal de Ballenas es sin duda la cuenca más impresionante de esta parte del golfo, y se extiende desde la isla San Lorenzo hasta la parte norte de la isla Ángel de la Guarda (aproximadamente 170 km) alcanzando profundidades de 1 600 metros. La batimetría de las cuencas de Canal de Ballenas y de Delfín hace que sus aguas profundas por abajo de 400 metros estén aisladas del resto del golfo norte.
La mayoría de las cuencas del golfo norte están conectadas entre sí mediante zonas poco profundas y estrechas denominadas umbrales. Los umbrales son puntos silla de caballo en donde la profundidad alcanza un valor mínimo en la trayectoria de una cuenca a otra, pero a la vez también es la profundidad máxima en la dirección aproximadamente perpendicular a esa trayectoria. Algo parecido a Cerro de la Silla cerca de Monterrey, pero formando parte del fondo marino. Toda el agua profunda que pasa de la cuenca San Pedro Mártir a Canal de Ballenas tiene que pasar por el umbral San Lorenzo. Lo mismo ocurre entre las cuencas Tiburón y Delfín en donde el intercambio profundo tiene que pasar por el umbral Delfín.
Corrientes profundas
La renovación del agua profunda de Canal de Ballenas y de Cuenca Delfín se da mediante corrientes que pasan por los umbrales de San Lorenzo y Delfín, en donde la corriente promedio cerca del fondo siempre va en dirección a Canal de Ballenas y a Cuenca Delfín, es decir, hacia el noroeste. Los vectores de velocidad horizontal de la figura 2 se obtuvieron con mediciones de corrientes hechas por más de un año en ambos umbrales, utilizando instrumentos instalados muy cerca del fondo que son capaces de medir las corrientes en casi toda la columna de agua mediante ondas acústicas. Es importante mencionar que los vectores de la figura 2 representan las corrientes horizontales que son mucho mayores a las corrientes verticales en el océano. Por ello, una flecha apuntando hacia arriba en dicha figura representa la velocidad del agua hacia el norte y no la velocidad del agua hacia arriba, tal y como lo indican las flechas etiquetadas con los símbolos de norte (N) y este (E). En tales corrientes el agua en el umbral es más densa que la de la cuenca profunda y, por tanto, el agua fluye por diferencia de densidad desde el umbral hasta la parte más profunda de la cuenca a lo largo del fondo que tiene una pendiente relativamente pronunciada.
La figura 3 muestra una sección vertical de la densidad del agua de mar a lo largo del umbral de San Lorenzo desde Cuenca San Pedro Mártir hasta Canal de Ballenas. Estos datos se obtuvieron bajando un instrumento desde un barco en diferentes posiciones a lo largo del umbral de San Lorenzo. De hecho, las cruces en la parte superior de la figura muestran las posiciones donde se tomaron los datos. El instrumento baja desde la superficie del mar hasta el fondo y mide continuamente los parámetros necesarios para calcular la densidad del agua de mar. La densidad en el océano es ligeramente mayor a 1 000 kg/m3 y varía muy poco, generalmente menos de 1%, y a esto se debe la costumbre en oceanografía de restarle 1 000 a los valores de densidad dados en unidades de kg/m3. Por ello, las líneas de igual densidad en la figura 4 están etiquetadas entre valores que van de 22 a 27, es decir, una variación de 5 kg/m3.
En la figura 3 se muestra cómo la densidad justo en el fondo del umbral de San Lorenzo a 400 m de profundidad es ligeramente mayor que la densidad que se encuentra a 1 000 m de profundidad en el fondo de Canal de Ballenas. De hecho, el campo de densidad es marcadamente diferente en ambos lados del umbral. En la cuenca San Pedro Mártir la densidad tiende a incrementarse monotónicamente con la profundidad por debajo de 400 m, pero en Canal de Ballenas la densidad tiende a mantenerse constante a lo largo del fondo desde el umbral hasta unos 1 000 m de profundidad. Lo que evidencia una corriente densa que desciende hasta grandes profundidades en Canal de Ballenas.
Al fluir pendiente abajo, la corriente se mezcla de manera turbulenta con el agua más ligera que está por arriba de ella misma, provocando que su densidad disminuya. En el caso del umbral San Lorenzo, la inclinación del fondo es como de 5%, lo cual es un valor alto comparado con las pendientes típicas que se encuentran en el océano. Estas pendientes altas provocan que el agua de la corriente de fondo se mezcle rápidamente corriente abajo del umbral y por ello hay una disminución significativa de la estratificación (variación vertical de la densidad) justo pasando el umbral.
Es importante mencionar que en las figuras 3 y 4 las inclinaciones del fondo están muy exageradas debido a las diferentes unidades en el eje vertical (metros) y en el horizontal (kilómetros). Todas las figuras que representan una parte vertical y otra horizontal del océano muestran tal distorsión en las inclinaciones del fondo, lo cual necesariamente tiene que ser así, ya que la profundidad promedio de todos los océanos es de aproximadamente cuatro kilómetros y sus extensiones horizontales son de miles o decenas de miles de kilómetros. En otras palabras, los océanos, y la atmósfera también, son capas delgadas de agua y aire cuando tomamos en cuenta que su extensión vertical es muy pequeña comparada con su extensión horizontal que se prolonga sobre toda la superficie de nuestro planeta en el caso de la atmósfera, y de más de 70% de la superficie terrestre en el caso del océano. En la figura 3, la extensión horizontal es de unos 30 km, pero aun así sigue siendo bastante mayor que la máxima profundidad de un kilómetro.
Las velocidades promedio más intensas de estas corrientes están cerca del fondo y son de unos 33 y 17 cm/s para los umbrales de San Lorenzo y Delfín respectivamente. Dichas velocidades no son muy altas comparadas con las de los ríos, pero la cantidad de agua que transportan sí es considerable. Utilizando los perfiles de velocidad que aparecen en la figura 2 y las secciones transversales estimamos un transporte promedio de 80 000 y 90 000 m3/s para tales umbrales. Estos transportes juntos equivalen más o menos a la descarga del río Amazonas, el más caudaloso del mundo. Sin embargo, dichos valores son pequeños cuando los comparamos con los transportes de las grandes corrientes, oceánicas como la corriente de Yucatán que fluye hacia el Golfo de México entre la península de Yucatán y Cuba y que transporta, en promedio, casi 24 millones de metros cúbicos por segundo.
El efecto fertilizador
El transporte de agua profunda hacia las cuencas del golfo norte tiene consecuencias importantes para la renovación de las aguas de esa zona del Golfo de California y para su gran productividad biológica. Utilizando el volumen de agua de las cuencas de Canal de Ballenas y de Cuenca Delfín, así como los transportes mencionados anteriormente, estimamos que el agua de ambas cuencas se renueva en un periodo aproximado de 150 días. Utilizando el área que éstas ocupan, también se puede estimar una velocidad vertical promedio de cinco metros por día. Aunque esta velocidad puede parecer muy baja, en realidad es una velocidad muy alta comparada con las velocidades verticales observadas en otras partes del océano. Por ejemplo, las aguas profundas de todos los océanos se renuevan por hundimiento de agua cerca de las regiones polares que posteriormente asciende en las regiones tropicales y templadas de los océanos con una velocidad vertical inferida de sólo un centímetro por día (la circulación y ascenso de las aguas profundas en las cuencas del golfo norte se muestran esquemáticamente en la figura 4).
Esta renovación rápida de las aguas en las cuencas del golfo norte tiene consecuencias biológicas muy importantes. El fitoplancton (algas microscópicas en suspensión que son la base de la cadena trófica o alimentaria en el mar) florece únicamente en la zona donde penetra la luz, que generalmente comprende unas cuantas decenas de metros cerca de la superficie. Sin embargo, los nutrimentos (fertilizantes naturales) que requiere el fitoplancton para crecer y reproducirse se encuentran en las aguas profundas a donde llega toda la materia orgánica que se descompone transformándose en nutrimentos. Por ello, en lugares de aguas profundas ricas en nutrimentos, cuando éstos llegan a la zona donde penetra la luz, florece el fitoplancton, que a su vez da origen a comunidades abundantes de organismos que ocupan lugares superiores en la cadena trófica. Esta situación es precisamente la que se da en la parte norte del Golfo de California, en donde la renovación rápida de las aguas en sus cuencas más profundas da origen al constante surgimiento de aguas ricas en nutrimentos que crean en la superficie una zona exuberante de vida marina, incluyendo una enorme variedad de comunidades abundantes de peces, aves y mamíferos marinos. Es entonces la constante renovación y ascenso de sus aguas lo que hace de la parte norte del golfo una de las zonas oceánicas más productivas del planeta.
|
|
|
|
|||||||||||||||
Referencias bibliográficas
López, Manuel y Joaquín García. 2003. “Moored observations in the northern Gulf of California: A strong bottom current”, en Journal of Geophysical Research, vol. 108, pp. 30.1-30.18.
López, Manuel, Julio Candela y María L. Argote. 2006. “Why does the Ballenas Channel have the coldest sst in the Gulf of California?”, en Geophysical Research Letters, vol. 33. López, Manuel, Julio Candela y Joaquín García. 2008. “Two overflows in the Northern Gulf of California”, en Journal of Geophysical Research, vol. 113. Sheinbaum, Julio, Julio Candela, Antoine Badan y José Ochoa. 2002. “Flow structure and transport in the Yucatan Channel”, en Geophysical Research Letters, vol. 29, núm. 3, pp. 10.1-10.4. Talley, Lynne D., George L. Pickard, William J. Emery y James H. Swift. 2011. Descriptive Physical Oceanography: An Introduction. Elsevier, Burlington. |
||||||||||||||||||
_______________________________________________ | ||||||||||||||||||
Manuel López Mariscal y Julio Candela Pérez
Centro de Investigación Científica y de Educación
Superior de Ensenada.
|
||||||||||||||||||
_________________________________________________ | ||||||||||||||||||
cómo citar este artículo →
López Mariscal, Manuel y Candela Pérez, Julio. 2015. Los rápidos submarinos del Golfo de California. Ciencias, núm. 117, julio-octubre, pp. 48-51. [En línea].
|
del cosmos |
![]() |
|
||||||||||||||||||||||||||||
La química y
las moléculas
interestelares
|
![]() |
|||||||||||||||||||||||||||||
Alicia Negrón, Sergio Ramos y Fernando Mosqueira |
||||||||||||||||||||||||||||||
En 1968 se detectó en el espacio una molécula
poliatómica: el amoníaco (NH3). Desde entonces, muchas otras moléculas poliatómicas se han identificado. De acuerdo con cálculos teóricos se había predicho que estas moléculas (que presentan tres o más átomos unidos entre sí) no podrían sobrevivir en el medio interestelar. Sin embargo, existe en ese medio una gran abundancia y variedad de moléculas. La más abundante y simple es la del hidrógeno (H2), y las más complejas se localizan únicamente en las regiones más densas, aunque moléculas polares como el monóxido de carbono (CO) y la especie hidroxilo (OH) están distribuidas ampliamente.
Antes de abordar nuestro tema, definamos el área de estudio de la química interestelar: es la parte de la química que investiga los procesos fisicoquímicos que se presentan en la síntesis, distribución y destrucción de los compuestos orgánicos encontrados en el espacio interestelar.
Las condiciones físicas del espacio interestelar son bastante especiales y diferentes de las que se encuentran en la Tierra. Sus principales características son: 1) baja temperatura, entre 10 y 100 K; 2) baja densidad, pues se piensa que el gas interestelar tiene una densidad promedio de unas cuantas partículas por centímetro cúbico; y 3) es un medio nada homogéneo.
Las moléculas mencionadas se observan en regiones conocidas como nubes interestelares, las cuales se dividen en dos tipos: las nubes difusas y las nubes densas (cuadro 1). Además, se encuentran en partículas sólidas llamadas polvo o granos.
Se han utilizado tres enfoques diferentes para el estudio de las moléculas interestelares: el análisis observacional, los modelos teóricos y las simulaciones experimentales.
La pregunta básica que nos planteamos es: dado que se forman moléculas en el espacio interestelar, ¿cuáles son las reacciones químicas que forman y destruyen esas moléculas?
El mecanismo probable para la formación de moléculas incluye diversos procesos que se llevan a cabo en: 1) la fase gaseosa; 2) la superficie de los granos de polvo y; 3) los fenómenos fotoquímicos que ocurren en esos granos.
Generalmente se acepta que las moléculas interestelares se forman a partir de componentes simples, mediante un proceso de síntesis, en lugar de suponer que proceden de la degradación de sistemas más complicados. Tanto las reacciones en superficie como en fase gaseosa son importantes en la química interestelar. Si suponemos que las reacciones químicas en un gas serán favorables según su abundancia cósmica, predominaría entonces el hidrógeno. Los otros elementos químicos importantes, tales como el carbono, nitrógeno y oxígeno, estarán presentes aproximadamente en 0.1% con relación al hidrógeno.
El medio interestelar podría ser visto como un laboratorio inmenso, en donde las reacciones se llevan a cabo en una variedad de condiciones. En general, aquí las escalas de tiempo son enormes en comparación con las usadas en el laboratorio. Tales sujeciones han conducido a proponer un modelo de síntesis en las nubes densas, en donde las reacciones se inician por colisiones de los rayos cósmicos con el hidrógeno y el helio. Estos choques producen especies reactivas y cargadas positivamente que inician reacciones en cadena, produciendo las moléculas observadas.
Reacciones en fase gaseosa
Con base en consideraciones termodinámicas y cinéticas, existen algunas sujeciones para reacciones en fase gaseosa: a) se excluyen las reacciones endotérmicas debido a las bajas temperaturas del espacio interestelar, o sea, sería muy difícil concebir reacciones químicas que requieran un aporte de energía para que se lleven a cabo; b) están restringidas a colisiones bimoleculares, esto es, que el número de moléculas participantes sea dos; y c) no se llevan a cabo las reacciones que tiene una barrera de activación alta, es decir, la energía que deben tener las moléculas para que puedan pasar de reactivos a productos (mientras más grande sea, más difícil será que ocurra). El curso de una reacción, esto es, cómo va ocurriendo la reacción química, lo que los químicos llaman el eje de coordenada de reacción, va acompañada por un máximo de energía, que es la energía de activación (figura 1). Hay varios tipos de reacciones químicas que pueden llevarse a cabo en fase gaseosa en el espacio interestelar. Una de las más importantes es la reacción del tipo ion-molécula, que a continuación se describe.
Reacciones ion-molécula
Las colisiones ion-molécula son muy efectivas para formar moléculas nuevas. Para iniciar una reacción se necesita de la molécula y del ion. Cuando chocan un ion y una molécula neutra, la probabilidad de reacción es muy alta. Entre ellas se establece una interacción aun a distancias relativamente grandes por efecto de la polarización inducida por el ion sobre la molécula. En casi todas las condiciones astronómicas, la molécula de H2 interviene en el primer paso de la reacción. Una vez que dicha molécula está disponible, entonces la efectividad de la interacción ion-molécula dependerá de la velocidad a la cual los iones puedan producirse. La ionización puede originarse de varias maneras, ya sea a partir de radiación ultravioleta o cósmica, dependiendo del tipo de nube donde se produzcan. Por ejemplo, los rayos cósmicos —constituidos principalmente de protones energéticos— que chocan con átomos o moléculas desprenden un electrón. Mediante reacciones ion-molécula se ha podido explicar la formación de muchas moléculas interestelares. Este tipo de reacciones satisface las condiciones para que se lleven a cabo en el espacio. Por ejemplo la interacción de los rayos cósmicos con hidrógeno molecular produce iones positivos: H2 + rayos cósmicos → H2+ + e–.
En el caso de nubes difusas, la radiación ultravioleta con longitud de onda alrededor de 100 nm puede ionizar algunos átomos, por ejemplo: C + radiación → C+ + e–.
Una vez formados los iones C+ y H2+, éstos pueden reaccionar con otras moléculas neutras, las cuales pueden ser más complejas. Este tipo de reacciones las podemos ilustrar como sigue, en donde A+ y BC son átomos o moléculas sencillas que forman C y AB+: A+ + BC → AB+ + C. Éste sería el tipo de reacciones donde participa el hidrógeno: H2+ + H2 H3+ + H.
Las especies neutras tienen una mayor afinidad por los protones, por lo que serán protonadas mediante una reacción rápida: H3+ + A → HA+ + H2.
Esta reacción ocurre hasta que la especie A tenga el máximo número de protones posible de acuerdo con el átomo en cuestión. Otro ejemplo muy importante que ocurre en las nubes densas es la ionización del helio de acuerdo con la siguiente reacción: He + rayos cósmicos He+.
El He+ puede destruir las especies naturales más estables, vía la transferencia de carga. Un ejemplo típico es: He+ + CO → C+ + O + He.
Esta reacción es importante como una fuente de C+ en las nubes densas, porque el C+ no se fotoioniza en estas regiones. Para ilustrar la formación y destrucción de una molécula compleja, tomemos el caso del agua. La secuencia de reacciones ion-molécula son las siguientes:
H2+ + H2 → H3+ + H
H3+ + O → OH+ + H2 OH+ + H2 → OH2+ + H OH2+ + H2 → OH3+ + H 2OH3+ + e– → H2O + H + OH + H2 H2O + iones → productos Por este tipo de reacciones se puede explicar la formación de moléculas más complejas. Así, en el espacio interestelar y circunestelares se han detectado 160 moléculas.
Catálisis en los granos
Otra vía en la formación de moléculas poliatómicas es el mecanismo de catálisis heterogénea sobre la superficie del polvo interestelar. Las etapas de formación de moléculas interestelares en los granos son las siguientes: a) la adsorción de los átomos de la fase gaseosa sobre la superficie del grano; b) formación de enlaces químicos si las dos especies adsorbidas entran en contacto; y c) la molécula formada se desprende del grano. En la superficie de los granos, dos átomos A y B estarán sujetos suficiente tiempo para que ocurra una reacción. Parte de la energía liberada al formarse el producto lo absorberá el grano. A esta clase de catálisis se debe la formación del hidrógeno molecular. Una vez formada esta molécula, participará en una gran variedad de reacciones en la fase gaseosa. Sin embargo, existen algunos problemas para explicar la formación de moléculas más pesadas, ya que éstas se adsorben intensamente y no saldrían fácilmente.
Algunos problemas
El enfoque teórico para estudiar la química interestelar tiene que resolver los siguientes problemas: a) se requieren más datos acerca de las constantes de reacción de las reacciones ion-molécula y faltan muchos datos experimentales para tener los valores de varias reacciones; b) los modelos teóricos sólo consideran los elementos químicos más abundantes; c) se necesita conocer las constantes de decaimiento de radiación de moléculas excitadas para realizar cálculos; y d) se requiere hacer mejores modelos para los procesos que ocurren en la superficie de los granos.
En cuanto a las dificultades del enfoque experimental podemos enumerar las siguientes: a) se requiere espectroscopía de laboratorio en la fase gaseosa para expandir la capacidad de identificación de moléculas en el espacio interestelar; b) más estudios de simulación en el laboratorio con los granos; c) determinar las constantes de reacción para las reacciones ion-molécula en la fase gaseosa; y d) son escasos los estudios de recombinación, fraccionamiento isotópico y de asociación radioactiva. Puesto que las reacciones en la superficie del grano se deben a las interacciones gas-grano y al almacenamiento de radicales libres en los mismos granos, se requiere un conocimiento más profundo de estos procesos.
Comentarios finales
Tanto las reacciones en la fase gaseosa como las catalizadas en superficie son muy importantes en la síntesis de moléculas poliatómicas en las nubes interestelares. Es por tanto importante reconocer que se lleva a cabo una intensa química en todo el cosmos. La materia orgánica formada constituye un récord molecular e isotópico de los materiales y procesos involucrados en su formación. Por otra parte, las escalas de tiempo son largas en comparación con las de laboratorio.
De una manera similar a como la evolución biológica implica que todos los organismos en la Tierra tienen un ancestro común, así la evolución química implica que toda la materia en nuestro sistema solar tuvo un origen común, pero se ha transformado. Las moléculas interestelares son la prueba de que las reacciones con compuestos orgánicos se están llevando a cabo en el Universo. Esta evolución cosmoquímica implica que en toda la materia se está realizando una transformación común, en donde la formación de estas moléculas participan las reacciones en la fase gaseosa y las catalizadas en los granos.
Agradecimientos
Los autores reconocen el apoyo de papiit para el proyecto IN110712-3 y de conacyt con el proyecto 168579/11.
|
||||||||||||||||||||||||||||||
Referencias bibliográficas
Duley, W. W. y D. A. Williams. 1985. Interstellar Chemistry. Academic Press, Nueva York.
Green, Sheldon. 1981. “Interstellar Chemistry: Exotic Molecules in Space”, en Annual Review of Physical Chemestry, vol. 32, pp. 103-138. Hartquist, T. W. y D. A. Williams. 1959. The Chemically Controlled Cosmos. Cambridge University Press, Nueva York. Watson, W. D. 1976. “Interstellar Molecule Reactions”, en Reviews of Modern Physics, vol. 48, pp. 513-552. en la red
www.cv.nrao.edu
|
||||||||||||||||||||||||||||||
_______________________________________________ | ||||||||||||||||||||||||||||||
Alicia Negrón Mendoza, Sergio Ramos Bernal
Instituto de Ciencias Nucleares,
Universidad Nacional Autónoma de México.
Fernando Guillermo Mosqueira Pérez Salazar
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
|
||||||||||||||||||||||||||||||
_________________________________________________ | ||||||||||||||||||||||||||||||
cómo citar este artículo →
Negrón Mendoza, Alicia; Ramos Bernal, Sergio y Mosqueira Pérez Salazar, Fernando Guillermo. 2015. La química y las moléculas interesterales. Ciencias, núm. 117, julio-octubre, pp. 26-27. [En línea].
|
de la pedagogía |
![]() |
|
||||||||||||
La física de los
cromañones
|
![]() |
|||||||||||||
Juan Pablo Cruz Bastida |
||||||||||||||
Esta narración es un modesto homenaje
a Darío Moreno Osorio (1928-2007).
|
||||||||||||||
Hace algunos años, siendo un cándido estudiante
de preparatoria, decidí estudiar física. Mi único pretexto, entonces, era la certeza de que los mecanismos fundamentales del Universo son profundamente apasionantes. En su momento me matriculé en la Facultad de Ciencias de la UNAM, donde tuve la oportunidad de conocer, entre muchos otros físicos excepcionales, a Darío Moreno.
Darío era un profesor poco tradicional, con talento nato para transmitir conceptos complicados de forma directa. Particularmente, usaba historias de cromañones para despertar la intuición física de sus pupilos; a su parecer, la física era más sencilla cuando se pensaba como cromañón. Yo aprendí mecánica clásica al estilo de Darío Moreno, es decir, tuve que saber cómo cazar mamuts con lanzas de sílex y cómo evadir primitivas suegras, antes de pensar en dinámicas y cinemáticas de rígida tradición victoriana.
Ahora, que ya soy parte de la comunidad científica, me doy cuenta que no somos muy distintos a los cromañones de Darío Moreno; muchos de los triunfos de la física moderna fueron cosechados pensando como cromañón. Por ejemplo, el físico alemán Max Planck resolvió algunas preguntas sobre el comportamiento de la luz al redefinirla como partícula (el fotón). En otras palabras, la elegante y antigua idea de la luz como una onda electromagnética fue desafiada sosteniendo que más bien era una piedra de energía, cuya física no era ajena a las leyes de movimiento de las lanzas y otros proyectiles. La idea cautivó de inmediato a los científicos de la época (que tal vez sintieron nostalgia por sus orígenes cromañones), desencadenando una revolución intelectual sin precedentes: la mecánica cuántica. Otro caso notable es el estudio de la estructura de la materia. Ante la duda, los cromañones lanzaban piedras a los objetos desconocidos; dependiendo del destino de la sonda podía llegarse a conclusiones sencillas sin necesidad de arriesgarse. Fue así como algunas cuevas con osos y ciertas fosas profundas fueron identificadas y evitadas (o al menos eso me contó Darío). Este método, aunque sencillo, constituye la trama del descubrimiento de las partículas subatómicas. Desde los tiempos del físico británico Thomson, muchos laboratorios han construido potentes “hondas” de piedras microscópicas, para poder bombardear el átomo y despojarlo de sus secretos.
Lo que es más, la construcción de dichas “hondas-microscópicas” (elegantemente llamadas aceleradores de partículas) ha logrado unir a las naciones, superando ideologías y querellas del pasado. La Organización Europea para la Investigación Nuclear (cern, por sus siglas en francés) coordina desde 1998 el esfuerzo de cerca de cincuenta países, entre ellos México, para construir la “honda” más potente de todas: el Gran Colisionador de Hadrones (lhc, por sus siglas en inglés) y explorar con ella el núcleo atómico. El objetivo primordial del proyecto es hallar la piedra angular del Universo; aquella responsable de que existan el resto de las piedras y cuya importancia hizo que los teóricos la nombraran “partícula de Dios” (el bosón de Higgs).
Actualmente, pensar como cromañón ha superado la frontera de la física: el lanzamiento de fotones es una práctica común en medicina. Con esto es posible, en forma no invasiva, observar el interior de las estructuras del cuerpo y algunos de sus procesos fisiológicos. Incluso la lucha contra el cáncer se ha beneficiado de este enfoque; fotones de altísima energía son lanzados contra el cangrejo adversario, con la esperanza de que algún día termine la batalla y nuestras “hondas” de fotones se vistan de vasta gloria.
Por todo esto, creo que Darío fue sabio enseñando física. Aquel día que llegué a su curso de mecánica, ansioso de respuestas matemáticamente formales, hizo bien en tomarse el tiempo de enseñarme, primero, a pensar como cromañón. |
||||||||||||||
_______________________________________________ | ||||||||||||||
Juan Pablo Cruz Bastida
Instituto de Física,
Universidad Nacional Autónoma de México.
|
||||||||||||||
_________________________________________________ | ||||||||||||||
cómo citar este artículo →
Cruz Bastida, Juan Pablo. 2015. La física de los cromoñones. Ciencias, núm. 117, julio-septiembre, pp. 12-13. [En línea].
|
![]() |
![]() |
|
|||||||||
José Luis Álvarez García y Damián Flores Sánchez |
|||||||||||
He conocido a algunos
que no podían entender que al restar cuatro de cero quede cero. Pascal
|
![]() |
La relación entre física y matemáticas a lo largo de la historia: de Pitágoras a Galileo (parte I) | |||||||||
Con el advenimiento del cristianismo como religión del
Estado romano en el siglo IV, el proceso del conocimiento sufrió un doloroso retroceso en el mundo europeo; por el contrario, a partir del siglo vii el mundo musulmán convirtió a Bagdad, Damasco y Córdoba en centros culturales en los que se preservó y desarrolló el saber de la Antigüedad clásica. En este periodo el estudio de las matemáticas se enfocó en la geometría y el álgebra; respecto a la física, el desarrollo se dio en la astronomía, que seguía siendo considerada parte de las matemáticas. El Almagesto, que es un tratado de astronomía matemática, llevaba el título original griego de Mathematike sintaxis y en un principio se le conoció como Megale sintaxis (la gran colección), pero llegó a ser tan importante que se le llamó Megiste sintaxis (la grandísima colección).
Los astrónomos árabes adoptaron el paradigma ptolomeico. La obra de Al-Farghani (805-880) llegó a ser una de las principales fuentes de la astronomía ptolomeica hasta el Renacimiento. El más famoso de ellos fue Al-Batani (858-929), quien en el siglo ix simpatizaba con la obra de Ptolomeo. Ibn Al-Haytam (962-1037), matemático y físico, apodado Ptolomeo II, introdujo el concepto aristotélico “esferas celestes” en sus investigaciones astronómicas. La sistematización definitiva de la sabiduría musulmana está representada por Ibn Sina o Avicenas (980-1037); y el punto más alto del aporte árabe se dio en Córdoba con la obra de Ibn Rushd o Averroes (1126-1198).
No sólo era posible leer el Almagesto en árabe y los tratados que derivaban de él, sino que los astrónomos musulmanes pronto estuvieron capacitados para hacer una crítica a las ideas de Ptolomeo, pues en la medida en que los datos astronómicos se volvían más numerosos y precisos, era más difícil conciliarlos con las teorías. Durante el siglo xii el filósofo Ibn Bayya puso de manifiesto estas dificultades; lo que hizo también Jabir Ibn Aflah en el tratado Islah al-Mayisti (La rectificación del Almagesto). Averroes, convencido de las imprecisiones y complejidades innecesarias del modelo ptolomeico, expresó: “la astronomía ptolomeica nada tiene que ver con lo existente, pero es útil para calcular lo no existente”. Con esta afirmación hacía patente el creciente descontento que había entre los astrónomos musulmanes con el sistema ptolomeico, iniciándose la crisis de este paradigma. En ese siglo, astrónomos musulmanes como Ibn Tufail y su discípulo Al-Bitruyi, creyeron resolver las dificultades rechazando las excéntricas y los epiciclos de Ptolomeo y volvieron a la teoría de las esferas homocéntricas de Eudoxo.
En cuanto a las matemáticas estudiadas por los árabes (en ramas distintas a la astronomía), el desarrollo se dio en la geometría y en el álgebra de manera desigual (esta última apareció como una ampliación de la aritmética); en la geometría el modelo a seguir no podía ser otro que Euclides. El siglo ix fue particularmente fructífero gracias a las obras de Al-Kindi, quien además se interesó por la óptica y sus estudios en matemáticas se extendieron a campos que no había considerado Euclides, como la numeración hindú. Otro matemático de la misma época fue Muhammad Ibn Musa. El primero que hizo la traducción al árabe de los Elementos fue Al-Hayyay Ibn Yusuf, quien realizó la traducción para el califa Harun Al-Rasid, famoso por las frecuentes menciones que se hacen de él en Las mil y una noches. Durante los doscientos cincuenta años siguientes, los matemáticos árabes se apegaron estrechamente a lo dicho por Euclides y sacaron a la luz otras traducciones y numerosos comentarios. En el primer cuarto del siglo x, Ibn Yaqub Al-Dimasqui dio un gran paso en el estudio de Euclides al traducir el Libro x.
En cuanto al álgebra, los hindúes y árabes que tomaron el relevo de las matemáticas después de la destrucción de Alejandría, violaron el concepto axiomático-deductivo que los griegos tenían de las matemáticas; utilizaron fracciones y enteros, y también emplearon sin vacilación números irracionales, de hecho, introdujeron reglas para operar con estos números pero su fundamentación no era lógica-deductiva sino por analogía. Señalaban que los radicales podían manejarse como los números enteros y no tuvieron las preocupaciones lógicas de los griegos y, a pesar de que cometieron errores al aplicar despreocupadamente las reglas de los racionales a los irracionales, contribuyeron al desarrollo de las matemáticas, pues toda su aritmética era independiente de la geometría.
Los hindúes acrecentaron los infortunios lógicos de las matemáticas al introducir los números negativos para representar las deudas (los positivos representaban los activos); hicieron también algunos progresos en álgebra, pues utilizaron abreviaturas de palabras y unos pocos símbolos para describir operaciones e incógnitas. Aunque no muy extenso, su simbolismo fue superior al de Diofanto, ya que tuvieron buenas ideas como la utilización de símbolos distintos para los números del uno al nueve, la conversión de la notación posicional de base 60 a base 10, los números negativos y el reconocimiento del cero como un nuevo número.
Los astrónomos árabes se sujetaron a la tradición instrumentalista de Ptolomeo, pero se percataron de las anomalías que presentaba este paradigma, lo que los obligó a dirigirse hacia una solución realista. Mejoraron los calendarios fundados en la astronomía ptolomeica y elaboraron eficaces tablas planetarias y afinaron los modelos del Universo aristotélico y ptolomeico antes de percatarse de la inexactitud y complejidad exagerada de este último. La preservación que los musulmanes hicieron de la ciencia antigua fue fundamental, pues eso permitió que posteriormente Occidente pudiera recuperarla.
En este periodo, la relación entre la física y las matemáticas en la cultura árabe se dio a través del Almagesto, en el cual la astronomía está supeditada totalmente a la geometría del círculo y la esfera; continuaba siendo una astronomía matemática.
La Edad Media
A partir del siglo XII las obras de Arquímedes, Euclides, Herón, Aristóteles y Ptolomeo llegaron a Europa. En este siglo, con la fundación de diversas universidades, el Occidente cristiano recuperó la obra de Aristóteles pero adecuada a su dogma, y así se convirtió en el centro de la cultura. En lo que a cosmología y astronomía se refiere, los paradigmas aristotélico y ptolomeico fueron asumidos plenamente, tamizados por la perspectiva cristiana.
El paradigma ptolomeico volvió a afirmarse a partir del siglo xiii por medio del Almagesto, ya que no existía otra teoría tan amplia y detallada; pero después nació una vigorosa corriente de crítica y oposición que había sido anunciada por los árabes y había quedado interrumpida.
El tratado Sobre el cielo de Aristóteles describía la globalidad del Universo en términos relativamente simples; el Almagesto se ocupaba casi exclusivamente del cálculo matemático de las posiciones planetarias y éste se correspondía perfectamente con la cosmología aristotélica. Las obras de estos filósofos se tradujeron hacia finales del siglo xii, pero hasta mediados del xv los europeos no produjeron una tradición propia capaz de rivalizar con la obra de Ptolomeo.
En lo que respecta a las matemáticas y a la física (fenómenos del movimiento), los eruditos medievales analizaron los textos aristotélicos y comenzaron el estudio del movimiento en los siglos xiii y xiv, fundamentalmente en el Merton College de la Universidad de Oxford y en la Universidad de París. En Oxford trabajaron en ello Robert Grosseteste (1175-1253), Roger Bacon (1214-1294), Thomas Bradwardine (1290-1349) y William Heytesbury (1313-1372); en París, Jean Buridan (1295-1358), Alberto de Sajonia (1316-1390) y Nicolás de Oresme (1323-1382). Los estudios matemáticos relativos al movimiento fueron realizados como ejercicios, es decir, como simples posibilidades en el terreno de la lógica, sin ser considerados jamás como hipótesis verdaderas acerca del mundo físico. Estos análisis llevados a cabo por mertonianos y parisinos fueron realizados dentro de la más estricta tradición escolástica y sin abandonar los fundamentos de la doctrina de Aristóteles, eran críticas a la explicación de los fenómenos del lanzamiento de proyectiles y a la caída libre, en particular, donde señalaban que matemáticas y física eran géneros diferentes y era imposible mezclarlos.
En el siglo vi, Juan Filopón retoma el concepto de impetus de Hiparco, como crítica y explicación alternativa a las teorías aristotélicas sobre el lanzamiento de proyectiles y caída de los cuerpos. La teoría del impetus fue utilizada por Jean Buridan y sus ideas son extendidas y profundizadas por su discípulo, Nicolás de Oresme, quien critíca la refutación que hace Aristóteles de la teoría de Heráclides, que explicaba el movimiento diario de las estrellas mediante la rotación de una Tierra central. Oresme no cree en la rotación de la Tierra, solamente señala que ningún argumento lógico, físico o incluso bíblico puede refutar la posibilidad de una Tierra en rotación. Oresme estudió la comprobación de las demostraciones aristotélicas y buscó nuevas doctrinas alternativas, que generalmente se descartaban una vez que se había demostrado su posibilidad lógica.
Al final del siglo XIV, una versión de la teoría del impetus, similar a la expuesta por Buridan y Oresme, había reemplazado la defectuosa explicación aristotélica del lanzamiento de proyectiles en prácticamente todas las obras científicas medievales. Así se enseñaba en Padua, cuando Copérnico fue a la universidad y Galileo la aprendió en Pisa de su maestro Bonamico (1565-1603). Esta teoría jugó un importante papel en la revolución copernicana y aparece en casi todos los argumentos en donde se considera como posible el movimiento terrestre, sin que los cuerpos lanzados desde la superficie de la Tierra se queden atrás. También en Inglaterra, en el Merton College de Oxford, con base en la teoría del impetus se desarrollaron alternativas para la explicación del movimiento. Durante el siglo xiv, tanto en Oxford como en París, se tenía una marcada actitud empírica y se realizaban elaborados cálculos matemáticos. Conceptos y definiciones básicas en este campo (que muchos atribuyen a Galileo) fueron establecidas por mertonianos y parisinos. En Oxford se manejaban definiciones de movimiento con rapidez uniforme y uniformemente acelerado, tal y como fueron adoptadas más tarde por Galileo. También aparece la definición de velocidad instantánea, casi exactamente igual a la utilizada por el físico italiano tres siglos más tarde. La famosa “regla mertoniana” o “teorema de la velocidad media” fue establecida allí, y es considerada como la más simple y primordial contribución de la ciencia medieval a la física. Una demostración original de este teorema fue realizada por Oresme alrededor de 1350 y señalaba que: “un cuerpo que se mueve uniformemente adquiriendo o perdiendo un determinado incremento [de rapidez] recorrerá en algún tiempo dado una distancia completamente igual a aquella que debería recorrer si se estuviera moviendo con rapidez uniforme durante el mismo tiempo con el grado medio [de velocidad]”.
Los siglos xiii y xiv contribuyeron a un progreso de la lógica y las matemáticas, pero faltaban dos elementos necesarios para dar a la ciencia un avance decisivo: emancipar por completo el cálculo del lenguaje cotidiano y romper totalmente con la concepción cualitativa de la ciencia.
El Renacimiento
El Almagesto seguía siendo “la biblia” de la astronomía hasta principios del siglo xvii, pues no existía otra obra que fuera tan amplia y detallada como ésta, pero en el siglo xv se manifestó una abierta rebelión debida al descontento que provocaba entre los astrónomos la imprecisión y extremada complejidad de este paradigma ptolemeico.
Esta rebelión aparece abiertamente en la obra de Nicolás de Cusa (1401- 1464), que fue el primero en oponerse a la estructura del Universo medieval. En su De docta ignorantia, escrita en 1440 e impresa en 1514, afirmó que el mundo no tenía límites ni periferia ni centro. El mundo no era infinito, sino “tan sólo indeterminado”. Nicolás de Cusa no era un astrónomo de profesión y no construyó ningún sistema, pero su doctrina confirma que mucho antes que Copérnico ya era seriamente cuestionada la cosmología aristotélica y el modelo ptolomeico.
Otros que conocían la obra del cusano fueron el astrónomo alemán Georg von Peuerbach (1423-1461) y su discípulo Johann Müller (1436-1476), quienes fueron figuras de transición y suscitaron en Europa la renovación de la astronomía como ciencia exacta.
En 1543, Copérnico recibe en su lecho de muerte un ejemplar de el De revolutionibus orbium coelestium. Pasarían cerca de cincuenta años sin que esta obra provocara la menor conmoción en la sociedad, y sólo hasta entonces el modelo copernicano empezaría a popularizarse y a establecerse definitivamente.
El paradigma ptolomeico estaba íntimamente relacionado con el aristotélico y este último comprendía una cosmología que correspondía con una física particular; por lo tanto, para poder establecer el modelo heliocéntrico de Copérnico era necesario elaborar una física del movimiento acorde con la idea de una Tierra móvil alrededor del Sol.
La astronomía se fue alejando de su concepción instrumentalista, debido a los desacuerdos que había entre las observaciones y la teoría pero, sobre todo, a la ya mencionada complejidad exagerada que presentaba. La lucha por el establecimiento del modelo heliocéntrico se dio en dos frentes del conocimiento científico: en la astronomía y en la física del movimiento.
En lo que respecta a las matemáticas, cuando los europeos de la baja Edad Media y del Renacimiento recuperaron el conocimiento clásico enfrentaron el dilema planteado por los dos tipos de matemáticas: las auténticas parecían ser las de la geometría deductiva de los griegos, pero no podían negar la utilidad y eficacia de la aritmética y el álgebra que se venía desarrollando, los cuales, por su parte, no tenían una fundamentación lógica.
El primer problema que enfrentaron fue el de qué hacer con los irracionales. El matemático italiano Luca Pacioli (1445-1514), el monje alemán y profesor de matemáticas Michael Stifel (1486-1567), el físico, matemático y erudito Jerome Cardan (1501-1576)y el ingeniero militar Simon Stevin (1548-1620) utilizaron los números irracionales siguiendo la tradición de los hindúes y los árabes e introdujeron más y más elementos a esta clase de números. François Viète (1540-1603) realizó aproximaciones para el número por medio de polígonos regulares de 4, 8, 16,... lados inscritos en un círculo de radio unitario. Los números irracionales fueron usados libremente en una de las nuevas creaciones del Renacimiento: los logaritmos, inventados por John Napier (1550-1617), que fueron bien recibidos por el resto de los matemáticos debido al ahorro de trabajo que aportaban, aun cuando los logaritmos de los números positivos son en su mayoría irracionales. Los cálculos con irracionales fueron muy utilizados, pero el problema de si eran realmente números preocupaba a algunos que trabajaban con ellos.
Los europeos tuvieron también que enfrentarse a los números negativos, pues los llegaron a conocer por medio de los textos árabes, pero la mayor parte de los matemáticos de los siglos xvi y xvii no los aceptaron como números o no los consideraban como raíces de ecuaciones. Nicolás Chuquet y Michael Stifel en el siglo xvi se referían a ellos como números absurdos. Cardan planteó números negativos como raíces de ecuaciones, pero los consideraba soluciones imposibles, meros símbolos, por lo que las llamó soluciones ficticias, mientras a las positivas las nombró reales.
Uno de los primeros algebristas que colocó un número negativo dentro de una ecuación fue el astrónomo Thomas Harriot (1560-1621), quien no aceptaba las raíces negativas y “demostró” que tales raíces eran imposibles. Rafael Bombelli, en el siglo xvi, dio definiciones bastante claras de los números negativos pero no pudo justificar las reglas de las operaciones, pues todavía no se disponía de la fundamentación necesaria, incluso para los positivos. Por otro lado, Michael Stevin utilizó coeficientes positivos y negativos en las ecuaciones y aceptó las raíces negativas.
En general, no fueron muchos los matemáticos de los siglos xvi y xvii que se sintieron cómodos con los números negativos o los aceptaron y, por supuesto, no los reconocieron como soluciones o verdaderas raíces de las ecuaciones. Incluso ya en pleno siglo xvii, Pascal (1623-1662) consideraba la sustracción de cuatro a cero como un absurdo.
Bombelli y Stevin propusieron una representación que contribuyó a la aceptación final del sistema completo de los números reales. Bombelli supuso que existe una correspondencia exacta entre los números reales y los segmentos sobre una recta (habiendo elegido una unidad) y definió para las longitudes las cuatro operaciones básicas. Consideraba los números reales y sus formas de operar como definidos por esas longitudes y las correspondientes operaciones geométricas. De esta forma, el sistema de los números reales fue racionalizado sobre bases geométricas.
Sin haber resuelto todavía sus dificultades con los números irracionales y los negativos, los europeos aumentaron su pesada carga al tropezar con los que hoy conocemos como números complejos. Éstos también fueron objeto de incomprensión durante algún tiempo, incluso por los más ilustres pensadores como Leibnitz y Newton.
Durante los siglos en que los europeos lucharon por entender los distintos tipos de números, surgió otro problema lógico de importancia: el de aportar al álgebra una fundamentación lógica. El primer libro que organizó de forma significativa los nuevos resultados fue el Ars magna de Cardan, en el cual mostraba cómo resolver ecuaciones particulares de tercer y cuarto grado. Otro algebrista que había desarrollado fórmulas para resolver una clase particular de ecuaciones de tercer grado fue Niccolo Fontana, mejor conocido como Tartaglia (Tartamudo). El Tartamudo era también hábil para solucionar ecuaciones algebraicas y participaba en competencias para resolverlas; también se interesó en problemas físicos de artillería. Durante unos cien años fueron añadiéndose al cuerpo del álgebra una gran cantidad de resultados sin demostraciones, sugeridos por ejemplos concretos.
Hasta antes del trabajo de Vieta, los matemáticos resolvían ecuaciones lineales, cuadráticas, de tercer y cuarto grado con coeficientes numéricos particulares, y eran consideradas diferentes unas de las otras. Por tanto, había muchos tipos de ecuaciones del mismo grado y cada una era tratada por separado. La aportación de Vieta consistió en introducir coeficientes literales, de esta forma todas las ecuaciones del mismo grado, podían ser tratadas de una sola vez. Vieta llamó a su nueva álgebra logistica speciosa (cálculo con letras), en contraposición a la logistica numerosa (cálculo con números), distinción con la que trazó la línea entre la aritmética y el álgebra. Sin embargo, aún no se definían bien ni se aceptaban todos los distintos tipos de números, así que su aportación fue de una generalidad limitada. El mismo Vieta rechazó los números negativos y los complejos. Las reglas de las operaciones para los números negativos existían desde hacía unos ochocientos años y daban resultados correctos. Vieta no podía oponerse a esas reglas, porque eso era más o menos todo lo que el álgebra tenía que ofrecer en esa época, pero éstas carecían del significado intuitivo y físico que poseían los positivos. Parece claro que no era la lógica sino la intuición la que determinaba lo que los matemáticos estaban dispuestos a aceptar. Fue hasta 1657 cuando Johann Hudde (1633-1704) aceptó que estos coeficientes literales representaban tanto números negativos como positivos. A partir de ese momento, la mayoría de los matemáticos lo hicieron sin reserva.
La segunda innovación que dio impulso al álgebra fue el uso de fórmulas algebraicas para representar en la física cantidades relacionadas entre sí. El brío del álgebra fue pronto reconocido hasta tal punto que los matemáticos comenzaron a usarla ampliamente y pasó a ocupar una posición preponderante sobre la geometría.
Kepler
“Johannes Kepler, Keppler, Khepler, Kheppler o Keplerus, fue concebido el 16 de mayo de 1571 a las 4:37 de la mañana y nació el 27 de diciembre a las 2:30 de la tarde, después de un embarazo que duró 224 días, 9 horas y 53 minutos”. Así empieza la biografía que Arthur Koestler realiza del gran astrónomo alemán, quien elaboró su propio horóscopo, y en el cual resalta la importancia que tenían para él los números y la precisión, mostrando además que creía que la realidad última, la verdad y la belleza radicaba en el lenguaje de los números, contrastando con la forma imprecisa de escribir su nombre.
Kepler se graduó en la Universidad de Tübingen, en la Facultad de Artes, a la edad de veinte años. Ahí conoció a Michael Maestlin, su profesor de astronomía, quien lo inició en el estudio de la obra de Copérnico. A la edad de veinticuatro años, en julio de 1595, en Gratz, se le aparece como una auténtica revelación divina que el Universo está construido con base en ciertas figuras geométricas. Los sólidos perfectos o pitagóricos: tetraedro, cubo, octaedro, dodecaedro e icosaedro. Dado que son simétricos, cada uno puede ser inscrito dentro de una esfera, de modo que sus vértices se apoyen en la superficie de la misma. Del mismo modo, cada uno de ellos puede ser circunscrito en torno a una esfera, de forma que ésta toque el centro de cada una de las caras del sólido correspondiente. Euclides había demostrado que sólo pueden ser construidos esos cinco sólidos con esas características. En aquel entonces sólo se conocían seis planetas (Mercurio, Venus, Tierra, Marte, Júpiter y Saturno) entre cuyos espacios —pensó Kepler— se podían insertar los cinco sólidos pitagóricos. Para él era muy difícil creer que esto fuera producto del azar y no de la disposición divina. Esta coincidencia respondía a que sólo había seis planetas conocidos y no veinte o cien, también permitía comprender el porqué de las distancias entre las órbitas planetarias; éstas debían estar dispuestas de tal manera que los cinco sólidos pudieran encajar perfectamente dentro de ellas. Al interior de la órbita o esfera de Saturno, Kepler inscribió un cubo, y dentro del cubo otra esfera, que era la de Júpiter; inscrita en ésta se hallaba el tetraedro e inscrita en él la esfera de Marte. Entre las esferas de Marte y la Tierra estaba el dodecaedro; entre la Tierra y Venus el icosaedro; entre Venus y Mercurio estaba el octaedro. El misterio del Universo había sido resuelto por el joven Kepler y así lo expresa en el Mysterium Cosmographycum.
Kepler estaba convencido de la realidad de su anhelo y empezó a trabajar para hallar los datos que lo comprobarían; sin embargo, éstos no encajaban con su modelo. En un principio lo atribuyó a la inexactitud de la información que poseía, provenientes de Copérnico y Ptolomeo; así que desvió su atención hacia otro problema y tuvo una idea que nunca se le había ocurrido a ningún otro astrónomo: buscar una relación matemática entre la distancia que separaba a un planeta del Sol y el tiempo que necesitaba para completar una revolución. Los periodos orbitales se conocían desde la Antigüedad con suficiente precisión y no coincidían con la distancia del planeta al Sol, suponiendo el principio del movimiento orbital con rapidez uniforme. Kepler encontró que los planetas se movían más deprisa cuando se encontraban más cerca del Sol y su movimiento se tornaba más lento cuando se alejaban, así que se preguntó: ¿por qué esto es así?, ¿por qué había sólo seis planetas? La primera pregunta resultó enormemente fecunda y la segunda científicamente estéril. Se trataba no solamente de describir los movimientos planetarios utilizando algún modelo geométrico, sino también de explicar por qué ocurría de esa manera, es decir, asignarles un origen físico. La respuesta de Kleper fue que la causa radicaba en el Sol, pues obligaba a los planetas a girar en torno suyo; y la razón por la que a veces los planetas se movían más rápido y otras más lento era porque había una resistencia a moverse que radicaba en el planeta mismo. La primera idea es el embrión de la ley de la atracción gravitacional y la segunda de la propiedad de inercia. Esta explicación revela la unión de física y astronomía por medio de las matemáticas después de dos mil años de divorcio.
Volviendo con el problema del ajuste entre los datos observacionales y el modelo de los sólidos pitagóricos, Kepler se dio cuenta que para lograr el ajuste deseado necesitaba tener información confiable, y sólo había un hombre que poseía lo que necesitaba: Tycho Brahe. La unión del trabajo de estos dos hombres dio como resultado el nacimiento de la astronomía moderna. Kepler publica sus tres leyes de los movimientos planetarios en Astronomía nova (primera y segunda) y en Harmonice mundi (tercera).
Kepler es el primer constructor de leyes de la naturaleza, y lo que le permitió lograr eso fue, primero, mantener la creencia de regularidades matemáticas dentro de los movimientos planetarios y, segundo, la introducción de la causalidad física en la geometría formal de los cielos. Mientras que la cosmología estuvo regida por reglas puramente geométricas, independientemente de las causas físicas, las discrepancias entre teoría y hechos podían ser superadas insertando otra rueda dentro del sistema.
Galileo
Al final del siglo xvi, aun con todas las críticas y explicaciones alternativas a la teoría de Aristóteles sobre el movimiento, no existía ninguna teoría que pudiera rivalizar con su interpretación global del Universo. Todas las descripciones alternativas surgieron de los restos del pensamiento aristotélico, desgarrado por la crítica escolástica, y fueron el telón de fondo que posibilitó el desarrollo conceptual en el siglo xvii. Ahora bien, ¿cuál es la diferencia entre lo que hacían los mertonianos y parisinos y la actitud de Galileo (1564-1642), si utilizaban prácticamente las mismas definiciones en sus respectivos análisis del movimiento?
En lo que respecta a los estudios del movimiento, Galileo hizo sus análisis de manera similar a como lo hacían los pensadores medievales con la regla mertoniana de la velocidad media, y utilizó muchas de las argumentaciones hechas por los nominalistas y los filósofos de la teoría del impetus. La diferencia es que cuando Galileo aplicaba la regla mertoniana estaba describiendo cómo caen “realmente” los cuerpos. La naturaleza de la transición que diferenció la revolución científica de la ciencia medieval radica en diversos factores; uno de ellos es fundamental y consiste en el papel que juegan las hipótesis y la explicación en la ciencia. No se trataba de “salvar las apariencias”, sino de plantear hipótesis verdaderas respecto de la realidad del mundo físico. En este sentido, es diferente el uso que hacían los eruditos medievales de las matemáticas (pues sólo eran ejercicios lógicos), del uso que Galileo hace de ellas y que se refieren al mundo físico. También es dispar la actividad empírica que los eruditos medievales realizaban en comparación con la “interrogación metódica” de la naturaleza que realizaba Galileo, que fue la base del experimento moderno.
En la obra de Galileo Galilei se ve reflejado todo el desarrollo de la revolución científica de los siglos xvi y xvii. Tal vez la característica más notable de su obra es que, por un lado, se da en la convergencia de varias tradiciones de pensamiento y, por otro, su obra no obedece a ninguna filosofía previa en particular.
Galileo aporta un espíritu realmente nuevo a la ciencia, al margen de todo esquema preestablecido y, paradójicamente, ésta es la razón por la cual la obra galileana es emparentada con diversas filosofías: la platónica, la aristotélica, la atomista, el empirismo, etcétera. Galileo utilizó muy hábilmente elementos platónicos renacentistas, apeló al “verdadero Aristóteles”, inventó hechos y resultados acordes con el marco teórico que iba desarrollando, recurrió continuamente a la anamnesis platónica y escribió en forma de diálogos su obra de difusión. Todo lo anterior lo realizó de una manera extraordinariamente flexible sin parangón en la historia de la ciencia. La obra galileana, tan vasta y compleja, es utilizada como base o referente de prácticamente cualquier análisis que se haga de las metodologías científicas en la actualidad.
La obra de Galileo presenta múltiples y variados aspectos, y en lo que se refiere a la relación entre física y matemáticas aparece nuevamente la unión entre ambas disciplinas, después de siglos de divorcio impuesto por la filosofía aristotélica. Además, inicia la construcción de una sola física para las regiones terrestre y celeste.
Galileo inicia sus estudios del movimiento en el punto donde habían llegado los seguidores de la teoría del impetus medieval. Concretamente, estudia el fenómeno de la caída de los graves y el lanzamiento de proyectiles. Estaba consciente también de la estrecha relación que había entre física y cosmología; si quería convencer a sus contemporáneos de la teoría heliocéntrica, tenía que construir una física acorde con la idea de una Tierra en movimiento.
Para Galileo, la caída de un cuerpo se efectúa debido a una fuerza constante: su peso (o gravedad); por lo tanto, ésta no puede tener otra velocidad que la constante. La velocidad no está determinada por algo exterior al cuerpo, sino que es algo inherente y propio del objeto. Así, a un cuerpo con mayor peso le corresponde una mayor velocidad y a un cuerpo de menor peso le corresponde una menor velocidad. De esta manera —señala en De Motu— la velocidad de caída de un cuerpo es proporcional a su peso y de un valor constante para cada uno.
Sin embargo, Galileo estaba obligado a reconocer que una piedra que cae lo hace cada vez más rápido y esta aceleración ocurre hasta que el cuerpo adquiere su velocidad característica; a partir de este momento su movimiento se efectúa con una velocidad constante; y esta velocidad está en función del peso, pero no del peso absoluto, sino del peso específico de los cuerpos. Un pedazo de plomo caerá más rápido que uno de madera, y dos pedazos de plomo caerán con igual velocidad. Más aún, Galileo introdujo en su física que no se trata del peso específico absoluto de los cuerpos, sino de su peso específico relativo.
No obstante, Galileo continuó con sus estudios sobre la caída de los cuerpos, la velocidad en ese entonces, no estaba definida por su peso absoluto, sino por el específico y relativo. Estas precisiones le permitieron trascender el aristotelismo y la dinámica del impetus, al hacer la sustitución de la contraposición de cualidades (levedad y gravedad) por una escala cuantitativa y este método le fue proporcionado por la hidrostática de Arquímedes: un trozo de madera que cae en el aire, se elevará si es colocado en el fondo del agua. Así, la fuerza (y la velocidad) con la cual desciende o sube un objeto, está en proporción con la diferencia entre el peso específico del objeto y el peso de un volumen del medio que es desalojado por el mismo cuerpo; concluye que no hay cuerpos leves, todos son graves.
A partir de aquí, Galileo comenzó a construir la nueva física, donde el único movimiento natural que reconoce es el de los cuerpos pesados que son atraídos hacia abajo. La distinción entre peso absoluto y relativo y la repetida afirmación de que la velocidad de caída de un cuerpo está en función de su peso relativo en un medio determinado (y no de su peso absoluto), conduce a la inevitable conclusión de que es en el vacío, y sólo en él, donde los cuerpos tienen un peso absoluto y todos caen con la misma velocidad, ésta es la mitad de la ley de la caída de los cuerpos, la otra mitad es cuando establece que la distancia recorrida es proporcional al cuadrado del tiempo, relacionando así dos cantidades físicas por medio de una expresión matemática. El físico italiano, además, realiza otra serie de experimentos en los que demuestra la trayectoria seguida por un móvil después de abandonar un plano inclinado: línea semiparabólica.
Aunque Galileo hereda el pensamiento platónico sobre la existencia de regularidades matemáticas en la naturaleza, tiene una diferencia fundamental con Platón pues, según éste, sólo se puede acceder a la auténtica realidad del mundo mediante la razón, mientras que para Galileo estas regularidades se pueden hallar sabiendo preguntar a la naturaleza; aquí nace la experimentación en el sentido moderno. Galileo fue consciente de que sólo abstrayendo las propiedades (matemáticamente hablando) de un objeto real, a fin de transformarlo en un objeto geométrico, se podía adecuarlo para un análisis cuantitativo. El genio galileano conjuga razón y experiencia, matemáticas y física, en contra de la posición aristotélica de no mezclar géneros.
Galileo se percató de la diferencia entre lo abstracto y lo concreto, pero supo igualmente reconocer las similitudes entre uno y otro. También se percató de esa asombrosa concordancia entre teoría y observación y las conjuga para iniciar la construcción de la nueva ciencia. Realizó experimentos aplicando, en muchos casos, un análisis matemático ideal (plano liso sin fricción, bola perfectamente esférica) a una situación real (plano rugoso con fricción, bola cuasiesférica), lo cual demuestra cómo se comenzaba a reconocer la importancia de la abstracción matemática en la descripción de los fenómenos naturales. Esto, además, nos muestra una característica importante de la epistemología galileana, que es la de ofrecer experimentos construidos a partir de una teoría, y en donde el papel de ellos es confirmar la validez de esta última. En la obra de Galileo aparecen los fundamentos de la nueva física: el movimiento en el vacío, el movimiento como un estado, el principio de la inercia, la matematización del mundo físico, la geometrización del espacio, la concordancia entre la teoría y la observación, etcétera.
Galileo contribuye de manera esencial a la unión entre matemáticas y física a partir de la herencia que recibe, principalmente de Pitágoras, Platón y Arquímedes. Esta actitud epistemológica caracteriza la ciencia actual y puede ser resumida en una famosa cita de Il Saggiatore: “la filosofía está escrita en ese grandioso libro que está continuamente abierto ante nuestros ojos (lo llamo Universo). Pero no se puede descifrar si antes no se comprende el lenguaje y se conocen los caracteres en que está escrito. Está escrito en lenguaje matemático, siendo sus caracteres triángulos, círculos y figuras geométricas. Sin estos medios es humanamente imposible comprender una palabra; sin ellos, deambulamos vanamente por un oscuro laberinto”.
|
|||||||||||
Referencias Bibliográficas
Antaki, Ikram. 1989. La cultura de los árabes. Siglo XXI, México.
Galilei, Galileo. 1623. Il Saggiatore. Aguilar, Buenos Aires. 1981.
_____. 1632. Diálogo sobre los dos máximos sistemas del mundo: ptolomaico y copernicano. Aguilar, Buenos Aires. 1980.
_____. 1638. Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Editora Nacional, Madrid. 1981. Koyré, Alexandre. 1981. Estudios galileanos. Siglo XXI, Madrid. Uritam, Rein A. 1974. “Medieval science, the Copernican revolution and physics teaching”, en American Journal of Physics, vol. 42, núm. 10, pp. 809-819. |
|||||||||||
Nota
La primera parte de este texto apareció en el número 113-114 de la revista Ciencias: La relación entre física y matemáticas a lo largo de la historia: de Pitágoras a Galileo (parte I).
|
|||||||||||
_____________________________ |
|||||||||||
José Luis Álvarez García
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Es físico y maestro en ciencias por la Facultad de Ciencias de la UNAM; es doctor en filosofía de la ciencia por la Facultad de Filosofía y Letras y el Instituto de Investigaciones Filosóficas de la UNAM. Actualmente es profesor titular del Departamento de Física de la Facultad de Ciencias, UNAM. Sus áreas de trabajo son la enseñanza de la física y las matemáticas, así como la historia y la filosofía de la física.
Damián Flores Sánchez
Colegio de Ciencias y Humanidades,
Universidad Nacional Autónoma de México.
Damián Flores Sánchez es físico por la Facultad de Ciencias, UNAM. Sus áreas de trabajo son la enseñanza de la física y las matemáticas. Actualmente trabaja en el Colegio de Ciencias y Humanidades de la UNAM.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Álvarez García, José Luis y Flores Sánchez, Damián. 2015. La relación entre física y matemáticas a lo largo de la historia. De Pitágoras a Galileo (parte II) Ciencias, núm. 117, julio-septiembre, pp. 64-74. [En línea].
|
![]() |
![]() |
|
|||||||||||||||||||||||||||||||||||||||||||
Alejandro González y María del Pilar Molina Álvarez |
|||||||||||||||||||||||||||||||||||||||||||||
Las diversas realidades que vive México son parte de un
mosaico multicultural, herencia de nuestro pasado mesoamericano que ha sido negado por siglos, excluyendo de sus derechos básicos y de su integración real a las diversas culturas. Esta propuesta busca integrar la cultura náhuatl a la divulgación científica desde un punto de vista social, cultural y lingüístico, por lo que está dirigida principalmente al joven de habla náhuatl para que se apropie del conocimiento científico, pero también a los no hablantes, pues es necesario crear una conciencia en cuanto al valor de las distintas culturas que hay en México, de su imprescindible conocimiento y comprensión para vivir en una sociedad intercultural.
Así, retomamos la divulgación de la física, el idioma náhuatl escrito y el dibujo como parte del aprendizaje y uso de diversos sistemas simbólicos, herramientas de pensamiento utilizadas en equilibrio por los jóvenes.
Se plantea además el uso de los sistemas simbólicos verbales y no verbales, pues esto permite a los jóvenes partir del conocimiento desde el entorno real, de su experiencia, así como de su observación, representación y reflexión; este paso será parte importante del pensamiento que los irá llevando a sistemas simbólicos más complejos y abstractos.
El valorar este armado de conceptos científicos, que pretenden ser integradores, implica la necesidad de su aplicación y su modificación según sea su recepción por el joven, así como el enriquecimiento de la visión del conocimiento de la propia cultura náhuatl.
La época que vivimos es visual, los conceptos que formamos de la realidad parten de esta construcción, por lo que retomar la tradición mesoamericana de la enseñanza con imágenes es un punto central, pues implica retomar un camino antiguo que permite que el individuo y el colectivo establezcan diversas aproximaciones sobre su entorno desde diversos ángulos del conocimiento y su modo de aplicarlo en las realidades y problemáticas propias; posibilitando conocernos y reconocernos como parte de un mundo que debería ser conservado como el tesoro más valioso.
Antecedentes de la educación indígena
El idioma náhuatl es una herencia cultural de gran raigambre prehispánica que debemos cuidar con esmero para evitar su desaparición. En el pasado, la tradición oral junto con la pictórica difundieron el conocimiento de la cultura náhuatl en todo el territorio mesoamericano a lo largo de varias centurias antes de la conquista de México. La cultura nahuatl floreció mediante ambas tradiciones de transferencia del conocimiento a las generaciones futuras y mantuvo vivas todas las expresiones de creatividad desarrolladas en Mesoamérica por diversas culturas originarias, desde Teotihuacan hasta México-Tenochtitlan.
Con la llegada de los mexicas al centro de México, el idioma náhuatl fue la lengua franca en toda Mesoamérica desde el siglo XIII hasta principios del siglo XVI. Sin embargo, esta tradición cultural fue interrumpida en el siglo XVI por la confrontación entre el mundo europeo y el mundo mesoamericano; principalmente fue afectada la tradición pictórica, cuya pintura mural fue extinguida con la llegada de los españoles.
De igual forma, gran cantidad de códices o documentos pictográficos del saber prehispánico fueron destruidos por los conquistadores españoles, quedando en la actualidad pocos. En la segunda mitad del siglo XVI, los misioneros españoles recopilaron todo tipo de conocimiento del mundo mesoamericano por medio de informantes indígenas que dibujaban códices sobre diversos temas de la vida y la cultura pero, con el tiempo, la iconografía indígena se fue mezclando con la europea, dejando un documento más al gusto del recopilador que del informante. En los siglos posteriores, esta tradición no se desvaneció por completo, pues se siguieron realizando códices, mapas y títulos de tierra, continuando la tradición indígena.
En cambio, la tradición oral sufrió cambios drásticos con la introducción de los vocablos latinos del español para la escritura del idioma náhuatl. El saber indígena fue trasladado a documentos escritos en idioma náhuatl con grafía latina, misioneros españoles que aprendieron el náhuatl dejaron junto con sus informantes indígenas una extensa documentación escrita.
Asimismo, algunos indígenas educados por los españoles aprendieron español, latín y escribieron en náhuatl y en latín la historia de sus orígenes; más tarde, en el siglo XVII, estudiosos del náhuatl siguieron escribiendo sobre la historia y las antiguas tradiciones del pasado prehispánico. Es así que el saber indígena ha quedado plasmado en la documentación escrita realizada a partir del siglo XVI, mientras la tradición oral fue reciamente atacada desde ese mismo siglo para que el conocimiento de los antiguos mexicanos no se difundiera más entre el pueblo, por lo que esta tradición se conserva hasta nuestros días de manera anónima, de padres a hijos, sin registro formal.
El náhuatl, a pesar de ser el idioma originario más hablado por el pueblo mexicano desde el siglo XVI ha ido desapareciendo de ciudades y pueblos, y así su raigambre cultural. El pueblo nahua, el heredero directo de su raíz prehispánica, es el que ha quedado más rezagado de su propio origen y sólo gracias a la tradición oral mantiene vivas sus costumbres y cultura.
Durante el virreinato, el pueblo indígena quedó marginado de la enseñanza de la escritura, la lectura y las cuentas, su educación fue principalmente evangelizadora, mediante pictogramas y jeroglíficos basados en pasajes de la Biblia, bajo la forma de códices. Estos Catecismos testerianos se usaron para la enseñanza de la doctrina cristiana.
En la educación rural a los hijos de los principales (caciques) se les enseñó la doctrina, leer, escribir y las cuentas para que al heredar sus haciendas pudieran llevar a cabo la administración; a los indígenas comunes sólo se les enseñaba la doctrina cristiana, siempre y cuando fueran obedientes, pues el saber podría convertirse en un problema. La educación de las niñas era sólo en oficios manuales, pues no era necesario que aprendieran a leer, escribir o contar, ya que tarde o temprano se casarían.
En el siglo XVI, la enseñanza superior indígena fue sólo para un grupo limitado que aprendía en el Colegio de Santa Cruz de Tlateloloco o en el Colegio de San Pablo, en donde se les educaba en filosofía, literatura, retórica, medicina, música y teología. En 1597, con la muerte de su fundador, fray Bernardino de Sahagún, el Colegio de Tlatelolco fue reducido a una escuela elemental, al igual que las demás, extinguiéndose prácticamente el proyecto de enseñanza superior indígena. A la vez, con la extensión de las órdenes religiosas en la Nueva España y la evangelización y castellanización de indígenas que se llevó a cabo de manera sistemática en las escuelas eclesiásticas, se crearon nuevas identidades locales.
En el siglo XIX, en el periodo independentista, entre conflictos de conservadores y liberales se consolida el Estado nacional mexicano, lo que da lugar a nuevos conceptos de educación, como los de la enseñanza a cargo de liberales en los Institutos de Ciencias y Artes, las escuelas primarias laicas y las escuelas normales lancasterianas; en cambio, en las instituciones religiosas, a cuenta de los conservadores, los indígenas no tenían una participación específica.
Con el triunfo liberal se trató de asimilar la diversidad lingüística y cultural en el tejido social de la ciudadanía. En ese siglo se promueve la propiedad privada, se desamortizan los bienes eclesiásticos y comunales, y emergen conflictos culturales e ideológicos (que dan cuenta de la oposición en las zonas rurales a los incipientes y desorganizados intentos de castellanización y extensión de una educación para los pueblos).
En el porfiriato no hubo grandes cambios en los mecanismos económicos de autorreproducción de las sociedades rurales tradicionales, pero en algunas entidades de la república se jerarquizaron las escuelas en clases; en los pueblos de alta composición indígena, como en Oaxaca, se crearon planteles de párvulos y primarias de primera clase; en cambio, en la periferia de la ciudad y las regiones alejadas sólo se crearon primarias de segunda y tercera clase, quedando así relegada la educación indígena. Esta concepción de la educación indígena, aunada a la falta de maestros en las escuelas periféricas dio lugar a contenidos, métodos y tiempos reducidos, con programas recortados y el uso de sistemas antiguos de enseñanza mutua, pues se consideraba imposible que un maestro pudiera atender más de dos secciones de alumnos simultáneamente.
Debido a la diversidad lingüística de los alumnos, se justificaba otorgar una educación simplificada, asociada a la finalidad de unificar el idioma nacional. Con los modelos europeos adoptados en los programas estatales de escuelas elementales para alumnos indígenas, se concentraba la enseñanza en el área del idioma como su fundamento, quedando reducidos los programas de enseñanza a la instrucción del castellano, sin tomar en cuenta los idiomas originarios de los alumnos, a pesar de contar con algunas gramáticas en idiomas indígenas.
En el siglo XX, en el periodo posrevolucionario, al igual que en la Colonia, se llevaron a cabo estrategias educativas específicas para la población indígena, con la diferencia de que el Estado necesitaba consolidar su poder y su control federal, tratando de presentarse con una imagen de nación moderna homogénea. Sin embargo, las políticas educativas estaban llenas de fisuras, contrastes, continuidades, traslapes y rupturas.
La tradición indígena pictográfica
La tradición oral en las civilizaciones mesoamericanas fue el factor fundamental de la comunicación del saber indígena a través del tiempo. Para Federico Navarrete Linares: “el discurso oral y el discurso visual se complementaban así de una forma en la cual uno no se subordinaba al otro, ya que la imagen mostraba muchos detalles y aludía a varios elementos que la palabra no podía describir de manera sintética, mientras que la palabra expresaba aspectos difícilmente traducibles en imágenes, como los discursos de los personajes”.
La tradición pictográfica indígena, mediante la cual las civilizaciones mesoamericanas registraron su cultura e historia, se extendió por varios siglos, dejando una herencia artística, cultural e histórica invaluable para las generaciones posteriores. La riqueza de ésta fue extremadamente quebrantada por la conquista de México y su desarrollo y evolución para poder registrar los eventos culturales, sociales e históricos posteriores se interrumpió abruptamente.
A pesar de ello, la tradición pictográfica indígena no desapareció por completo y los pueblos a lo largo del tiempo la han mantenido viva en códices con relatos históricos, rituales y genealógicos, en mapas donde se representan caminos, ríos y pueblos de la antigüedad (antes y después de la Conquista), y en las pinturas de papel amate del arte popular mexicano actual donde se dibujan eventos de la vida cotidiana.
La pictografía indígena está compuesta de imágenes que comunican conocimiento indígena creado a lo largo del tiempo, símbolos de su tradición cultural que ahora son motivo de investigación, pero que en el pasado constituyeron los materiales esenciales para el aprendizaje del saber mesoamericano.
Esta tradición, rica en símbolos, es capaz de comunicar conocimientos concretos y abstractos, su función es atrapar la atención del espectador para alcanzar su entendimiento con los símbolos dibujados.
Los elementos simbólicos los podemos dividir en dos tipos: constantes y variables. Los constantes son los elementos que culturalmente son reconocibles por el espectador sin necesidad de explicaciones explícitas o aquéllos que son fáciles de comprender por medio de los elementos concretos que los integran y que son de clara interpretación.
Los elementos variables son aquellos símbolos que comprenden conceptos difíciles de interpretar por espectadores que no están familiarizados con ellos y que dan lugar a diferentes interpretaciones que podrán ser unificadas mediante la explicación formal.
La divulgación científica en náhuatl
La tradición indígena oral, pictográfica y escrita, quebrantada por un proceso de castellanización durante la Colonia y la vida independiente de México, ya no registró los eventos culturales y científicos del conocimiento universal. Por lo que éste carece de una expresión de comunicación en tradición indígena que ha afectado a los pueblos de habla náhuatl desde siempre y que los ha marginado de estos saberes. En particular el conocimiento científico no ha sido encauzado al saber indígena mediante sus métodos tradicionales de comunicación, lo que repercute en que los niños y jóvenes herederos de la tradición indígena quedan apartados de él.
Con el fin de romper esta omisión histórica, observamos que la divulgación científica escrita en lengua náhuatl y acompañada con imágenes a manera de códice moderno es una forma de renovar la tradición de comunicación de conocimiento, replanteando una vía ya olvidada de adquisición de saberes.
La gravitación, desde la antigüedad, ha llamado la atención en el estudio de la física y su entendimiento ha sido un reto de la mente humana. La historia de la ciencia ha registrado el desarrollo de la comprensión de este concepto físico desde los antiguos griegos hasta nuestros días, entendimiento no terminado y que seguirá cambiando.
Tal es la importancia de este concepto que su enseñanza y divulgación es parte fundamental en todos los idiomas en que se ha difundido la ciencia universal.
La divulgación del tema de gravitación en náhuatl es sólo un paso para extender el conocimiento universal a los pueblos de habla náhuatl del presente.
La gravitación
La palabra gravitación se empieza a utilizar en el siglo XVII a partir del vocablo en latín gravitas, que significa peso en español, y el sufijo –ción, con el significado de acción y efecto. Entonces la gravitación sería la acción y el efecto del peso. Esta palabra fue acuñada por Isaac Newton para indicar la fuerza de atracción entre los cuerpos masivos. Análogamente, la palabra gravedad significa cualidad de peso. Es el mismo Newton quien identifica el peso de los objetos como la fuerza de atracción que la Tierra ejerce sobre ellos.
A pesar de que el concepto de gravitación en física empezó a aclararse con las ideas que Newton estableció en el siglo XVII y se aplican con éxito al movimiento de los planetas del Sistema solar, ya desde la Antigüedad los griegos pensaban acerca de los objetos pesados, y Galileo, precursor de las ideas de Newton, experimentaba con diferentes pesos. En el siglo XX, las ideas de gravitación cambiaron rotundamente con los planteamientos de Einstein. Actualmente tales ideas se encuentran en revisión por parte de los físicos.
La narración en náhuatl
El tratamiento del concepto físico de gravitación en náhuatl se hace mediante texto e imagen. El texto en náhuatl se hace como una narración que se refiere al personaje histórico o físico que estableció un pensamiento o acción sobre el concepto de gravitación y sobre esta idea o acción.
La narración empieza con Aristóteles, quien reflexionó sobre la idea de peso, y continúa con otros científicos, y sus ideas, que contribuyeron a la construcción formal del concepto y a su acepción científica actual. Comprende un periodo de tiempo que va desde los griegos hasta nuestros días, incluyendo a los tres físicos ganadores del Premio Nobel en 2014 por sus propuestas sobre la expansión del Universo, y terminamos con un comentario sobre la película Gravedad de Alfonso Cuarón.
Frecuentemente, los conceptos científicos de la física en español son vocablos del lenguaje ordinario con raíces griegas que incluyen la composición de diferentes vocablos para formar uno nuevo. Estos mismos conceptos son traducidos al náhuatl para establecer el relato histórico de la gravitación.
Para apoyar los diálogos en náhuatl, la traducción de conceptos de la física y, en particular la formulación de neologismos, se han tomado como base los siguientes diccionarios: Vocabulario en lengua Castellana-Mexicana, Mexicana-Castellana de fray Alonso de Molina de 1571; el Diccionario de la lengua náhuatl o mexicana de Rémi Simeón, de 1885; y An Analytical Dictionary of Nahuatl de Frances Kartunne de 1983.
En la elección de un vocablo en náhuatl que representa un concepto de la física en español, se buscó en los diccionarios este concepto y su traducción al náhuatl (lo más cercano a este vocablo); por ejemplo, para la palabra masa se encontró en náhuatl textli con igual significado.
Cuando el concepto de la física no existe en los diccionarios de náhuatl, se aprovecha la característica de este idioma como una lengua incorporante que permite la composición de palabras conocidas para formar nuevas. Esta propiedad del idioma permite formar vocablos científicos nuevos que no existen en su vocabulario original con base en términos que sí existen. Diversos conceptos físicos que se emplean en la narración histórica de la gravitación de este escrito no se encuentran en náhuatl, por tal motivo fue necesario construirlos y el criterio que elegimos para esto es que se construyeran a partir de palabras que existen en los diccionarios de este idioma.
De esta forma se construyó la palabra icpiticatonacuecueyotl para microonda, que se forma de los sustantivos icpiticatontli, que según el diccionario de Rémi Simón significa cosa muy pequeña, infinitamente poco, una nada; y acuecueyotl, ola, onda, oleaje.
En los cuadros siguientes se establece una narración histórica del tema de gravitación en náhuatl con su traducción al español. En letra cursiva se señalan, tanto en náhuatl como en español, los conceptos físicos involucrados en este relato.
Base pedagógica
En el caso de las reflexiones anteriores en torno al pensamiento y aprendizaje humano encontramos a Vygotski con un planteamiento biológico, psicológico, individual y social, que analiza cómo en el hombre se lleva a cabo el proceso de enseñanza-aprendizaje en un diálogo histórico, sobre la reflexión, el pensamiento y la creatividad, en un sistema dialéctico. Esto permite reconocer el desarrollo de la psicología como una ciencia que permite enlazar y ser gozne entre las diferentes áreas del conocimiento, ciencias naturales, ciencias sociales y humanidades.
Esto nos permite vislumbrar la importancia del pensamiento y reflexión en el pasado y presente, que resulta en acciones que influyen en el futuro deseado, al establecer cómo se han ido produciendo los cambios en la sociedad, dando lugar con esto a la conciencia del cambio, la creación o modificación del propio mundo o entorno. Este proceso es construido desde el individuo y el grupo al que pertenece y sólo en esa medida trasciende a la propia sociedad mediante la acción o trabajo conjunto.
Lo central y compartido en estos planteamientos psicopedagógicos es el modo como el niño, el joven o el adulto construyen los conceptos a partir de la realidad, la experiencia, el concepto, la representación o la imagen, la argumentación o el idioma, en dos movimientos: “generalización más abstracción”, y “concreto-abstracto-concreto”, lo que implica comprensión más allá de lo aparente.
Así, el proceso de pensamiento se ve reforzado en un mensaje bimedia compuesto por texto e imagen que permite comunicar, recordar y reflexionar, teniendo como base esta estructura que ayuda a comprender. Esto es, no sólo como creación al servicio del poder, sino de la investigación y desarrollo en favor del fenómeno humano, del trabajo conjunto, cooperativo y de diálogo para resolver problemas en pro de un desarrollo común y positivo.
Reconocer el juego del pensamiento en un diálogo constante que va de lo simple a lo complejo o abstracto y de lo real a lo posible nos permite ver que las estructuras no son lógicas ni universales, sino locales, insertas en un contexto individual, social y cultural. Pertenecemos a una comunidad sociohistórica que requiere concientizar la meta del conocimiento como una actividad humana construida colectivamente para resolver problemas sociales.
Las imágenes cumplen la función de ser un sistema de símbolos que permiten centrar la atención en la reflexión de un contexto social, histórico, científico, pasado, presente o futuro (ubican en tiempo y espacio al espectador). Permiten una representación donde el recurso del dibujo es una acción del contexto científico, pero que está cifrado en imágenes o cuadros, que para el espectador implican una ubicación histórica a grandes saltos de la física como parte de una construcción del conocimiento que trasciende culturas.
En el caso del idioma se plantea la integración de las diversas culturas al conocimiento en una revisión de los conceptos occidentales y mesoamericanos, dando validez al contexto cultural y social propio y poniéndolos a discusión.
Planteando con esto una comprensión del entorno científico, artístico, cultural, social, de lenguaje y de la historia de un modo integral, reconociendo constantes o variables conceptuales que se dan de un idioma a otro o de una cultura a otra, pero que pueden ser subsanadas por la imagen que es descriptiva dentro de un contexto específico.
A partir del lenguaje propio, la alfabetización es central, pues implica la construcción y la reflexión sobre el discurso construido, pero que se complementa y ayuda por medio de la imagen, el texto, así como por el mediador o profesor que sabe cuál es la meta.
Dibujos y relatos ayudan a explorar y profundizar la naturaleza sociocultural del aprendizaje, la imagen mantiene relación con la gente, los lugares, las cosas o los acontecimientos; no sólo creamos imágenes, sino estamos formados por imágenes culturales y esa conciencia puede elevar la calidad de la enseñanza; imágenes tales como dibujos se crean pero en forma de experiencia humana y son herramientas válidas para dar sentido, los dibujos generados por el aprendiz son herramientas para la reflexión, ya que tienen fuertes funciones comunicativas, para mediar el pensamiento, formar el aprendizaje y fortalecer la comunicación. Según Vygotski son herramientas de base cultural y sirven como señales de comprensión profunda, como texto o metáfora, son punto de partida y tratan de dar sentido a la experiencia humana y hacen visible lo abstracto.
Conclusiones
La divulgación de la física sobre el tema de la gravitación en náhuatl se ha realizado desde un proceso histórico, en un lenguaje que emplea vocablos del idioma náhuatl para significar lo mejor posible los conceptos físicos dichos en español y en la composición de nuevas palabras en el idioma náhuatl (neologismos) que indican conceptos de la física que no se encuentran originalmente en el náhuatl.
El esfuerzo de traducir al náhuatl el conocimiento científico es sólo un principio para dar a conocer estos saberes a nativos hablantes de dicha lengua, por ello es necesario establecer una pedagogía con base en las ideas de Vygotski, fundamentada en la aplicación simultánea de símbolos verbales y no verbales, como la imagen y el texto en la narración histórica de la gravitación.
El trabajo que nos queda por realizar es visitar las comunidades hablantes de náhuatl para dar a conocer esta propuesta y percatarse de su aceptación, modificación o, inclusive, negación. Enseguida, dar continuidad a la generación de imágenes que den cuenta de los conceptos de la física.
La divulgación del conocimiento científico en idioma náhuatl es un compromiso con las generaciones presentes y futuras que debe llevarse a cabo para resolver una omisión histórica cometida en contra de la sociedad de habla náhuatl.
|
|||||||||||||||||||||||||||||||||||||||||||||
Referencias Bibliográficas
Castorina, José Antonio y Silvia Dubrovsky (comp.). 2004. Psicología, cultura y educación. Perspectivas desde la obra de Vigotsky. Ediciones Novedades Educativas, Buenos Aires.
Costa, Joan y Abraham Moles. 1991. Imagen didáctica. ceac, Barcelona. Escalante Gonzalbo, Pablo. 2010. Los códices mesoamericanos antes y después de la conquista española. Historia de un lenguaje pictográfico. fce, México. García, Enrique. 1999. Neologismos nahuas: incorporación de voces de la vida actual al vocabulario de la lengua azteca. Plaza y Valdés Editores, México. Giménez, Joaquín (coord.). 2009. La proporción: arte y matemáticas. Graó, Barcelona. Gonzalbo, Pilar. 1990. Historia de la educación en la época colonial: el mundo indígena. Colegio de Mexico, Centro de Estudios Históricos, México. Martí, Eduardo y Juan Ignacio Pozo. 2000. “Más allá de las representaciones mentales: adquisición de sistemas externos de representación”, en Infancia y Aprendizaje, núm. 90, pp. 11-30. Tanck de Estrada, Dorothy. 2010. Historia mínima. La educación en México. Colegio de Mexico, México. Vigotsky, Lev. 2001. La imaginación y el arte en la infancia: ensayo psicológico. Ediciones Coyoacán, México. |
|||||||||||||||||||||||||||||||||||||||||||||
_____________________________ |
|||||||||||||||||||||||||||||||||||||||||||||
Alejandro González y Hernández
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Alejandro González y Hernández hizo la licenciatura de física en la Facultad de Ciencias, UNAM y es maestro en enseñanza de las ciencias en la Benemérita Universidad Autónoma de Puebla. Es profesor de tiempo completo en la Facultad de Ciencias, UNAM; imparte asignaturas en la carrera de Física y en la carrera de Ciencias de la Tierra. Ha participado en congresos nacionales e internacionales y es autor de diversos artículos sobre física experimental.
María del Pilar Molina Álvarez
Escuela Nacional Preparatoria-Plantel 5,
Universidad Nacional Autónoma de México.
María del Pilar Molina Álvarez hizo la licenciatura y la maestría en artes visuales en la Escuela Nacional de Artes Plásticas en el plantel Xochimilco y en la Academia de San Carlos de la unam. Es profesora de asignatura, imparte la materia de fotografía en la Escuela Nacional Preparatoria en los planteles 5 y 8 de la UNAM. A participado en exposiciones de arte, así como en congresos nacionales con ponencias sobre educación en arte.
|
|||||||||||||||||||||||||||||||||||||||||||||
_____________________________ | |||||||||||||||||||||||||||||||||||||||||||||
cómo citar este artículo →
González y Hernández, Alejandro y Molina Álvarez, María del Pilar. 2015. Eitliztli, gravitación divulgación de la física en idioma náhuatl. Ciencias, núm. 117, julio-septiembre, pp. 52-61. [En línea].
|
![]() |
![]() |
|
|||||||||
Andrea L. Aburto E. |
|||||||||||
Uno de los temas más apasionantes en la física del estado
sólido es sin lugar a dudas la superconductividad, un fenómeno que presentan algunos materiales, los cuales, bajo ciertas condiciones, conducen corriente eléctrica sin resistencia y, por ende, sin pérdida de energía; además, dichos materiales poseen la capacidad de impedir la penetración de las líneas de campo magnético, es decir, pueden llegar a levitar en presencia de un imán.
La superconductividad es un efecto cuántico macroscópico, o sea que se puede observar a simple vista, pero su explicación pertenece al mundo de los electrones. Esta rama del conocimiento es una de las más emocionantes debido a sus implicaciones, aplicaciones y por los personajes involucrados. La historia se puede remontar al año de 1908, cuando Kamerlingh Onnes logró la licuefacción del helio, con lo que se alcanzaba la más baja temperatura conocida para ese entonces (–268.95 °C o 4.2 K), cumpliendo además dos cometidos: 1) ganarle la carrera a James Dewar en la búsqueda de la licuefacción del “último de los gases permanentes” y 2) poder estudiar materiales en ese ambiente frío.
Tres años después, en la Universidad de Leiden, Holanda, Heike Kamerlingh Onnes le propuso a su estudiante Gilles Holst medir la resistividad —esto es, la capacidad de un material para oponerse al paso de una corriente eléctrica— del mercurio con la idea de estudiar el comportamiento de la resistencia eléctrica en un metal puro al bajar la temperatura cerca del cero absoluto (0 K). En 1911 descubrieron que la resistividad se anulaba por debajo de 4.15 K. Tan insólito fue el suceso, que se cuenta que cuando Holst le presentó sus resultados a Onnes, éste le ordenó que volviera al laboratorio a encontrar el “error”. Verificó sus instrumentos, repitió el experimento varias veces y este comportamiento “extraño” fue confirmado. Dicen que, por ser jefe de Holst, Onnes “se quedó con la paternidad del descubrimiento” y refieren que, como castigo, la temperatura de transición superconductora no lleva su nombre.
Holst dejó el Laboratorio Leiden tras recibir una oferta para fundar un nuevo laboratorio industrial patrocinado por el conocido comerciante de lámparas y filamentos: Gerard Philips. Al año siguiente, Onnes descubrió también que el estaño y el plomo, malos conductores de la electricidad, presentaban una pérdida en la resistencia a 3.7 y 6 K, respectivamente. En 1913 recibió el Premio Nobel de Física.
La resistividad en un conductor metálico disminuye a medida que ba-ja la temperatura. En los metales tradicionales, como la plata y el cobre, las impurezas y otros defectos hacen que se observe una resistencia no nula, ya que los electrones no encuentran un camino llano, sino que colisionan con imperfecciones e impurezas de la malla. Al momento de impactar con los obstáculos, los electrones se propagan en todas direcciones y pierden parte de su energía en forma de calor debido al efecto Joule. En los superconductores, en cambio, la resistencia decae abruptamente a cero cuando la muestra se enfría por debajo de una cierta temperatura, denominada temperatura crítica, por lo que son materiales capaces de conducir corriente eléctrica sin pérdida de energía.
Explicar por qué los electrones atraviesan el material superconductor sin resistencia ocupó a la comunidad científica durante más de cuarenta años. Los primeros investigadores propusieron que, en condiciones de baja vibración atómica, los electrones podrían fácilmente atravesar el material conductor y se esperaría entonces una lenta disminución de la resistividad por la temperatura, idea que fue insuficiente para explicar la superconductividad.
Diamagnetismo perfecto
En 1933, los científicos alemanes, Walter Meissner y Robert Ochsenfeld, descubrieron que los superconductores además presentan la propiedad de la impermeabilidad a campos magnéticos. Este fenómeno es conocido hoy en día como diamagnetismo perfecto o efecto Meissner. Así, los superconductores, más que conductores perfectos, como suponía Onnes, son diamagnetos perfectos, esto es, que poseen la capacidad de repeler el campo magnético.
El diamagnetismo en un material superconductor se considera la segunda característica increíble de la superconductividad. Cuando una muestra superconductora se acerca a un imán, en la superficie de ésta se genera una corriente que a su vez produce un campo magnético que se opone al campo externo aplicado, cualquiera que sea su polaridad (figura 1).
Durante la década de los cuarentas se descubrió superconductividad en otros metales y en compuestos o aleaciones. En 1941 se encontró que el nitrato de niobio es superconductor a 16 K y, en 1953, que el silicato de vanadio lo es a 17.5 K. En 1962, científicos de la empresa Westinghouse desarrollaron el primer hilo superconductor comercial, una aleación de niobio y titanio. El primer uso de este alambre fue para fabricar los electroimanes de un acelerador de partículas y en 1987 se utilizó en el Tevatrón, el acelerador de partículas circular del Fermilab, ubicado en Illinois, Estados Unidos.
Sobre las bases teóricas
Las teorías que han permitido la comprensión de algunos aspectos de la superconductividad son bastante complejas y van más allá de las pretensiones de este trabajo (cabe mencionar que hasta hoy no existe una teoría acabada que dé cuenta o explique cada uno de los resultados que a continuación presentaremos). Fue en 1950 que Richard Feynman declaró que la superconductividad era el problema teórico más importante de la época, ya que lo habían intentado resolver Einstein, Bohr, Heisenberg y él mismo. Sin ninguna teoría sobre la cual apoyarse, los científicos se dedicaron a realizar experimentos con diferentes muestras de elementos puros y con aleaciones de titanio, estroncio, germanio y, sobre todo, niobio, con el que se obtuvieron los mejores resultados.
¿De dónde viene este fenómeno que ninguna teoría predice ni puede explicar? La interrogante sobre el origen de la superconductividad mantenía preocupados a los científicos. En consecuencia, dos posibles explicaciones sobre las propiedades básicas de la superconductividad fueron propuestas: el modelo de los dos fluidos de Gorter y Casimir, en 1934, y en 1935 la teoría fenomenológica —un análisis descriptivo con base en las experiencias conocidas en electromagnetismo— de Fritz y Heinz London.
Los científicos que buscaban una explicación a la superconductividad se basaron en las ideas y técnicas del momento: la cantidad de calor requerida para licuar los gases, los aparatos de medición de temperatura y los cambios de estado de la materia. A pocos años del postulado de Nernst –el cero absoluto no es una temperatura alcanzable–, no es de extrañar que el enfoque para un esclarecimiento de este nuevo fenómeno haya procedido del electromagnetismo y de la termodinámica.
En 1934, Cornelis Jacobus Gorter y Hendrik Brugt Gerhard Casimir (estudiantes de Wander de Haas y Paul Ehrenfest, respectivamente) propusieron explicar la superconductividad a partir del modelo de los dos fluidos. La idea era modelar los electrones como pertenecientes a dos tipos de fluido: el de los electrones normales y el de los “superelectrones”. Los primeros se comportan como ya conocemos, chocando con las impurezas de la red cristalina; en cambio los superelectrones pueden atravesar la red sin perturbaciones. Esta suposición permitió deducir varios resultados y aseverar que el estado de superconductividad es un estado termodinámico que se caracteriza perfectamente por la variación del calor específico y la ausencia de calor latente o entalpía al momento de la transición.
Sin embargo, el modelo no decía nada del origen de la superconductividad. En 1935, los hermanos London desarrollaron una teoría fenomenológica de la superconductividad, estudiando cómo ocurren las cosas en un superconductor pero no el porqué. De este modo describieron las dos propiedades básicas (resistencia cero y expulsión del campo magnético) en el marco de la electrodinámica. En líneas generales, su idea fue que en el estado de superconductividad el campo magnético externo es repelido y sus ecuaciones permitieron determinar la longitud de penetración de dicho campo al interior del superconductor, lo que se transformó en una de las propiedades fundamentales de tales materiales.
Durante la Segunda Guerra Mundial se interrumpió el estudio de los superconductores y fue retomado hasta 1950. Los científicos rusos Lev Landau y Vitali Ginzburg presentaron una teoría de transición de fase superconductora en la que utilizaban la termodinámica y al fin la mecánica cuántica, describiendo la superconductividad por medio de la teoría general de las transiciones de fase. Su teoría fenomenológica describía la fase superconductora mediante una función de onda particular y sigue siendo de utilidad hoy día. Landau recibió, por sus aportaciones, el Premio Nobel de Física en 1962.
En 1950 Herbert Fröhlich propuso un análisis unidimensional con enfoque termodinámico, donde la periodicidad y el desplazamiento de la red cristalina desempeñaban un papel fundamental. Este estudio fue el primer intento serio por dar una explicación de lo que ocurre al interior de un superconductor. Se basó en experimentos de la época que ponían de manifiesto que la temperatura de transición se relaciona con la masa de los iones del material (efecto isotópico). La aportación más importante de Fröhlich fue constatar que es posible tener una interacción atractiva de dos electrones si ésta ocurre a través de las vibraciones de la red. Dicha aseveración tuvo implicaciones enormes en la construcción de una teoría de la superconductividad.
Surge una teoría
La primera teoría que explicó la superconductividad fue presentada en 1957 por tres físicos de Estados Unidos: John Bardeen, John Schiffer y Le- on Cooper, la cual es conocida como bcs por las iniciales de los apellidos de sus descubridores, y retoma la idea de Herbert Fröhlich sobre la existencia de pares formados por electrones, responsables de que se lleve a cabo la superconductividad.
Lars Onsager investigó en 1953 el flujo magnético cuando éste pasa por un anillo superconductor y observó que el valor mínimo del flujo saliente concordaba con un valor de dos veces la carga del electrón. Basándose en esta idea, Leon Cooper, quien acababa de obtener su doctorado, se incorporó al grupo de Bardeen en septiembre de 1955 y comenzó a estudiar la interacción electrón-electrón. Se dio cuenta de que, a bajas temperaturas, las vibraciones de la red cristalina obligaban a los electrones a aparearse. Al desplazarse por el sólido, un electrón generalmente deforma la red cristalina, lo que produce una pequeña polarización, que a su vez atrae al otro electrón. Esta atracción forzada les permite sobrepasar los obstáculos responsables de la resistencia eléctrica en un conductor. El apareamiento de los electrones en estado de superconductividad (llamado pares de Cooper) es favorable, ya que es un estado de menor energía, en donde los pares se desplazan de manera más ordenada que los electrones individuales. La distancia máxima de acoplamiento entre los electrones del par de Cooper es llamada longitud de coherencia.
Además, los experimentos sugerían que en los superconductores clásicos hay una brecha de energías electrónicas no permitidas por causa del acoplamiento de los electrones, llamada gap superconductor. En los metales ordinarios, las cargas pueden moverse libremente y se aceleran en presencia de un campo eléctrico. Por debajo de la temperatura crítica, a los pares de electrones de un superconductor les está prohibido, por las leyes de la mecánica cuántica, desplazarse por encima de un cierto valor de velocidad. El gran triunfo de la teoría bcs fue probar que el gap es una consecuencia directa de la formación de los pares de electrones. Es más, fue posible demostrar que todas las propiedades físicas de un superconductor se pueden escribir en función del tamaño del gap. Efectivamente, si se aplica un campo magnético a un superconductor, se necesita que aquel sea bastante grande para que los electrones ganen mucha energía y puedan saltar la zona prohibida, lo que provoca que los pares se rompan y desaparezca la superconductividad. Por estas investigaciones, John Bardeen, Leon Cooper y John Schrieffer recibieron el Premio Nobel de Física en 1972.
Debido a la falta de comunicación entre científicos soviéticos y estadounidenses durante la Guerra fría, Bardeen, Cooper y Schrieffer no tuvieron conocimiento de la teoría de Ginzburg y Landau, por lo que ambas teorías se desarrollaron de manera independiente. Más tarde, Nikolai Bogolyubov y Lev Gor’kov demostraron que la teoría de Ginzburg y Landau se puede deducir de la teoría bcs cerca de la temperatura crítica.
Tipos de superconductores
Los científicos estaban convencidos de que todos los superconductores se regían de la misma manera en presencia de campos magnéticos. Se sabía que la superconductividad desaparece en presencia de campos magnéticos por encima de cierto valor denominado campo crítico y que el valor de éste depende de la temperatura. Así, las muestras se podían encontrar en el estado superconductor o en el estado normal, según los valores de campo magnético y de temperatura. Hoy en día se califica a los materiales que tienen este comportamiento como superconductores de tipo I.
En el mismo año que se propuso la teoría bcs, Alexei Abrikosov predijo la posibilidad de que en algunos superconductores existiera un estado mixto donde el material siguiera siendo superconductor, pero que permitiera el paso a algunas líneas del campo magnético a través de vórtices, es decir que no fuese un diamagneto perfecto. Estos superconductores se denominaron de tipo II. En presencia de una corriente, los vórtices pueden crear una resistencia por lo que el superconductor ya no sería tampoco un conductor perfecto. Abrikosov y Ginzburg ganaron, por tales trabajos, el Premio Nobel de Física en el año 2003.
Se conocen sólo dos clases de superconductores: tipo I y tipo II. Muestras muy puras de plomo, mercurio y estaño son ejemplos de superconductores de tipo I, ya que son materiales muy puros y presentan campos críticos muy bajos que son útiles en las diferentes aplicaciones.
Los superconductores cerámicos de altas temperaturas críticas como YBa2Cu3O7 y Bi2CaSr2Cu2O9 son de tipo II, los cuales poseen dos campos críticos, como lo explicó Abrikosov: por debajo del primero, el superconductor expulsa todas las líneas de campo magnético; para campos externos comprendidos entre ambos campos críticos, las líneas de campo comienzan a penetrar el material; y por encima del segundo, la superconductividad desaparece.
Cuando la muestra se encuentra entre ambos campos críticos, se dice que el material se encuentra en estado mixto, con partes del material en estado normal y partes en estado superconductor; aquí el campo magnético penetra el superconductor en puntos llamados vórtices; los campos magnéticos débiles se repelen y se desplazan conformando un patrón ordenado llamado red de vórtices. Los superconductores de tipo II presentan valores mucho más grandes para el segundo campo crítico, por lo que se pueden utilizar en diferentes aplicaciones.
El estado de superconductividad se define entonces por varios factores muy importantes: temperatura crítica, campos magnéticos críticos y densidad de corriente crítica, longitud de coherencia, longitud de penetración del campo magnético y valor del gap. Cada uno de estos parámetros tiene expresiones matemáticas donde se muestra la dependencia de los otros. La permanencia en el estado superconductor exige que el campo magnético, la densidad de corriente y la temperatura tengan valores por debajo de estos valores críticos.
Propiedades microscópicas
Hasta aquí hemos hablado de las propiedades macroscópicas de los superconductores, que se refieren esencialmente a la ausencia de resistencia y al efecto Meissner. Ahora mencionaremos, como parte de las propiedades microscópicas, el efecto túnel, que es del dominio de la mecánica cuántica y se presenta cuando los electrones atraviesan regiones prohibidas en la física clásica.
En 1960, Ian Giaever, de origen noruego, descubrió el efecto túnel en una unión metal-aislante-superconductor, lo que permitió medir el gap superconductor. En 1962 Josephson descubrió que los pares de Cooper pueden pasar por obra del efecto túnel entre dos superconductores, incluso sin diferencia de potencial entre ellos, dando lugar a la densidad de supercorriente. Las uniones Josephson se utilizan en los voltímetros y magnetómetros más sensibles del mundo, llamados squids, que son la base para los magnetoencefalogramas que registran la actividad del cerebro y permiten el diseño de computadoras más pequeñas y más rápidas. Giaver y Josephson ganaron el Premio Nobel de Física en 1973.
William Little de la Universidad de Stanford, propuso en 1964, la posibilidad de superconductores de baja dimensionalidad, con la idea de “fabricar un camino para los pares de Cooper”, sugiriendo hacerlo en muestras orgánicas. El primero de éstos fue sintetizado con éxito en 1980 por el investigador de origen danés Klaus Bechgaard, de la Universidad de Copenhague, y los franceses Denis Jérome, Alain Mazaud y M. Ribault, del Laboratorio de física de sólidos de la Universidad de París en Orsay. Ellos encontraron que las muestras de (tmtsf)2pf6 son superconductoras a 1.2 K. Su simple existencia planteó la posibilidad de visualizar otras moléculas superconductoras.
Hoy día existe un gran número de materiales que se pueden describir como superconductores orgánicos, entre otras, las sales Bechgaard, las sales Fabre (bedt-ttf) y las k-bedt-ttf2X-bets2X y bedt-ttf (bisetileneditio-tetratiafulvaleno).
La carrera por las altas temperaturas
La historia de la superconductividad podría haberse quedado ahí, con la explicación dada por la teoría bcs, que predecía una temperatura crítica de un máximo del orden de 30 K. Sin embargo, en 1986, dos investigadores del Laboratorio ibm, George Bednorz y Alexander Müller, encontraron evidencia de superconductividad a una temperatura cercana a 35 K: una nueva familia de superconductores acababa de nacer. Siete meses más tarde, Paul Ching-Wu Chu consiguió subir la temperatura crítica por encima del punto de ebullición del nitrógeno en muestras de YBaCuO que presentaban superconductividad a 92 K.
Así vio la luz una nueva generación de superconductores constituidos, entre otros materiales, de cobre y oxígeno: los cupratos. Los compuestos con itrio y titanio sobrepasaron la temperatura del nitrógeno líquido (77 K, es decir, –196 °C). Esto es importante por razones económicas, ya que el nitrógeno líquido cuesta diez veces menos que el helio líquido. El compuesto con titanio alcanzó una temperatura crítica de 125 K.
El descubrimiento de Bednorz y Müller suscitó el entusiasmo de toda la comunidad científica y comenzó la carrera hacia el descubrimiento de nuevos superconductores de alta temperatura crítica; evidentemente, el anhelo es encontrar un superconductor a temperatura ambiente. No obstante, la fabricación de los superconductores, salvo algunas pocas excepciones, es difícil y, conforme aumenta la temperatura crítica de los superconductores, más difícil es fabricarlos, mientras la corriente que circula sin oposición es cada vez más débil. El récord de temperatura crítica reproducible se alcanzó en 1995 en compuestos con talio y fue de 164 K.
Nuevos descubrimientos
En 2001 se encontró que muestras con impurezas de adn presentaban superconductividad y, en agosto del mismo año, un grupo de investigadores de Laboratorios Bell descubrió superconductividad en muestras de polímeros con impurezas metálicas a una temperatura crítica de 4 K.
Siete años más tarde, en 2008 un equipo de científicos japoneses encontró una familia de superconductores, constituidos por capas de hierro y arsénico, con temperatura crítica máxima de 56 K. Aquí lo destacable es la presencia de hierro, ya que no se esperaba que un elemento magnético pudiera estar presente en un compuesto superconductor.
Desde el descubrimiento de la superconductividad a alta temperatura han existido grupos de investigación que afirman haber encontrado superconductividad a temperatura ambiente. Desgraciadamente, estos resultados no han podido repetirse ni ser confirmados, y tanta es la necesidad de encontrar un superconductor a temperatura ambiente que tales intentos han sido bautizado como osnis: Objetos Superconductores No Identificados.
A casi treinta años del descubrimiento de Bednorz y Müller, la superconductividad de los nuevos sistemas es altamente compleja y los mecanismos que la rigen no están totalmente dilucidados. Las temperaturas críticas son ciertamente más elevadas que las predichas por la teoría bcs, sin embargo, la superconductividad de los nuevos compuestos no está descrita de manera satisfactoria por esta teoría. Dado que todavía carecemos de una teoría predictiva y todos los años se descubren materiales con propiedades interesantes que no se explican con la teoría convencional, la superconductividad es un campo vivo con una intensa actividad científica.
La carrera por alcanzar la temperatura crítica más alta menguó debido a la incomprensión de la superconductividad a nivel atómico. De modo que los científicos han orientado sus esfuerzos a la búsqueda de la comprensión de los fenómenos físicos que la rigen. A pesar de estos inconvenientes existen laboratorios en el mundo que no cejan su búsqueda de superconductores a temperatura ambiente.
La superconductividad es un fenómeno cuyo descubrimiento y comprensión se estableció a lo largo del siglo XX, permitiendo durante estos cien años la atribución de por lo menos cuatro Premios Nobel. La comunidad científica cree que el entendimiento cabal del fenómeno se dará en el presente siglo. Además, cuando se encuentre su explicación, las aplicaciones ya no quedarán restringidas al campo de la física de sólidos o de materiales, éstas enriquecerán también otras áreas del conocimiento, desde la astrofísica hasta la física nuclear.
Algunas aplicaciones
Actualmente, las aplicaciones de los superconductores son numerosas. Podemos encontrar superconductores en la fabricación de bobinas de campos intensos, en equipos médicos de imagen, en medición de campos magnéticos o en dispositivos de transporte de corriente. Por ejemplo, en Estados Unidos la compañía Nexans fabricó 610 metros de cable superconductor para remplazar las líneas eléctricas, normalmente hechas de cobre.
Evidentemente el interés tecnológico de los superconductores está a la alza, independientemente de las limitaciones que se quieren contrarrestar. Sin embargo, las pérdidas de corriente están igualmente presentes en la industria eléctrica convencional. Lo ideal sería encontrar superconductores a temperatura ambiente, pero el gran inconveniente sigue siendo la inversión económica, tanto en el desarrollo tecnológico como en los fondos que se requieren para la investigación básica. No obstante, aunque el uso mayor de superconductores requiera bajas temperaturas, se han encontrado numerosas y útiles aplicaciones en medicina, ingeniería y electrónica (ver recuadro).
Para concluir, podemos decir que la historia de la superconductividad muestra tanto el desarrollo de nuevos materiales como las investigaciones que llevan a la comprensión de los fenómenos que los rigen, pero además exhibe la posibilidad de hacer la vida más fácil y a veces más agradable, aunado al placer personal que da el entendimiento.
|
|||||||||||
Referencias Bibliográficas
Alario Franco, Miguel Ángel y José Luis Vicent. 1991. Superconductividad. Eudema Universidad, Madrid.
______. 1998. “Los materiales: de las cerámicas a los superconductores, pasando por los diamantes”, en Horizontes culturales: las fronteras de la ciencia, Real Academia de Ciencias Exactas, Físicas y Naturales. Espasa Calpe, Madrid. Pp. 247-262. Dahl, Per Fridtjof. 1992. Superconductivity. American Institute of Physics, Nueva York. Klein, Jean y Sven Ortoli. 1989. Histoire et légends de la supraconduction. Calman-Lévy, París. Lynton, Ernest A. 1971. Superconductivity. Science Paperbacks, Londres. Mendelssohn, K. 1965. La búsqueda del cero absoluto. Mc-Graw-Hill, Nueva York. Schrieffer, J. R. 1974. “Entrevista con J. Warnow y R. M. Williams”, 26 de septiembre. Tinkham, Michael. 1975. Introduction to Superconductivity. McGraw-Hill, Nueva York. De la red
goo.gl/AM6Q8f
goo.gl/VHLGZR
|
|||||||||||
_____________________________ |
|||||||||||
Andrea L. Aburto E.
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
Andrea Aburto realizó sus estudios de licenciatura y de maestría en la Facultad de Ciencias de la UNAM e hizo su doctorado en la Universidad París Sur en Orsay en el Laboratorio de Física del Estado Sólido. Desde 1998, ha sido profesora de la Facultad de Ciencias. Su área de especialidad es la física de bajas temperaturas y la estructura electrónica de sólidos.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Aburto E., Andrea L. 2015. Superconductividad del hallazgo de Leiden a nuestros días. Ciencias, núm. 117, julio-septiembre, pp. 38-46. [En línea].
|
![]() |
![]() |
|
|||||||||
Víctor Aguirre Hidalgo, Ricardo Clark Tapia,
Raquel Hernández y José Luis López
|
|||||||||||
Aunque heterogénea en principio, en la diversidad social
y cultural se ha tendido a homologar ciertos esquemas que logran facilitar la comunicación entre sociedades, tema importante en la actualidad, dada la facilidad que tenemos para desplazarnos grandes distancias en tiempos cortos. Esta simplicidad de movimiento moderno implica que sea menos común que una sociedad se desarrolle de manera aislada y que por lo tanto sea necesario estandarizar conceptos. Un ejemplo de esto fue la creación del Sistema Internacional de Unidades, generado por iniciativa de la Conferencia General de Pesas y Medidas, la cual encargó al Comité Internacional de Pesas y Medidas el establecimiento de un sistema práctico de unidades que pudiera ser adoptado por todos los países integrantes de la Convención del Metro (integrada, al 1 de enero de 2015, por cincuenta y un países, incluido México). A la fecha las unidades básicas del Sistema Internacional de Unidades son siete: el metro, para cuantificar longitud; el kilogramo para la masa; el segundo, para tiempo; el amperio, para intensidad de corriente; el kelvin para la temperatura termodinámica; el mol para la cantidad de sustancia; y la candela para cuantificar la intensidad luminosa.
La convicción general de que homologando las unidades básicas se evitan problemas de comunicación, se ejemplifica en la manera en que medimos el tiempo.
El tiempo
¿Será cierto que el tiempo es una cosa más bien extraña? Para Platón el tiempo “era una imagen móvil de la eternidad”; mientras que para Aristóteles el tiempo fluye de manera suave y continua. En la actualidad “el tiempo vale oro”. Es tan escurridizo que aún a los poetas les llevó su tiempo encontrar una rima a esta palabra. Basta recordar al mexicano Renato Leduc, quien tuvo que pagar un peso a Adán Santana por no poder tener una cuarteta con la palabra “tiempo” antes de que transcurrieran tres minutos, esto ocasionó que Leduc lo tomara como un reto personal. El desafío no era minúsculo y menos cuando Santana le informó, en son de burla, que la palabra tiempo no tiene consonante, que no hay palabra que rime con tiempo, que adolece de inconsonancia. El resultado del encuentro entre ambos poetas trajo como consecuencia el nacimiento del soneto Tiempo: “sabía virtud de conocer el tiempo; a tiempo amar y desatarse a tiempo [...]”. Renato no cuenta si Adán le regresó el peso, pero es fácil imaginar que eso no ocurrió pues deuda de juego es deuda de honor. Como resultado final tenemos a un Renato un peso más pobre y la palabra tiempo con un verso al fin. Otras personalidades han tenido éxito al meter la palabra tiempo es sus composiciones, por ejemplo Mi querido viejo de Piero “...yo soy tu sangre, mi viejo, soy tu silencio y tu tiempo […] el dolor lo lleva adentro y tiene historia sin tiempo”. El tiempo representa cada instante vivido y el por vivir.
Si nosotros hubiéramos estado en los zapatos de Renato Leduc seguramente sólo nos hubiéramos quedado en la parte de buscar la definición de tiempo. Esta palabra proviene del latín tempus, que se utiliza para nombrar la duración de algo que está sucediendo (o algo que está cambiando), como si esta duración se estuviera extendiendo desde el momento que existe un estado inicial al momento que ocurre un estado final. Esta palabra es muy útil para saber cuánto dura algo que es susceptible de cambio, ya que tiene asociada una magnitud y por lo tanto es posible medir, por ejemplo, con un cronómetro, o se puede explicar como la secuencia de un acontecimiento que se repite constantemente.
En la misma etimología de la palabra se observa su característica dinámica, implicando que algo está cambiando o algo está sucediendo; y así lo sentimos cotidianamente, pues al encontrar a un viejo amigo podemos decir: “pero si estas igualito, parece que los años no pasan por ti” o al regresar a un lugar querido: “no ha cambiado nada, es como si el tiempo se hubiera detenido”. Es interesante notar que siempre hay algo que está ocurriendo y eso es, como indicamos al principio, nuestra propia concepción. Así que siempre podemos percibir el paso del tiempo; sin embargo, sobre la duración del mismo, no podemos confiar sólo en cómo lo percibimos, pues una visita al dentista puede sentirse eterna y una tarde de fiesta ser muy breve. A esto se le denomina tiempo psicológico y su percepción depende de eventos internos y externos. Entre los internos se encuentran los ciclos temporales en los procesos químicos y hormonales que ocurren en el cerebro y cerebelo, los cuales se expresan en las sensaciones de hambre, sueño, cansancio o ansiedad y sus opuestos. Entre los externos se encuentran, principalmente, los ciclos de luz y oscuridad, así como otras variaciones en el ambiente. Estos dos tipos de sucesos psicológicos pueden también estar sincronizados entre sí, como el sueño y la oscuridad. La definición que mostramos previamente ayuda a entender el concepto de tiempo, pero algo muy diferente es como lo han estimado las sociedades humanas.
Sobre la medición
Seguramente las primeras formas de medir el tiempo fueron a partir de las variaciones externas como, por ejemplo, el tiempo transcurrido entre el día y la noche, el tiempo que sigue el ciclo de las fases de la Luna, la periodicidad de las estaciones en la naturaleza y el movimiento de las estrellas, incluyendo el Sol. Esta presencia cíclica fue la base para la generación de los calendarios. Un calendario es una teoría astronómica simplificada que nos permite realizar una medida cronológica del tiempo, o sea, ubicar en una escala temporal un evento. No es extraño, por lo tanto, que los primeros calendarios hayan estado organizados a partir de las fases de la Luna. Cabe mencionar que el ciclo lunar completo dura alrededor de 29.53 días, muy cercano al promedio de otro ciclo: el menstrual, cuya duración oscila ampliamente alrededor de 28.9 días. La facilidad de observación, aunada a esta coincidencia, al parecer favoreció la predilección religiosa y cultural por dichos calendarios. Hay indicios de este tipo de registros en restos de hace 35 000 años, como el hueso de Lebombo y sus veintinueve marcas. Aun en nuestros días, una porción significativa de la población humana rige su vida por calendarios basados en cierta medida en las fases de la Luna; de esta manera los agricultores saben, por la experiencia adquirida, cuándo es mejor iniciar el cultivo de las hortalizas y en qué momento las frutas están lo suficientemente maduras para ser cortadas; también conocen en qué periodo los árboles pierden sus hojas y cuándo los días son más cortos. Sin embargo, conforme las sociedades más se han interrelacionado, ha sido necesario tener una forma más precisa de estimar el tiempo.
El tiempo y los ciclos naturales poco a poco fueron incorporados a las actividades humanas y gradualmente fue factible cuantificarlos. En el antiguo Egipto, la forma que adoptaron para estimar el tiempo fue a partir de la utilización de la sombra que genera un cuerpo (gnomon) en diferentes momentos del día, es decir los constructores de los relojes de sol necesitaban tener un amplio conocimiento sobre el movimiento cíclico del astro rey. La idea es particularmente sencilla de entender ahora, pero en ese periodo hubo que relacionar dos conceptos importantes: tiempo y distancia. Es decir, tenían que medir la distancia de la sombra generada por el gnomon en cada momento del día. Para mantener el conteo del tiempo durante la noche observaban el movimiento de grupos de estrellas.
Otro concepto importante que tuvieron que resolver fue especificar cuáles unidades usar para definir a qué momento se está haciendo referencia en un periodo de tiempo específico. Con el conocimiento del movimiento solar a lo largo del año, los antiguos egipcios decidieron que un año tendría 365 días divididos en 12 meses cada uno de ellos con una duración de 30 días, más 5 días al final del año. En la actualidad, la convención es que la unidad principal de tiempo sea el segundo, la agrupación de 60 segundos genera 1 minuto, 60 minutos son igual a 1 hora y el día se divide en 24 horas.
El tiempo ha sido un concepto que se ha convertido en parte integral de nuestra vida cotidiana, por lo que contar actualmente con una manera homogénea para determinar el tiempo nos permite concertar momentos de reunión sin tener que determinar las unidades de medida a las que nos estamos refiriendo en cualquier parte de este mundo moderno. Esta idea es tan importante que define muchas de las actividades diarias que hacemos. Por ejemplo, nuestra entrada a laborar en la universidad es a las nueve horas, la hora que los estudiantes tienen clases con nosotros es a las diez; si por alguna causa no llegamos a trabajar a tiempo, se genera un descuento en nuestro pago (proporcional a las horas no trabajadas). Para que este sistema funcione todos manejamos el mismo patrón temporal y usamos la misma herramienta que nos permite saber la hora: el reloj; si funciona bien este aparato todos podemos llegar a tiempo, si llegamos tarde pues... ¡siempre se le puede echar la culpa al reloj! Este instrumento nos permite conocer y compartir un patrón temporal sin depender de las observaciones astronómicas o ambientales.
A diferencia de la homogeneidad para medir el tiempo, hay una amplia heterogeneidad en relación a cómo funcionan estos instrumentos y ni siquiera es posible proponer con certeza la fecha en que se creó el primer reloj. Se sabe que ya había relojes mecánicos en Europa a finales del siglo xiii. El nombre de estos instrumentos era orologio, consistía de muelles en espiral que se iban desenrollando, los intervalos más comunes eran 24, 6 o 12 horas, siendo este último el que ha perdurado en nuestros días. En un principio el orologio no tenía ningún tipo de patrón de numeración (se le añadieron posteriormente) y por su sistema mecánico tenía grandes desventajas, ya que tendía a atrasarse o adelantarse en un orden de 15 minutos por día (para nuestro actual estilo de vida sería un problema enorme).
Con el paso del tiempo se ha logrado tener relojes (con un precio accesible para la mayoría de la gente) con muy buena exactitud y precisión, es decir, avanzan de manera uniforme y dan la misma hora en el mismo momento. Hay relojes que tienen un error de 1 segundo cada 138 millones de años. Para lograr este tipo de exactitud ya no se usa la rotación de la Tierra para estimar la duración de un segundo, ahora se usa la frecuencia de las oscilaciones emitidas por el átomo de cesio al pasar de un nivel energético a otro. Mejor aún, es posible poseer un reloj que se ajusta automáticamente a cada una de las zonas horarias del planeta y ni siquiera nos tenemos que preocupar cuando se tiene que adelantar o atrasar una hora por la entrada del horario de verano u horario de invierno.
Diremos que la medida cronológica del tiempo es útil para definir la ocurrencia de un evento en un instante específico. Por ejemplo el momento en que decidimos comenzar a escribir este artículo, el segundo en que naciste o el instante en que te levantaste de la cama el día de hoy.
Por otro lado, la medida cronométrica se utiliza para cuantificar el intervalo entre dos eventos como, por ejemplo, el lapso (segundos) transcurrido para que las alas de una abeja batan una vez es de 0.005 segundos, el lapso que requirió el Apolo VIII para cubrir una milla en su viaje a la Luna fue de 0.15 segundos. Un ejemplo de un lapso más amplio es el partido de tenis en el que se enfrentaron el francés Nicolas Mahut y el estadounidense John Isner, duró 11 horas y 0.5 minutos. Si tomamos en cuenta lapsos anuales les mencionaremos que Plutón requiere 248.5 años para completar una órbita alrededor del Sol. En todos los ejemplos de medidas cronométricas se necesita usar una medida de tiempo uniforme, bien definido y que se mantenga constante durante el lapso registrado. El concepto cronométrico es también el que se usa para estimar el intervalo que ha transcurrido desde que la Tierra se formó hasta nuestros días, es decir, es el usado para estimar su edad.
La antigüedad de la Tierra
Si nos preguntan por nuestra edad es fácil responder, sólo hay que recordar la fecha en que nuestros padres nos dijeron que nacimos o bien ver nuestra acta de nacimiento en la cual está plasmada incluso la hora en que llegamos al mundo. Otra cosa diferente es responder ¿cuál es la edad de la Tierra? A diferencia del acta que nos da el registro civil, no hay ningún departamento de registro terrestre, así que el ser humano ha tenido que hacer gala del ingenio para poder determinar la edad del planeta en el que vivimos. La forma como se ha abordado esta pregunta es toda una odisea, pues se ha intentado resolver en diferentes épocas desde diferentes perspectivas y ha estado también muy ligada al desarrollo de la ciencia.
Las primeras estimaciones de la edad de la Tierra fueron realizadas a partir de los lapsos de tiempo marcados en la Biblia. Basándose en estas escrituras, Zoroaster (o Zarathustra), en el siglo vi, estimó que la Tierra tenía 12 000 años. Zoroaster no fue el único en utilizar las escrituras bíblicas con este fin; en el siglo xvii, James Ussher determinó que la Tierra se formó en el año 4004 a. C., estimación aceptada tanto en círculos religiosos como científicos de la época, dando así a la Tierra un tiempo muy corto de vida. Si uno desecha las escrituras bíblicas como referente para datar la Tierra, ¿qué se puede usar?
Fue después de las propuestas de James Hutton y Charles Lyell, hasta el siglo xix, cuando se comenzó a trazar la edad de la Tierra a partir de leyes físicas, vislumbrando nuestro planeta como un ente en constante cambio, en donde el tiempo presente es la llave para el entendimiento del tiempo pasado. Con el trabajo de 1859 de Darwin, la estimación de la edad absoluta de la Tierra tuvo mayor interés. En 1867, utilizando registros fósiles, Lyell supuso que se requerían veinte millones de años para un recambio de las especies de moluscos, estimando doce recambios para el comienzo del período Ordovícico, cuya duración calculó en 240 millones de años. Esta medición tuvo un problema similar a las que tienen las propuestas generadas a partir de las escrituras: para ese momento era inverificable.
De ese momento hasta ahora ha habido varias estimaciones de la edad de la Tierra, pero todas pueden englobarse en cuatro tipos: 1) a partir de la velocidad de erosión de las rocas y su correspondiente relación con el aumento en la salinidad de los océanos al paso del tiempo; 2) la velocidad con que se van acumulando los sedimentos producto de la erosión de las rocas; 3) a partir de la edad del Sol y la tasa de enfriamiento de la Tierra; y 4) la desintegración radiactiva de elementos químicos.
Como mencionamos previamente, para la estimación de la edad de la Tierra se requiere cuantificar el lapso que ha trascurrido entre el momento en que nuestro planeta comenzó a existir hasta el momento en que nos encontramos actualmente. El mejor método será aquel que genere el resultado con mayor exactitud y precisión; de los cuatro métodos antes dichos, el que mayor precisión tiene es el de la desintegración radiactiva. La ventaja de estandarizar el método de estimación a nivel de moléculas atómicas es su incambiable constancia en los patrones universales que siguen, sin que se vean afectados por eventos naturales o por “el paso del tiempo”. Para cada elemento, el periodo de tiempo necesario del decaimiento radiactivo es característico.
Estudios de radiactividad
Para poder estimar la edad de la Tierra fueron necesarios los hallazgos hechos por Wilhelm Conrad Röntgen, quien descubrió los rayos X y fue galardonado con el Premio Nobel en 1901; los esposos Curie (Marie y Pierre), junto con Henry Becquerel, también ganaron el Premio Nobel en 1903 por el descubrimiento de la radiación espontánea; y Ernest Rutherford, quien halló que la radiactividad iba acompañada por una desintegración de los elementos y que la tasa a la que ocurre esta transformación parece no estar afectada por condiciones de presión o temperatura, ni por otros procesos químicos.
Todos estos trabajos en conjunto condujeron a muchos físicos a realizar investigaciones sobre radiactividad, que es el proceso de la transmutación de un isotopo radiactivo de alta energía a un isotopo inerte de baja energía (que puede ser el mismo elemento químico o uno diferente). Por ejemplo, el uranio tiende a transformarse en torio y radio en varias etapas e isotopos y, finalmente, en plomo, que es el producto estable final de la descomposición del uranio.
Después de los trabajos de Becquerel, los elementos radiactivos descubiertos fueron torio, rubidio, bismuto, polonio y uranio, entre otros. La cereza del pastel llegó al determinar que la velocidad de esta transformación es constante en cualquier circunstancia e independiente de las condiciones físicas y químicas presentes durante el proceso, lo cual llevó a proponer el uso de estos elementos para estimar lapsos de tiempo (edad radiométrica). Para que la estimación funcione, se deben cumplir dos supuestos: 1) que no se agreguen o eliminen átomos padre o hijo por otro medio diferente al proceso de desintegración radiactiva y 2) que ningún átomo hijo esté presente en el sistema cuando éste se formó o que se conozca la proporción existente. Generalmente se estudian diferentes elementos radiactivos que presentan cadenas de transformación diferente, las cuales convergen a una datación promedio, dependiendo de en qué medida se cumplan los supuestos 1) y 2).
El área de estudio dedicada a estimar periodos específicos a partir de muestras geológicas se llama geocronometría y existe más de un isótopo a elegir para medir el decaimiento. ¿Cuál es el más utilizado para estimar la edad de la Tierra? El que se usa corrientemente es el isótopo de uranio-plomo (involucrando las proporciones de tres isotopos diferentes: Pb 204, 206 y 207, y se llama datación Pb-Pb a la comparación entre las proporciones de los tres isotopos) y argón 40-argón 39. Utilizando ambos métodos se logra tener estimaciones con una incertidumbre de aproximadamente 2%. Estos análisis permitieron determinar que la Tierra sólo es tan antigua como 4 566 ± 2 millones de años.
Es muy probable que ya se imaginen que las rocas son el sistema que se usa para estimar los lapsos de tiempo. Ahora bien, si se to-ma la proporción de isótopos padre-hijo de las rocas se tendrá solamente la edad en que se separaron de la capa madre de la Tierra. El truco que ha permitido mayor exactitud es medir esta proporción de isótopos en los meteoritos que caen en la Tierra y comparar la proporción isotópica entre las rocas terrestres y la de la materia del espacio que entra a la atmósfera. En los meteoritos el supuesto 1) se cumple de manera más rigurosa, lo que permite conocer mejor el supuesto 2). Siguiendo este método se está estimando la edad en que se formaron los materiales que conforman el Sistema solar.
A estas alturas de la lectura es también muy probable que se pregunten si cualquier tipo de roca o mineral sirve para este tipo de estimación, la respuesta es: ¡no! La roca o mineral tiene que ser lo más resistente posible a la erosión. Los cristales de circón del oeste de Australia han sido un buen material, con ellos se estimó una edad de 4 408 ± 8 millones de años. ¿Será ésta la forma más precisa de estimar la edad de la Tierra?, es decir, ¿podremos lograr tener una precisión menor a los millones de años? Por el momento, no; pero esta respuesta sólo se aplica al momento cronológico en que escribimos este párrafo, esto puede cambiar en cualquier otro momento; eso es lo bello de vivir y saber que todo es cambiante.
|
|||||||||||
Referencias Bibliográficas
Cohen, Martin. 2013. Filosofía para Dummies. Grupo Planeta, Barcelona.
Gratzer, Walter. 2002. Eurekas and Euphorias: the Oxford Book of Scientific Anecdotes. Oxford University Press, Reino Unido. Knell, Simon J. y Cherry L. Lewis. 2001. “Celebrating the age of the Earth”, en Geological Society, Special Publications, vol. 190, pp.1-14. Montes de Oca, María del Pilar (ed.). 2008. El libro de los datos inútiles. Libros, lectores y servicios, México. Vargas Hernández, Karina. 2008. Diversidad cultural: Revisión de conceptos y estrategias. Departament de cultura i Mitjans de Comunicació, Cataluña. |
|||||||||||
_____________________________ |
|||||||||||
Victor Aguirre Hidalgo
Instituto de Estudios Ambientales,
Universidad de la Sierra Juárez, Oaxaca.
Es profesor-investigador en la Universidad de la Sierra Juárez (UNSIJ) en Oaxaca, México. Obtuvo su doctorado en la Universidad de Plymouth, en Reino Unido. Se ha enfocado en estudiar la distribución y abundancia de especies nativas y el efecto que tienen las especies invasoras en los ecosistemas. En la UNSIJ ha dado diversos cursos de licenciatura y posgrado.
Ricardo Clark Tapia
Instituto de Estudios Ambientales,
Universidad de la Sierra Juárez, Oaxaca.
Es profesor-investigador en la Universidad de la Sierra Juárez (UNSIJ) en Oaxaca, México. Obtuvo su doctorado en la UNAM. Ha impartido cursos de ecología, climatología, restauración ecológica, ecología del paisaje, manejo de cuencas hidrográficas. Su principal investigación es la dinámica poblacional. Está interesado en aspectos de conservación y manejo de los recursos forestales.
Raquel Hernández Meneses
Escuela Nacional Preparatoria-Plantel 8,
Universidad Nacional Autónoma de México.
Es matemática por la Facultad de Ciencias de la UNAM, realizó estudios de maestría en matemática educativa en el CINVESTAV del IPN. Desde hace más de quince años ha impartido cursos en la Escuela Nacional Preparatoria de la UNAM y ha participado en eventos sobre la divulgación de las matemáticas.
José Luis López López
Departamento de Matemática Educativa,
CINVESTAV, Instituto Politécnico Nacional.
Estudió una maestría en física, especializándose en física del estado sólido en la Escuela Superior de Física y Matemáticas del IPN y colaboró varios años con el grupo de investigación en superconductores de dicha escuela. Actualmente trabaja como auxiliar de investigación en el Departamento de Matemática Educativa del CINVESTAV. Es un apasionado del tango.
|
|||||||||||
_____________________________ | |||||||||||
cómo citar este artículo →
Aguirre Hidalgo, Víctor; Clark Tapia, Ricardo; Hernández, Raquel y López, José Luis. 2015. Un breve momento al tiempo, explorando la edad de la Tierra. Ciencias, núm. 117, julio-septiembre, pp. 30-36. [En línea].
|