![]() |
||||
del tintero |
||||
Notas sueltas. Reflexiones sobre ciencia |
|
|||
Tomás Segovia
conoce más del autor |
||||
HTML ↓ | ← Regresar al índice ⁄ artículo siguiente → | |||
El hombre moderno sigue haciendo la mímica de la participación en el mundo, ahora ya sin contenido. La técnica, con sus impresionantes logros, ha proporcionado el modelo de esa vida, y es la mímica del trabajo, produce los mismos efectos, aumentadísismos, sin tener su contenido. La fascinación de esa eficacia era inevitable. Todo el mundo piensa en la “magia” ante los logros de la técnica; pero ¿qué magia es ésa? Porque todo el mundo sabe al mismo tiempo que no hay nada mágico detrás de los aparatos. “Ce n’est pas sorcier”, como dicen los franceses. De la magia sólo nos ha quedado el aspecto negativo: la impenetrabilidad, el escape a nuestro control. El que aprieta el botón de un aparato de radio, ignorando en absoluto cómo funciona eso (cosa que por lo demás la propia ciencia ignora) y sin poder creer al mismo tiempo que un “espíritu” lo produce, está viviendo una mímica sin contenido.
* * *
El romanticismo es una toma de conciencia radical del misterio del significar y por tanto del misterio de la verdad. Este misterio se puede expresar incluso en los términos más chatos de la lógica formal-pragmática. En esos términos la verdad tiene dos naturalezas, puesto que hay dos modos de verificar: por un lado un juicio se verifica cotejándolo con las reglas sintácticas de la lógica misma (las “tablas de verificación”); por otro se verifica cotejándolo con un “estado de cosas” exterior. Pero resulta que las reglas sintácticas son ellas mismas inverificables (sería un círculo vicioso), y lo mismo sucede con el “estado de hecho”, incluso más aún que con las reglas sintácticas, porque esa verificación implica que sepamos ya, de alguna otra manera que no sea lógica y por lo tanto inverificable, o sea que sepamos fuera de la verdad cuál es el estado de cosas; e implica también unas reglas de cotejo que serán tan inverificables sin círculo vicioso como las reglas sintácticas.
La Verdad es pues triplemente misteriosa para la lógica formal: porque es misterioso el origen de las reglas sintácticas que “verifican” la verdad: porque es misterioso el origen del cotejo que “verifica” el juicio verdadero, y porque es misteriosa esa “verdad” fuera de la Verdad que es el conocimiento del “estado de cosas” (o más bien, saliéndonos de ese formalismo, su sentido).
* * *
Me parece claro que una actitud (y no una filosofía o una teoría o una ideología) verdaderamente relativista e indeterminista, una mentalidad que dejara de estar obsesionada por el sueño de conocerlo todo, explicarlo todo, explorarlo todo, dominarlo y controlarlo todo, sería una novedad histórica radical, una “revolución” en el sentido en que lo fueron la Revolución Industrial, la Revolución Neolítica, o todavía mejor la Revolución Romántica. Una civilización que viviera de veras lo que he llamado el principio de incertidumbre del sentido, no como teoría, sino como estilo histórico y actitud espontánea, como respeto y amor a la oscuridad de todo origen, respetaría y amaría también las zonas oscuras del conocimiento del mundo y de la historia. Y el verdadero respeto de lo oscuro, que no consiste en blandirlo para demoler la claridad del contrario o la claridad en general, sino en saber dónde está el límite de la certidumbre, empezando por la propia, y respetar ese límite (o sea la regla universal que tanto he repetido y que prescribe: “No inventarás”); ese verdadero respeto es el summum de la tolerancia, una tolerancia llevada tan lejos que sin duda habría que darle otro nombre.
![]() |
||||
Tomás Segovia
Poeta y escritor. Premio Octavio Paz de Poesía 2001.
_______________________________________________________________
como citar este artículo → Segovia, Tomás. (2002). Notas sueltas. Reflexiones sobre ciencia. Ciencias 66, abril-junio, 99. [En línea]
|
||||
Cultivos y alimentos transgénicos
|
![]() |
|
Jorge Riechmann
Argumentos recombinantes sobre cultivos y
alimentos transgénicos.
Fundación Primero de Mayo, Madrid.
Los Libros de la Catarata, 1999.
|
||
HTML ↓ | ← Regresar al índice |
|
Este libro, editado por las Comisiones Obreras de España, es más que un manifiesto de este sindicato. Se trata de una reflexión en torno a las biotecnologías, en la que se hace especial énfasis en el caso de los cultivos y los alimentos transgénicos. Dos temas centrales, el riesgo y la democracia, guían el texto y están íntimamente ligados a la convicción del autor de que las decisiones en torno a la manipulación genética deben estar guiadas por una crítica diferenciada, según las aplicaciones que se le den a cada una de las nuevas tecnologías, y que debe existir la posibilidad de un control social mucho más severo al que se ha tenido hasta ahora.
Uno de los principales objetivos de esta obra es darle a los lectores inexpertos, argumentos a partir de los cuales puedan formarse una opinión acerca de los organismos genéticamente modificados en el ámbito de la agricultura. Se trata de una exposición clara de los riesgos asociados al cultivo y al consumo de las plantas transgénicas, sobre todo en el ámbito de la ecología y de la salud pública, y también se discuten las posibles implicaciones político-económicas; como la oligopolización de la agricultura y el desplazamiento de la agricultura de subsistencia, entre otros.
El otro objetivo del libro es ampliar el debate en torno a los cultivos y alimentos transgénicos, y reflexionar acerca de los mecanismos de adopción de las biotecnologías en general. Para el autor la evaluación y la toma de decisiones corresponde a la sociedad en general, ya que la introducción de las nuevas tecnologías le afecta directamente, y porque los mecanismos existentes actualmente no han podido contrarrestar el poder de la industria. Aquí, el ejemplo de la aceptación de la comercialización del maíz transgénico por la Comisión Europea resulta muy ilustrativo. En 1997 la Comisión Europea aprobó la comercialización de maíz transgénico contra la opinión de trece de quince de los países miembros. A pesar de las quejas del Parlamento Europeo por la toma de decisiones hecha de manera unilateral, sin respeto por las posiciones negativas de la mayoría de los estados miembros y del Parlamento Europeo, la Comisión Europea anunció que no daría marcha atrás en su decisión. Para contrarrestar esos abusos de poder, el autor analiza distintas herramientas de participación democrática como los son los referendos, el veto mayoritario por iniciativa popular, los comités ciudadanos y las conferencias de consenso.
Para el autor un elemento indispensable para la toma de decisiones de manera democrática es el tiempo; para evaluar todas las implicaciones que se desprenden de una tecnología, y para poder decidir. En ese sentido, el autor aboga por el principio de precaución y por una moratoria. Es necesario que antes de que se acepte una tecnología se realicen estudios que permitan demostrar su inocuidad o su necesidad a largo plazo. El tiempo de evaluación y de reflexión es una condición fundamental para la apropiación de la tecnociencia por parte de la sociedad.
Este libro proporciona al lector argumentos sobre los cultivos y los alimentos transgénicos para que cada ciudadano pueda participar en la reflexión que se lleva a cabo en torno a ellos, y provee alternativas frente a la resignación de un futuro diseñado y dominado por los intereses de las grandes transnacionales.
En el caso de México nos parece importante destacar dos aspectos con relación a los riesgos esbozados por el autor. El primero es la transferencia de genes de las variedades transgénicas cultivadas a las variedades silvestres.
El segundo aspecto concierne al modelo agrícola que se quiera implantar en el país, donde una gran parte de la agricultura es de subsistencia. El modelo que subyace al de los organismos genéticamente modificados se parece y adolece de los mismos grandes defectos que el de la “revolución verde”, cuyos efectos ecológicos, pero primordialmente socio-económicos, han sido ampliamente criticados.
Este tipo de cultivos necesita una agricultura de altos insumos y grandes extensiones de tierra industrializadas. Hasta ahora no se han creado semillas capaces de crecer en suelos pobres o salinizados, o cultivos con más proteínas y nutrientes que no necesiten de un uso generalizado de fertilizantes, herbicidas, etcétera, ni tampoco cultivos dirigidos a los agricultores de subsistencia.
![]() |
||
Nina Hinke
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Hinke, Nina. (2002). Cultivos y alimentos transgénicos. Ciencias 66, abril-junio, 118-119. [En línea]
|
||
|
← Regresar al índice |
![]() |
![]() |
||
|
|||
Redescubriendo a Alexander von Humboldt
|
|||
Exequiel Ezcurra
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Como ciencia, la teoría ecológica es producto de una larga y colorida historia, forjada a lo largo de siglos con el trabajo laborioso de naturalistas en el campo, en las selvas y en los desiertos. Es una historia larga, llena de hitos maravillosos y sobrecogedores. En el trabajo de expedicionarios excéntricos, naturalistas hoscos y antisociales, observadores obsesivos, y colectores compulsivos, yacen los orígenes y fundamentos de las teorías científicas que hoy rigen la protección de nuestros recursos naturales. Entender esta historia y honrar su legado, es una deuda con los singulares personajes que construyeron el camino de la ciencia a la que hoy llamamos ecología.
Uno de los muchos comienzos de esta historia ocurrió en 1798, cuando dos jóvenes científicos, de escasos 25 y 27 años, recorrían los prostíbulos y los bares de París en busca de algún contacto con oficiales del ejército napoleónico, que les permitiera colarse a las filas de la expedición imperial a Egipto. La nacionalidad alemana del primero —un tímido geólogo de minas— y el carácter festivo y mujeriego del segundo —un médico con radicales tendencias socialistas— les impidieron lograr su objetivo; el adusto ejército del Emperador no fue capaz de aceptar a personajes tan singulares. Sin embargo, en su búsqueda, nuestros protagonistas conocieron a un apasionado adolescente de 16 años, que era asiduo visitante de las casas de citas, lleno de pláticas encendidas y fervorosas, quien les describió con entusiasmo las riquezas naturales de su país, la Nueva Granada, hoy Venezuela. Así, ambos científicos, cuyos nombres eran Alexander von Humboldt y Aimé Bonpland, partieron para la tierra del joven estudiante, que se llamaba Simón Bolívar. En sus periplos por la América colonial llegaron finalmente a México, entonces eje cultural de la América española.
Así, nació el Ensayo político sobre el Reino de la Nueva España y el Viaje a las regiones equinocciales, el primero era una especie de versión decimoctávica de un informe de país —infinitamente más perceptivo que los aburridos reportes que hacen los expertos del Banco Mundial— y el segundo era un intento de lo que ahora llamaríamos una base de datos florísticos y un modelo ecológico de la América tropical. En estos ensayos se plantearon, por primera vez, algunos de los nuevos paradigmas de las ciencias del ambiente global. Éstos tardaron dos siglos en consolidarse, y se fueron apropiando lentamente de nuestra percepción de la realidad. Hoy, muchas de las ideas de Humboldt, acerca de cómo funciona nuestro planeta, son parte del conjunto de disciplinas de lo que llamamos “ecología global”, y forman parte del discurso cotidiano. Su genialidad radica en que fue capaz de intuir estas teorías sólo a partir de la observación descriptiva de la naturaleza, y de sus conversaciones con brillantes colegas de la América colonial.
“Un celo que distingue a México”
Humboldt y Bonpland nunca llegaron a conocer a un excéntrico naturalista mexicano —aunque sí lo leyeron con gran interés—, nacido en 1737 en Ozumba y fallecido en 1799, mientras ellos exploraban el Orinoco. Médico de formación, sacerdote, y erudito en mil temas, este naturalista graduado de la Real y Pontificia Universidad de México —hoy nuestra querida unam— investigó el movimiento de los planetas; hizo el primer mapa detallado de América del Norte, fue ardiente defensor de los pueblos indígenas; habló de la necesidad de controlar las inundaciones en la Cuenca de México, protegiendo su área lacustre; escribió una larga y curiosa memoria en favor del uso medicinal de las semillas de mariguana o pipiltzintzintlis; estudió el nopal y la grana cochinilla; elaboró preciosas ilustraciones científicas, que, hasta el día de hoy, son un testimonio de incalculable valor, y teorizó sobre la importancia de las plantas nativas —despreciadas en ese entonces por los criollos— como valiosos alimentos. Es una pena que no pudieran encontrarse, porque el carácter enciclopedista y la insaciable curiosidad de José Antonio de Alzate (ese era su nombre) habría impresionado mucho a los exploradores europeos. De cualquier manera, las ideas y los textos de Alzate fueron para ellos de gran importancia.
En cambio, el que sí pudo entrevistarse con Humboldt y Bonpland fue José Mariano Mociño, contemporáneo de Alzate, médico y botánico por la Universidad de México, quien pocos años antes había encabezado junto con el español Martín de Sessé —fundador de la cátedra de botánica en la misma universidad—, una serie de expediciones científicas desde Nicaragua hasta el Canadá. Éstas fueron financiadas por la Corona española y representaron un esfuerzo algo tardío —después de tres siglos de saqueo— por entender y describir la inmensa riqueza natural de la Nueva España. Sin embargo, la decadencia del imperio español a principios del siglo xix y la independencia de México pulverizaron cualquier expectativa de utilizar esos recursos botánicos y el conocimiento desarrollado en estas expediciones en beneficio de la metrópoli europea.
Pero Sessé y Mociño no habían sido los primeros; unos doscientos cincuenta años antes, a principios de la Colonia, la Corona había financiado trabajos similares antes de que la codicia por el oro y la plata, así como la Inquisición, hiciera desaparecer las prioridades más académicas. En 1552 dos indígenas, el médico Martín de la Cruz y el traductor Juan Badiano, habían publicado una luminosa obra describiendo las plantas medicinales autóctonas de México. El Códice de la Cruz-Badiano se escribió en náhuatl y latín, ya que eran fieles seguidores de la tradición de los códices prehispánicos, es decir, de su propia y rica tradición indígena. Pronto les siguieron muchos otros brillantes trabajos; en 1559 el fraile franciscano Bernardino Sahagún produjo una de las más grandes obras etnográficas del inicio de la Colonia, en la que describió con detalle importantes aspectos de la historia natural de México. En 1571, por órdenes del rey Felipe II, se inició la expedición de Francisco Hernández, con el objetivo de describir la historia natural de la Nueva España, y estudiar la medicina herbolaria indígena. La obra de Hernández aunque fue destruida en gran parte en el incendio de la biblioteca del Escorial en 1671, es un texto fundamental sobre la riqueza natural de México.
La fascinación por la naturaleza que mostraron Badiano, de la Cruz, Hernández, Mociño y Alzate forma parte de una tradición antigua en México, la cual fue reconocida con admiración y respeto por Humboldt, quien la describió como “el celo por las ciencias naturales en que con tanto honor se distingue México”. La síntesis de conocimientos teóricos que forman el cuerpo del Ensayo político y del Viaje a las regiones equinocciales se debe, en gran medida, a las discusiones con colegas mexicanos y a la lectura de trabajos que hizo Humboldt en la Nueva España. La investigación biológica de campo, y la descripción sistemática de la naturaleza son parte de esa admirable tradición intelectual, de ese “celo” mexicano, que tanto admiraba Alexander von Humboldt y que tanto contribuyó a su obra.
El rompecabezas planetario
Su mérito fundamental no radicó solamente en su capacidad para leer, entender y admirar el trabajo de sus colegas. Como muy pocos naturalistas de su época, llegó a comprender y deducir complejos fenómenos de la naturaleza, basado simplemente en sus observaciones. Es asombrosa la capacidad que tuvo para inferir, sin experimentar, el funcionamiento de complejos mecanismos naturales a partir de observaciones meramente descriptivas y basado tan sólo en sus experiencias como viajero y explorador. Humboldt pudo adelantarse a la aventura del descubrimiento científico, solamente con un libro de notas y sencillos instrumentos de navegación. Así recorrió la América tropical, armando con paciencia las piezas del rompecabezas planetario, e intuyendo fenómenos que hemos alcanzado a entender bien dos siglos más tarde.
Una de las preguntas científicas más relevantes que se hizo, fue acerca de las causas de la riqueza y la variación biológica sobre la Tierra. Esta pregunta fundamental corresponde al campo general de lo que en la actualidad llamamos “diversidad biológica”. En la época en que escribió el Viaje a las regiones equinocciales, que contiene el visionario Ensayo sobre la geografía de las plantas, no se conocía aún la teoría de la evolución ni la historia geológica y climática del planeta.
Medio siglo antes de Darwin, Humboldt esbozó algunas ideas que se vinculan con los conocimientos más modernos sobre la evolución biológica y geológica del planeta. En todos los casos sus esbozos fueron planteados como reflexiones sin mayor trascendencia. Sin embargo, muchas de estas ideas estaban anticipando grandes revoluciones científicas, que ocurrirían uno o dos siglos más tarde. Curiosamente, Humboldt tuvo la capacidad de anticipar las ideas de varios notables precursores de la ciencia, investigadores desconocidos en su momento que no fueron reconocidos, sino hasta después de su propia muerte.
Agassiz, el enamorado del hielo
En 1807, el mismo año en que Humboldt publicaba su Ensayo sobre la geografía de las plantas, nacía en Suiza Louis Agassiz, quien sería educado primero en Alemania y después en París, bajo la dirección de Cuvier (uno de los naturalistas más famosos de Europa) y quien se convertiría unos años más tarde en un joven y brillante médico y biólogo. En 1834 mientras que Humboldt empezaba a escribir su obra cumbre Cosmos, Agassiz regresaba a Suiza como profesor del Liceo y empezaba a estudiar los glaciares de los valles alpinos. En 1847, después de trece años de andar en los hielos, los valles y las morrenas —cuando se imprimía el segundo volumen de Cosmos—, Agassiz publicaba un libro, con poco impacto al principio, en el que arriesgaba la audaz hipótesis de que Europa había estado ocupada miles de años antes por inmensos glaciares que cubrían la mayor parte del continente. La Tierra, según Agassiz, había sufrido periodos de enfriamiento, a los que llamó “glaciaciones”, seguidos por periodos de calentamiento o “interglaciares” en los que la vegetación tropical había llegado hasta las latitudes boreales.
En un principio la idea fue tratada con desdén por la comunidad científica europea, cegada por la aparente evidencia de que los ciclos climáticos de invierno y verano se repetían con la precisión de un reloj. Fueron necesarios muchos años de evidencias fosilizadas, de descubrimientos geológicos, así como la teoría de le evolución de Darwin para que el público empezara a tomar en serio la teoría de Agassiz sobre las Edades Glaciales (quien, paradójicamente, se dedicó a combatir con celo religioso las ideas evolucionistas que sus propios descubrimientos habían ayudado a desarrollar).
Para Humboldt, sin embargo, era obvio que el ambiente global había pasado por sucesivos periodos de calentamiento y enfriamiento durante los últimos siglos, y planteó el problema con toda claridad en el Ensayo sobre la geografía de las plantas, casi cincuenta años antes que Agassiz: “Para decidir el problema de la migración de los vegetales, la geografía de las plantas desciende al interior del globo terráqueo y consulta ahí los antiguos monumentos que la naturaleza ha dejado en las petrificaciones, los bosques fósiles y las capas de hulla que constituyen la primera vegetación de nuestro planeta. Descubre los frutos petrificados de las Indias, las palmeras, los helechos arbóreos, las escitamíneas y el bambú de los trópicos, sepultados en las heladas tierras del norte; considera si estas producciones equinocciales, lo mismo que los huesos de los elefantes, tapires, cocodrilos y didelfos, recientemente encontrados en Europa, han sido transportados a las regiones templadas por la fuerza de las corrientes en un mundo sumergido bajo el agua, o si estas mismas regiones alimentaron en la antigüedad las palmeras y el tapir, el cocodrilo y el bambú. Uno se inclina hacia esta opinión, cuando se consideran las circunstancias locales que acompañan estas petrificaciones de las Indias”.
Sin conocer los valle glaciares que llevaron a Agassiz a elaborar su teoría, simplemente viajando por Venezuela, Ecuador y México, Humboldt había llegado ya —medio siglo antes— a la conclusión de que el clima en la Tierra no era constante.
Wegener, el gran menospreciado
En 1880, pocos años después de la muerte de Agassiz —en los Estados Unidos—, otro gran precursor nacía en Alemania; su nombre era Alfred Lothar Wegener. Después de obtener un doctorado en la Universidad de Berlín en 1905, Wegener tuvo oportunidad de integrarse a una expedición danesa a Groenlandia de 1906 a 1908. Allí empezó a interesarse en el movimiento de los continentes a escala global, y elaboró una teoría que en su tiempo casi nadie quiso aceptar.
Como otros científicos que lo precedieron, Wegener había notado la similitud del perfil de las costas de África y América, y especuló que estas tierras habían estado alguna vez unidas —posiblemente en el Paleozoico tardío, unos doscientos cincuenta millones de años atrás— formando un supercontinente ancestral al cual llamó Pangea. Basado en evidencias biológicas y geológicas, Wegener pudo demostrar que rocas y fósiles similares se encontraban en las costas de continentes separados, como América y África, y que grupos biológicos emparentados poblaban áreas ahora distantes. En apoyo a su teoría, además, esgrimió el argumento de la presencia de organismos fósiles tropicales en ambientes actualmente árticos.
Basado en estas evidencias, Wegener postuló la teoría de la deriva continental, en la que aseguraba que los continentes se desplazaban lentamente sobre la corteza terrestre. Sin embargo, la falta de un mecanismo que explicara la causa de esto, y el rechazo enérgico y fundamentalista del establishment geológico, llevaron a los investigadores de su época a desechar las hipótesis del movimiento continental, a pesar de los incuestionables argumentos de Wegener. Amargado por la falta de reconocimiento, Wegener murió heroicamente en 1930, en el rescate de un grupo de colegas que se había extraviado en el hielo, durante su tercera expedición a Groenlandia. Nunca llegó a enterarse de que, en los sesentas, su teoría sería retomada con el nombre de “tectónica de placas”, y que sus ideas dieron a la geología una teoría unificadora, que lo explica todo; desde los volcanes y los terremotos, hasta la formación de cordones de montañas y cuencas oceánicas.
Humboldt había concluido, sorprendentemente, que los continentes se movían de alguna manera, y había llegado a esta deducción unos ciento veinte años antes que Wegener. Nuevamente, sus razonamientos se basaban en la simple observación de campo sobre la distribución geográfica de las plantas: “Para decidir acerca del antiguo enlace de continentes vecinos, la geología se funda sobre la análoga estructura de las costas, los bajíos del océano y la identidad de los animales que los habitan. La geografía de las plantas proporciona materiales preciosos para este género de investigaciones: desde cierto punto de vista, puede hacernos reconocer las islas que, antiguamente unidas, se han separado; muestra que la separación de África y América meridional se hizo antes del desarrollo de los seres organizados. Todavía más, esta ciencia nos muestra cuáles plantas son comunes al Asia oriental y a las costas de México y California [...] Con la ayuda de la geografía de las plantas puede uno remontar con cierta certeza hasta el primer estado físico del globo”.
Milankovich, o las desventajas de publicar en serbio
Nacido en 1878 —unos pocos meses antes que Wegener—, el tercer gran precursor de esta historia es un matemático serbio, profesor de mecánica en la Universidad de Belgrado, de nombre Milutin Milankovich; quien demostró que la cantidad promedio de radiación proveniente del Sol que llega a la Tierra no es constante, como se creía, sino que varía de acuerdo a tres factores que inducen cambios en la trayectoria del planeta. En primer lugar, la excentricidad de la órbita terrestre experimenta variaciones periódicas, que tienen como consecuencia la modificación de la distancia media entre la Tierra y el Sol; cuando ésta aumenta en la elipse orbital, disminuye el flujo anual de energía solar incidente. En segundo lugar, la inclinación del eje de la Tierra —el ángulo entre el eje de rotación y el plano de la órbita, que en la actualidad es de 23° 27’—, sufre fluctuaciones a lo largo del tiempo causadas por la influencia gravitatoria de los demás planetas. Finalmente, el eje de rotación terrestre cambia la dirección hacia la cual se inclina, igual que un trompo al girar, y describe un cono perpendicular al plano que contiene la órbita terrestre, lo cual, a su vez, ocasiona que el equinoccio se ubique en distintas partes de la órbita terrestre según la orientación del eje. A este fenómeno se le denomina precesión de los equinoccios. Milankovich pudo calcular que los periodos característicos de los efectos producidos por cada uno de los tres factores anteriores —excentricidad de la órbita, inclinación del eje, y precesión de los equinoccios— son de cien mil, cuarenta y un mil, y veintidós mil años, respectivamente. Sus estudios demostraron que el efecto combinado de los tres ciclos es suficiente como para que la Tierra pueda calentarse y enfriarse significativamente, produciendo las glaciaciones de los últimos dos millones de años.
Durante casi cincuenta años, desde su publicación en varias revistas serbias en la década de los veintes, su teoría fue ignorada por la comunidad científica. Sorpresivamente, en 1976, un trabajo escrito por J. D. Hays, J. Imbrie y N. J. Shackleton, aparecido en la prestigiosa revista Science, demostró que las temperaturas globales inferidas a partir de núcleos del sedimento marino correspondían con los cambios en la órbita y la inclinación de la Tierra predichos por Milankovich. En efecto, los datos mostraban que los cambios en la excentricidad, inclinación y precesión de la Tierra eran los motores del cambio climático global.
Desafortunadamente, Milankovich no pudo verse reivindicado, ya que había fallecido dieciocho años antes.
Sin desarrollar la elegante y compleja teoría del matemático serbio, Humboldt había intuido la razón profunda de los cambios que habían operado —para él de manera obvia y transparente— sobre el clima de la Tierra en el pasado: “Pero ¿pueden admitirse estos enormes cambios en la temperatura de la atmósfera, sin recurrir a un desplazamiento de los astros o a un cambio en el eje de la Tierra? […] Un aumento en la intensidad de los rayos solares, ¿habría expandido, en ciertas épocas, el calor de los trópicos sobre las zonas vecinas del polo? Estas variaciones, que habrían hecho a Laponia habitable para las plantas equinocciales, los elefantes y los tapires, ¿son periódicas? ¿O son el efecto de algunas causas pasajeras y perturbadoras de nuestro sistema planetario”?
Del conocimiento a la acción
De manera prodigiosa, Humboldt pudo anticipar —a partir de sus exploraciones en México y Sudamérica— las grandes teorías biológicas que surgirían y se consolidarían en los siguientes doscientos años. Si bien, quizás, esa no es su grandeza fundamental, su capacidad de inferir el funcionamiento de sistemas tan complejos no deja de ser un motivo de asombro, que para México legó una de las más lúcidas descripciones de nuestra naturaleza y cultura durante el siglo xviii. En referencia a la Ciudad de México Humboldt escribió en el Ensayo político sobre el Reino de la Nueva España, publicado en 1822: “La construcción de la nueva ciudad, comenzada en 1524, consumió una inmensa cantidad de maderas de armazón y pilotaje. Entonces se destruyeron, y hoy se continúa destruyendo diariamente, sin plantar nada de nuevo, si se exceptúan los paseos y alamedas que los últimos virreyes han hecho alrededor de la ciudad y que llevan sus nombres. La falta de vegetación deja el suelo descubierto a la fuerza directa de los rayos del sol, y la humedad que no se había ya perdido en las filtraciones de la roca amigdaloide basáltica y esponjosa, se evapora rápidamente y se disuelve en el aire, cuando ni las hojas de los árboles ni lo frondoso de la yerba defienden el suelo de la influencia del sol y vientos secos del mediodía [...] Como en todo el valle existe la misma causa, han disminuido visiblemente en él la abundancia y circulación de las aguas. El lago de Texcoco, que es el más hermoso de los cinco, y que Cortés en sus cartas llama mar interior, recibe actualmente mucha menos agua por infiltración que en el siglo xvi, porque en todas partes tienen unas mismas consecuencias los descuajos y la destrucción de los bosques”.
Dos siglos antes de que la Ciudad de México enfrentara la crisis ambiental que hoy vive, Alexander von Humboldt pudo prever las dificultades hidrológicas que sobrevendrían y pudo atribuirlas, correctamente, a las consecuencias de “los descuajos y la destrucción de los bosques.” La devastación forestal, profetizó, traería graves consecuencias para el ciclo del agua.
Hoy, gracias a las teorías modernas de la diversidad biológica sabemos que los bosques, y en particular los bosques tropicales, son también inmensos reservorios de riqueza biológica, en donde sobrevive una gran parte de las especies del planeta. Un concepto que, por supuesto, tampoco fue ajeno a Humboldt, quien realizó en el Ensayo sobre la geografía de las plantas el primer análisis serio de la importancia de la diversidad biológica en los bosques tropicales de montaña: “De tal estado de cosas resulta que cada altura bajo los trópicos, al presentar condiciones particulares, ofrece también productos variados según la naturaleza de las circunstancias, y que en los Andes de Quito, en una zona de mil toesas (dos mil metros) de anchura horizontal, se descubrirá una mayor variedad de formas que en una zona de la misma extensión en la pendiente de los Pirineos”.
Del conocimiento de un fenómeno surge la apreciación del mismo, y de ésta la necesidad de protegerlo. Así, en las notas precursoras tomadas por dos botánicos —Humboldt y Bonpland—, sin más elementos que un teodolito, una brújula, una prensa de herbario y una desbordada pasión por la observación minuciosa del mundo natural, está también contenido el embrión de la biología de la conservación, la semilla de la protección de la diversidad natural.
La conservación de la riqueza biológica es un imperativo de la coyuntura global del siglo xxi, y es uno de los problemas centrales de la ciencia y de las sociedades modernas que debemos enfrentar y resolver todos los seres humanos de manera colectiva. Es una cuestión esencial para la sobrevivencia del planeta, y para nuestra propia sobrevivencia. Pero también es parte de nuestra herencia cultural, de ese “celo por las ciencias naturales en que con tanto honor se distingue México”, como tan bien lo describió Alexander von Humboldt. Muchas veces hemos repetido que debemos conservar la naturaleza por nuestros hijos y por los hijos de nuestros hijos. Es cierto, pero quizás también debemos cuidar la naturaleza por la naturaleza misma, sin más recompensa que sentirnos parte de la continuidad de la evolución biológica sobre la Tierra. Si Humboldt estuviera hoy vivo, creo que estaría de acuerdo.
![]() |
|||
Referencias bibliográficas
Humboldt, Alejandro de. 1811. Ensayo político sobre el Reino de la Nueva España. Porrúa, México, 1978.
Humboldt, Alexander von. 1805. Ensayo sobre la geografía de las plantas. Siglo xxi/unam, México, 1997.
Alejandro de Humboldt. 1834. Viaje a las Regiones Equinocciales del Nuevo Continente. Monte Ávila, Caracas, 1991. |
|||
← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|||
Metafísica experimental y mécanica cuántica
|
|||
Luis de la Peña y Ana María Cetto
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Cada vez que ha surgido una nueva rama de la física —sea la mecánica clásica, la óptica, el electromagnetismo, u otra— su desarrollo ha implicado la necesidad de revisar preconcepciones y de crear conceptos apropiados para entender, describir y relacionar los nuevos fenómenos en cuestión. Este tipo de trabajo, el de construcción de la base conceptual de una nueva teoría, normalmente implica una confrontación de visiones; y en el camino suelen presentarse fuertes desacuerdos y resistencias a la aceptación de las nuevas ideas, antes de quedar establecido un andamiaje conceptual más o menos completo y coherente, que sirva de soporte para la nueva teoría.
El desarrollo de la mecánica cuántica no ha sido la excepción. El hecho de que los fenómenos típicamente cuánticos se presenten normalmente en sistemas de pequeñísima dimensión, no susceptibles a observación directa, abre la posibilidad a diferentes lecturas del mundo cuántico, que conducen a esquemas conceptuales discrepantes entre sí. Si bien uno de ellos ha adquirido amplia popularidad, no puede decirse siquiera que esté libre de severas dificultades conceptuales. Detrás de cada uno de estos esquemas se encierra toda una forma de leer la naturaleza y de interpretar sus mensajes; el asunto por lo tanto tiene profundas implicaciones metafísicas. No es gratuito que los debates en torno a la interpretación de la mecánica cuántica hayan llenado algunas de las páginas más notables de la historia de la física del siglo pasado.
En el proceso de construcción y consolidación del andamiaje conceptual, los experimentos juegan a menudo un papel privilegiado. Más allá de confirmar las predicciones del nuevo formalismo, y de explorar los límites de su aplicabilidad, pueden ayudar a profundizar en la comprensión de los nuevos fenómenos, o inclusive a someter a prueba su ropaje interpretativo. Así, en las últimas décadas se ha realizado toda una serie de complejos y delicados experimentos con el propósito de confirmar la interpretación que oficialmente acompaña a la mecánica cuántica —y que es considerada parte integral de esta teoría.
Tales experimentos se han hecho posibles gracias a que hoy día se cuenta con instrumentos capaces de crear condiciones muy especiales —como cavidades microscópicas que encierran una o dos partículas en su interior bajo condiciones controladas, átomos en estados bien definidos, haces de luz de muy baja intensidad, etcétera. La motivación para llevarlos a cabo no es solamente de origen metafísico; una buena parte de este trabajo experimental tiene implicaciones importantes en áreas de investigación de avanzada, como la computación cuántica y la transmisión de mensajes codificados. Tal circunstancia ayuda, naturalmente, a mantener en estado de buena salud financiera a estos proyectos experimentales.
El indeterminismo cuántico
Una de las características de la mecánica cuántica más extensamente discutidas en la literatura que aborda los problemas conceptuales de esta teoría, ya sea a nivel profesional o de divulgación, es su indeterminismo.
El que una teoría física no sea determinista no representa en sí ningún problema, si lo consideramos una propiedad de nuestra descripción, más que una propiedad ontológica del sistema examinado o descrito. Y en efecto, el que el comportamiento de un sistema físico o de cualquier otra índole sea descrito como tal no significa, sino que el cúmulo de factores que determinan detalladamente su comportamiento ha sido dejado a un lado al separar, conceptualmente, el modelo que se discute de una parte de su entorno. Veamos un ejemplo para ser claros: consideremos un recipiente cerrado que contiene únicamente algún gas, y que se encuentra a una temperatura fija (por ejemplo, la del medio ambiente). Sabemos bien que existen leyes relativamente simples que nos permiten determinar la presión del gas en términos del volumen y la temperatura; como ambos son fijos, también la presión es fija. Todo parece estar determinado. Pero en realidad no, pues basta que nos preguntemos con qué velocidad se mueve una cierta molécula (alguna en particular, arbitraria y libremente escogida de entre los cuadrillones que contiene el frasco) para advertir, de inmediato, que no tenemos información alguna para contestar: la velocidad puede ser prácticamente cualquiera. Lo que las simples leyes de la termodinámica nos permiten determinar con precisión es la velocidad promedio de las moléculas o la velocidad más probable, y otras cantidades como éstas, pero no más.
La descripción termodinámica es global, no entra en los detalles del movimiento de cada molécula, sino que contempla sólo algunas de sus propiedades estadísticas. Se trata así de una descripción muy simple y útil —pero claramente incompleta. Los movimientos particulares de cada una de las moléculas quedan indeterminados, o sea que la teoría proporciona una descripción indeterminista. Sin embargo, nadie dudaría que hay factores físicos que determinan con precisión el movimiento de cada molécula —al menos mientras consideremos al sistema dentro de los cánones de la física clásica—, aunque no lo conozcamos. El sistema es determinista; lo indeterminista es la descripción que de él hacemos.
El meollo del problema con la teoría cuántica es que percibimos el indeterminismo de los sistemas por ella descritos, pero a la vez consideramos esta descripción como acabada, como la más completa posible. Esto usualmente se entiende en un sentido estricto, es decir, no como la descripción más completa de que disponemos hoy en día, sino la más completa en principio, ahora y para siempre.
Recurramos otra vez a un ejemplo sencillo para aclarar el punto. Pensemos esta vez en una pizca de un material radioactivo con una vida media de algunos minutos. Esto quiere decir que cualquiera de los (muchísimos) núcleos radioactivos de la muestra puede decaer en el curso de los próximos minutos, aunque también puede no hacerlo. Precisar cuales núcleos decaerán en los próximos cinco minutos y cuales no, queda fuera de las posibilidades de la teoría, que sólo puede decir qué fracción del total decaerá en ese lapso. Además, en cada decaimiento el correspondiente núcleo emite una partícula —supondremos que son electrones, pero podría ser otra cualquiera— que sale en un caso en una dirección, en el siguiente en otra dirección cualquiera, y así sucesivamente. El resultado es que cuando decaen muchos núcleos, salen electrones uniformemente repartidos en todas las direcciones. A pesar de que cada decaimiento se produce en un momento preciso y emite un electrón en una dirección bien establecida, la descripción cuántica —la mejor con que contamos— no nos permite determinar estos datos precisos, sino sólo la probabilidad de que un núcleo dado que aún no ha decaído, lo haga dentro del plazo dado, como hemos dicho, y la probabilidad de que el electrón emitido caiga o no dentro de la ventana estrecha de un detector colocado en las cercanías. La naturaleza decide con precisión; nosotros únicamente calculamos con probabilidades.
Si se creyera —que, como hemos visto, no es el caso— que la situación es análoga a la de la molécula del gas, no habría nada de extraño en el comportamiento cuántico. Pero la convicción prevaleciente de que hasta aquí podemos —y podremos— llegar con nuestras descripciones del mundo cuántico, convierte a este indeterminismo en algo esencial. Como este fenómeno es omnipresente en la teoría cuántica, suele interpretársele como manifestación de una nueva propiedad de la materia: si no es el caso que la propia naturaleza es indeterminista, lo son al menos y de forma irremediable e irreductible nuestras descripciones de ella, como lo expresan formalmente las llamadas relaciones de indeterminación de Heisenberg (conocidas también bajo otros nombres y significados, pero esto lo podemos dejar de lado), o como indeterminismo ontológico, o indeterminismo epistemológico, pero indeterminismo al fin.
Iconoclasia de las variables ocultas
Para muchos espíritus este estado de cosas resulta poco satisfactorio: es posible entenderlo como un resultado de nuestros procedimientos de investigación y descripción, o como una característica del conocimiento alcanzado, pero no como una ley de la naturaleza. Sin duda alguna, el más conocido de los físicos que de manera abierta se negó a aceptar como definitiva a la mecánica cuántica (con todo y su ropaje interpretativo), precisamente por su indeterminismo esencial, es Einstein, a quien no tenemos necesidad de presentar. A su lado ha alineado toda una fila de científicos realistas que, al igual que él, ven en la teoría actual un magnífico logro, pero no una teoría final, acabada. Naturalmente, las razones y circunstancias de cada uno de estos disidentes son muchas y muy variadas, de tal manera que no podemos decir que se trate de una escuela, sino más bien de una posición común de principio.
En la mente de muchos de estos iconoclastas surge la idea de que debe ser posible construir una teoría más refinada y rica que la actual, la cual contenga variables de algún tipo hoy desconocidas que sean las responsables de los diversos posibles comportamientos; su conocimiento detallado explicaría el del sistema cuántico, y el indeterminismo desaparecería. Por ejemplo, en el caso del gas clásico, se trataría de todo el conjunto de velocidades y posiciones de las otras moléculas, más los datos del recipiente, lo que determinaría detalladamente la velocidad y posición de la molécula de nuestro interés. Basta esta imagen para entender la razón por la cual a estas hipotéticas variables, que transformarían en deterministas a los sistemas cuánticos, se les conoce bajo el nombre genérico de variables ocultas. En ellas radicaría el misterio que los físicos deterministas desearían resolver.
Para que una teoría de variables ocultas tenga interés físico y perspectivas de éxito debe cumplir varios requisitos indispensables. Dos de ellos son obvios: las variables deberán ser distribuidas, y la teoría resultante deberá ser plenamente compatible con la mecánica cuántica actual y reproducir sus resultados dentro de los estrechos límites que fijan los experimentos. La primera simplemente dice que es en las diferentes realizaciones de tales variables en donde debemos encontrar la razón de los diferentes resultados observados o predichos por la teoría, con lo cual el actual indeterminismo se transforma en el mero resultado de las realizaciones azarosas de las posibilidades, que naturalmente se dan en el sistema. La segunda condición resulta del hecho de que las predicciones de la teoría cuántica contemporánea, que cubren un impresionante rango de fenómenos físicos de muy diversas escalas y estructuras, nunca han sido fallidas, y que algunas de ellas han sido verificadas con la increíble precisión de diez dígitos. Sirva de referencia que en la ingeniería usual una exactitud de una parte en mil ya es considerada como ingeniería de precisión y difícilmente se alcanza la de una parte en diez mil, salvo en aplicaciones muy especiales, como sucede en la óptica.
Pero aún hay más (como nos enseñara a decir uno de los más profundos filósofos de la televisión nacional): es claro que si la intención al introducir las variables ocultas es darle a la teoría una estructura conceptual aceptable dentro de los cánones del realismo, estas variables a su vez deberán tener propiedades plenamente aceptables según los mismos cánones. Aquí es donde vuelven a complicarse las cosas. La historia de este asunto es compleja y larga —pues se inicia en 1932, muy pocos años después del nacimiento de la teoría cuántica que hoy manejamos y que podemos situar en el curso de los años 1925 a 1927—, por lo que sólo haremos referencia a los puntos centrales, sin pretensión alguna ni de totalidad ni de apego a la cronología del tema. En aquel año, 1932, apareció publicado el primer texto de mecánica cuántica escrito por un matemático, el húngaro-norteamericano Johann von Neumann —por cierto, uno de los verdaderamente grandes matemáticos del siglo xx, quien, entre tantas otras cosas, fue uno de los creadores de la actual computadora digital. En su libro, von Neumann incluyó una famosa demostración sobre la imposibilidad de construir una teoría de variables ocultas consistente con la mecánica cuántica. Con esto, el sueño realista se quedaba en esto, un sueño. Naturalmente los esfuerzos en esta dirección se redujeron drásticamente, mientras su descrédito se extendía. Peor aún, como respuesta a las limitaciones que se le encontraron al teorema de von Neumann en el curso de las décadas, aparecieron otros teoremas similares (de Kochen y Specker, de Gleason, etcétera), que venían a reforzar el clima contra la propuesta realista.
Las desigualdades de Bell
De entre todos estos esfuerzos el que indudablemente tuvo mayor éxito fue el del físico inglés John Bell, con su famoso teorema de 1966. En realidad se trata de un teorema muy simple y general que debe cumplir cualquier teoría realista cuántica —el que una descripción del sistema cuántico sea realista significa que se puede hacer, al menos en principio, en términos de las trayectorias seguidas por las partículas— con propiedades físicamente aceptables (como las citadas arriba), a lo que se agrega la demostración, vía un ejemplo específico, de que la teoría cuántica viola tal teorema en situaciones apropiadas. La amenaza de muerte de las intenciones realistas parecía cumplirse finalmente.
El resultado vino a ser un tanto paradójico, pues la intención de Bell, al enfocar sus esfuerzos en este tema, era precisamente la opuesta a lo que emergió de su empeño. Bell analizó la interpretación causal de la mecánica cuántica propuesta desde 1952 por el físico estadounidense (a pesar de Estados Unidos) David Bohm, que es una teoría de variables ocultas plenamente consistente con el formalismo cuántico (pues se trata sólo de una relectura de sus resultados, en términos realistas). Luego la mera existencia de la teoría de Bohm desdecía el teorema de von Neumann y mostraba que algo esencial estaba mal en todo este entramado. Para Bell, esto significaba que la sentencia de muerte del realismo no estaba realmente dictada, lo que le complacía, pues él mismo era un físico realista. Sin embargo, prestó de inmediato atención a una propiedad central y no precisamente atractiva de esta teoría, y se preguntó si ella era inevitable en cualquier teoría de variables ocultas, o bien se aplicaba específicamente a la teoría de Bohm. Fue en la búsqueda de la respuesta a esta interrogante que Bell llegó a su teorema.
El punto en cuestión es que la teoría de Bohm no es local. Esto puede sonar demasiado abstracto a algunos e irrelevante a otros, pero se trata de algo fundamental e incompatible con principios centrales de la física no cuántica (y del resto de las ciencias naturales). La no localidad significa que un cuerpo puede actuar sobre otro a distancia. Tal acción ocurre en la mecánica cuántica que es no relativista de manera instantánea, pero podemos achacar esto al carácter no relativista de la teoría, o sea al hecho de que el formalismo cuántico usual no es consistente con la teoría de la relatividad —deficiencia que se corrige con una versión relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a distancia no desaparecería aun en la versión relativista. El punto es si en efecto un cuerpo puede actuar sobre otro sin conexión causal aparente o, en términos más simples, sin que medie fuerza alguna entre ellos. Hasta se estremece uno un poco con esta pregunta, la cual parece pertenecer más bien al terreno de lo sobrenatural. La respuesta que da la física no cuántica es un rotundo no. Y esa misma respuesta quisiera poder darla un sector importante de los físicos realistas, aunque no todos, en el caso de la física cuántica. Por ejemplo, Bohm, el propio Bell y muchos otros físicos e incluso filósofos de la ciencia, han asumido la no localidad cuántica como algo que nos impone la naturaleza y que debemos aceptar, gústenos o no. Si ello contradice nuestra intuición o visión filosófica, peor para nosotros, nos dirían, pues no nos queda más que cambiarla si deseamos profesar una filosofía compatible con las leyes naturales; es decir, debemos dejar que la naturaleza nos imponga sus leyes, en vez de tratar de imponerle las nuestras.
Sin embargo, para el sector de físicos realistas que se estremece con la pregunta sobre la localidad, la respuesta anterior aparece como la aceptación de una comunión entre la magia y la ciencia. El precio que se está pagando por eliminar el indeterminismo resulta demasiado alto. Para el sector de iconoclastas empedernidos es tan inaceptable la no localidad, como el indeterminismo esencial. Lo que se antoja es una teoría a la vez realista y local, en vez de la actual teoría indeterminista o no local.
A diferencia de resultados anteriores, como el teorema de von Neumann y otros, el teorema de Bell tiene dos características de gran relevancia. Una es la simplicidad y generalidad de su derivación, que lo torna transparente y difícilmente rebatible. Otra, la que ha determinado su éxito, es que su enunciado es tal, que se hace posible llevarlo al experimento. Se trata de verificar en el laboratorio que los sistemas cuánticos cumplen las predicciones de la teoría cuántica y violan ciertas desigualdades matemáticas, que Bell obtuvo a partir de las demandas de determinismo y localidad (y nada más, fuera de relaciones probabilistas muy generales y elementales). Así, lo que se pretende probar en el laboratorio es si los sistemas cuánticos contradicen o no la demanda de realismo local, que se refiere más a un principio metafísico que físico. Con esto se han abierto las puertas a un nuevo terreno, hasta hoy totalmente impensado, al que algunos autores comienzan a llamar metafísica experimental. Quizá sea un poco exagerado hablar en tales términos en este momento; pero sí es un hecho que las fronteras de lo físico y experimentable se han recorrido significativamente con estos estudios.
Las predicciones de la teoría cuántica han sido tantas y tan bien verificadas que la mayoría de los físicos no dudaría en suponer que en estos experimentos también se cumplirán. Hay quienes, incluso, han insistido en que no se requiere hacer ninguno nuevo: la simple extrapolación de nuestra experiencia cuántica nos hace saber que los sistemas cuánticos pueden violar las desigualdades de Bell. ¿Para qué malgastar tiempo, esfuerzo y dinero en lo obvio?
Sin embargo, cuando se trata de principios generales y profundos hay quienes perseveran. Es posible que la naturaleza sea como se nos dice, nos guste o no creerlo; pero esto no ha sido demostrado, sino simplemente aceptado como resultado de ver y leer el formalismo de la mecánica cuántica desde una cierta perspectiva, la ortodoxa. No estamos obligados a rechazar a priori otras posibilidades, como la que precisamente postula el realismo local. Por tanto, la realización de los experimentos tiene sentido, pues se trata de certificar o negar predicciones que son específicas de la teoría cuántica. Y el argumento se ha reforzado profundamente de la manera más convincente y simple posible: diversos autores han construido modelos realistas locales de los dispositivos experimentales que satisfacen cumplidamente los resultados. Esto refuta de manera evidente la convicción generalizada y popular de que los experimentos realizados han demostrado la incompatibilidad entre el realismo local y el comportamiento de la naturaleza.
Son varios los que se han hecho —en realidad no con partículas, sino con luz, pero formalmente las cosas son equivalentes para la mecánica cuántica a través de la dualidad onda-corpúsculo— y todos parecen conducir a conclusiones consistentes con las predicciones cuánticas. Con ello suele justificarse la conclusión mencionada líneas arriba sobre el realismo local. Sin embargo, aun aquí hay gato encerrado, pues diversos análisis detallados de los experimentos han mostrado que todos contienen algún punto débil: o enfrentan problemas de muestreo estadístico, o bien debido a la baja eficiencia de los detectores, o a la necesaria supresión del ruido de fondo, o a la introducción obligada de hipótesis adicionales no verificadas (en ocasiones incluso inverificables). De manera que siempre hay alguna vía de escape que permite la construcción de un modelo realista local capaz de reproducir los resultados observados, e incluso, en varios casos, de ir más allá. Basta la existencia de un solo modelo de esta naturaleza consistente con la mecánica cuántica, para que pierda toda su fuerza el correspondiente experimento como refutación del realismo local. Es claro que hasta que no se haya realizado simultáneamente un experimento libre de todas las escapatorias conocidas, no se deberá considerar como ganada la ofensiva contra el realismo local.
¿Qué tan definitivo es lo concluido?
Las desigualdades originales de Bell no son homogéneas en las probabilidades de coincidencia, o sea que están relacionadas con números absolutos. Pero verificar relaciones de este tipo está más allá del límite de las posibilidades tecnológicas contemporáneas, básicamente debido a la baja eficiencia de los detectores. Lo que se puede poner a prueba en el laboratorio son otras desigualdades, de tipo homogéneo, que se derivan de las de Bell, a costa de agregar hipótesis suplementarias sobre el comportamiento de los detectores, los polarizadores, etcétera. Como éstas no han sido verificadas, no queda excluida la posibilidad de que sean ellas las responsables de la supuesta violación del realismo local, sin que ello cree ningún problema mayor.
A lo anterior podemos añadir consideraciones de otra naturaleza, que permiten rescatar el realismo local sin afectar la teoría cuántica. Una primera muy básica es la siguiente: los estados cuánticos que conducen a la violación de las desigualdades de Bell son los conocidos como estados entrelazados (entangled) entre dos partículas. Estos son estados que se refieren simultáneamente y de manera indisoluble a las dos partículas de una pareja y no permiten hacer una afirmación sobre el posible estado de cada una por separado. Mucho se ha escrito sobre ellos, pero poco se les entiende realmente; poseen multitud de propiedades anti-intuitivas y son en buena medida responsables de una variedad de sorprendentes, cuasi mágicos, fenómenos cuánticos. Lo que nos importa resaltar aquí es que las correlaciones entre las dos partes entrelazadas del sistema que tienen propiedades son locales. De hecho, es esta ausencia de localidad la que pone en evidencia las desigualdades de Bell.
En otras palabras, la no localidad está ya en cada una de las correlaciones que se miden en los experimentos, por lo que es perfectamente posible, al menos en principio, olvidarse de las desigualdades de Bell si de lo que se trata es de evidenciar la falta de localidad cuántica, y medir sólo las correlaciones entre la pareja de partículas entrelazadas. El resultado será tan no local como lo que intenta ponerse en evidencia con los experimentos más complejos como los de Bell. Luego lo que está realmente a discusión es si las propiedades no locales de un sistema entrelazado se preservan intactas cualquiera que sea la distancia, aun macroscópica, entre las dos partes del sistema, o si hay límites espacio-temporales, aún no establecidos, para la preservación de la integridad de estos estados.
Este es un tema que en varias formas se encuentra también en escrutinio activo, bajo el nombre genérico de decoherencia. Y poco a poco se está abriendo paso la idea de que, en efecto, existen factores naturales que limitan la vida de la coherencia cuántica. El tema es de gran importancia práctica, aunque parezca increíble, pues es precisamente el fenómeno de entrelazado el que sirve de soporte a las ideas relacionadas con temas tan actuales como la computación cuántica, la (mal) llamada teleportación, el cifrado seguro de mensajes, etcétera. Seguramente dentro de muy poco tiempo tendremos mucho más que decir respecto a estos asuntos; hoy por hoy no sabemos con certeza en qué sentido habrán de evolucionar nuestros conocimientos al respecto.
Un segundo comentario, que surge de manera natural, se refiere al sentido físico que pudieran tener las variables ocultas. Si se tratara de un esquema meramente formal, es decir, con las variables adicionales introducidas ad hoc con el solo propósito de recuperar la causalidad, no sería mucho lo que se ganaría en comprensión física. En alguna forma esto es lo que se hace en la teoría de Bohm, donde a la propia función de onda cuántica se le asigna el papel de un campo físico sui generis, generador de la fuerza no local que conduce al comportamiento cuántico. En ésta no se introducen elementos físicos nuevos; se trata de la vieja mecánica cuántica vestida con un ropaje diferente.
Pero hay otras alternativas más ricas, una de las cuales, la electrodinámica estocástica, nos parece que tiene un buen porvenir. En esta teoría se toma seriamente al campo de radiación de fondo, el llamado campo de punto cero o de vacío, que es un ruido electromagnético que persiste aun a temperatura cero. Se trata de un campo bien conocido dentro de la electrodinámica cuántica, pero tomado usualmente en ella como un campo virtual, responsable apenas de algunas correcciones menores a los resultados predichos por la mecánica cuántica. Si se considera que el espacio está ocupado al menos por este campo de vacío, la imagen de la dinámica de los electrones atómicos cambia sustancialmente, pues cada uno de ellos se encontrará en permanente e inevitable interacción con este campo estocástico, lo que le imprimirá un movimiento azaroso.
He aquí un mecanismo simple que explica de inmediato no sólo el aparente indeterminismo de los átomos, sino su estabilidad, problema cuya comprensión física se le escapa a la mecánica cuántica. En efecto, cada estado estacionario atómico puede entenderse ahora como un estado donde la potencia media extraída del campo por el electrón se compensa en promedio con la potencia radiada por éste. Incluso la misteriosa causa que vincula electrones separados distancias apreciables en los estados entrelazados (aunque siempre dentro de la escala atómica) y da lugar a la aparente no localidad discutida arriba, queda explicada en principio. Puesto que las longitudes de onda de los componentes del campo de vacío que determinan los rasgos esenciales de la dinámica (de unos miles de ángstroms) se extienden normalmente por muchas distancias atómicas (que son apenas de algunos). Es de esperar entonces que tienda a establecerse una correlación importante entre los movimientos de partículas relativamente separadas, pero que comparten un mismo (o varios) componentes relevantes del campo de fondo: quedan ellas vinculadas dinámicamente a distancia a través de este campo.
La somera descripción anterior puede verse como una propuesta concreta para construir una teoría alternativa, que sirva de fundamento a la mecánica cuántica contemporánea y brinde una explicación racional, causal y realista a sus propiedades misteriosas. De hecho, con esta intención se le ha ido investigando y elaborando durante las últimas décadas, pero puede tomarse otra perspectiva menos comprometida, reduciéndose a ver en la electrodinámica estocástica un ejemplo que muestra la posible existencia de vías alternas capaces de ofrecer una salida interesante y enriquecedora a los problemas que confronta la actual mecánica cuántica. Lo que parece menos prometedor es dejar las cosas como están, que es, en el fondo, lo que propone la ortodoxia de los textos.
De todo lo anterior puede concluirse, con optimismo, que la mecánica cuántica está lejos de ser una teoría acabada, y que tanto en el terreno teórico como en el experimental hay aun un enorme trabajo por delante, cuyos resultados podrán tener consecuencias importantes importantes en ámbitos tan distantes como la metafísica y la alta tecnología.
![]() |
|||
Referencias bibliográficas
Bell, John S. 1966. “On the Problem of Hidden-Variables in Quantum Mechanics”, en Rev. Mod. Phys., vol. 38, núm. 447.
. 1987. Lo decible y lo indecible en mecánica cuántica. Alianza Universidad, vol. 661 Alianza Editorial, Madrid, 1990.
Ferrero, Miguel y Emilio Santos. 1997. “Empirical Consequences of the Scientific Construction: The Program of Local Hidden-Variables Theories in Quantum Mechanics”, en Found. Phys., vol. 27, núm. 765.
Laloë, Frank. 2001. “Do we really understand Quantum Mechanics? Strange Correlations, Paradoxes and Theorems”, en Am. J. Phys., vol. 69, núm. 655.
Patiño Jaidar, Leonardo. 2001. “¿Es no separable la mecánica cuántica?”, en Rev. Mex. Fís., vol. 47, núm. 181.
De la Peña, Luis. y Ana María Cetto. 1995. The Quantum Dice. An Introduction to Stochastic Electrodynamics. Kluwer Academic Press., Dordrecht.
Selleri, Franco. 1990. Quantum Paradoxes and Physical Reality. Kluwer Academic Press., Dordrecht.
. 1986. El debate de la teoría cuántica. Alianza Editorial, Madrid.
Sulcs, Sue y Graham Oppy. “The Rejection of Local Realism is Premature”, en Found. Phys. Lett., vol. 13. núm, 521.
Wick, David. 1996. The Infamous Boundary. Seven Decades of Heresy in Quantum Physics. Copernicus (Springer-Verlag), Nueva York.
|
|||
Luis de la Peña
Instituto de Física,
Universidad Nacional Autónoma de México.
Ana María Cetto
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo →
De la Peña, Luis y Cetto, Ana María. (2002). Metafísica experimental y mecánica cuántica. Ciencias 66, abril-junio, 16-23. [En línea]
|
← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|||
La demencia vacuna cuando los priones nos alcancen
|
|
||
Samuel Ponce de León R. y Antonio Lazcano Araujo
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
En 1996, cuando se iniciaba la epidemia de encefalopatía espongiforme bovina en Inglaterra, y se comenzaba a saber de los primeros casos del mal y su equivalente en los humanos, (el mal de Creutzfeldt-Jakob variante), publicamos un pequeño ensayo titulado La demencia vacuna. En esos momentos la noticia era recibida por el mundo entero con una mezcla de preocupación y escepticismo, que incluso alcanzó el mundo de la moda y la decoración de interiores. Después de casi seis años, el balance no puede ser más desolador: han fallecido más de cien personas en Europa y se ignora cuántas más estén infectadas; todavía continúa el debate sobre la naturaleza misma del agente infeccioso; se sabe que la enfermedad ya se presentó en Japón y, aunque hay un par de reportes científicos esperanzadores, no se conoce remedio alguno contra ella.
El desastre económico para la Comunidad Europea, al que se sumó recientemente una epidemia repentina de fiebre aftosa, se calcula en siete millones de reses sacrificadas, lo que implica un costo multimillonario para la industria ganadera. La mayor parte de las muertes humanas causadas por esta enfermedad están concentradas en la Gran Bretaña, aunque se sabe de algunas personas fallecidas en Francia. Actualmente, podemos estar seguros no sólo de que estas cifras aumentarán, sino que también veremos pronto a pacientes afectados por esta enfermedad en muchos otros países europeos y, tarde o temprano, en otros continentes; incluyendo al nuestro.
Las encefalopatías del ganado
Las enfermedades del sistema nervioso en los animales, similares al mal de las “vacas locas”, no son ninguna novedad. Como escribió recientemente Maxime Schwartz, antiguo director del Instituto Pasteur de París, algunas de ellas fueron descritas desde el siglo xviii, durante el reinado de Luis xv. Sin duda alguna, la mejor estudiada es la llamada Scrapie, que se encuentra entre las ovejas. Se conoce, además, la encefalopatía de los felinos y del visón, que, junto con el síndrome de desgaste en alces y venados, ha sido descrita desde hace muchos años en los Estados Unidos y Canadá. A esta lista se agregó en 1986 la encefalopatía espongiforme bovina, que tuvo una rápida diseminación en los hatos de ganado vacuno inglés; probablemente como resultado de la contaminación del pienso, al cual desde hace muchos años se le agregaban proteínas de origen animal, incluyendo restos de ovejas enfermas. El problema surgió al alimentar a herbívoros con restos de otros animales, volviéndolos carnívoros (de hecho, caníbales). Esto permitió el paso del prión de ovejas a vacunos, posiblemente unido a una mutación del prión vacuno, diseminado como resultado del mismo proceso de enriquecimiento del pienso.
Ante la rápida evolución de la epidemia vacuna, en 1988 el gobierno británico prohibió el uso de restos animales en la producción de alimentos para el ganado, y se inició la matanza de aquellas reses que pudieran estar infectadas. A partir de 1992, estas medidas permitieron disminuir los casos de vacas infectadas en la Gran Bretaña, a pesar de lo cual se calcula que se enfermaron más de doscientas mil reses y fue necesario el sacrificio de 4.5 millones de cabezas de ganado asintomático. La publicidad hecha en torno a este problema provocó, como era previsible, que muchos países europeos prohibieran la importación de ganado y productos cárnicos ingleses (de nada sirvieron los uniformes de los beef-eaters de la Torre de Londres). Sin embargo, a pesar de su carácter flemático, hasta los propios británicos disminuyeron su consumo de productos bovinos, y fue necesario que el entonces ministro de agricultura y su hija aparecieran ante los medios de comunicación, comiendo roast-beef y hamburguesas, con la intención de aminorar el miedo que para desgracia de los ganaderos y la economía, comenzaba a apoderarse de muchos.
Pero nada de esto limitó la diseminación de la epidemia de la encefalopatía espongiforme bovina. Mientras el gabinete inglés consumía en público productos de vacas británicas, muchos gobiernos europeos se rasgaban las vestiduras y vociferaban contra la carne inglesa. Estos últimos seguramente tenían en mente aquello de: “Hágase Señor tu voluntad, pero en los bueyes (o en las vacas) de mi compadre”. Aun así no detuvieron ni la importación ni la exportación de pienso contaminado. La razón es muy simple; como mostró hace algunos años la revista Nature, aunque desde junio de 1988 el Gobierno británico prohibió alimentar al ganado con mezclas de pienso que contuvieran restos de rumiantes, entre 1988 y 1989 Inglaterra prácticamente triplicó las exportaciones de éste. Los franceses, por ejemplo, importaron más de quince mil toneladas del alimento durante ese mismo periodo.
Hoy se están viviendo —o, mejor dicho, consumiendo— las consecuencias de esa decisión. En un esfuerzo por frenar el problema se ha organizado un programa de control, apoyado con un presupuesto de novecientos millones de dólares, y se han matado dos millones de reses para tratar de controlar la epidemia, que hoy involucra a Irlanda, Francia, Portugal, Suiza, Dinamarca, Bélgica, Holanda, Alemania y España. Las predicciones más conservadoras prevén que para el año 2010 habrá al menos tres mil quinientos casos de “vacas locas” en Europa.
Existe, además, una serie de problemas. El tener que estudiar todo animal menor de treinta meses de edad, aunado a la matanza de animales infectados y a la destrucción posterior de los cadáveres de los bovinos, ha saturado los laboratorios veterinarios y hasta los sitios de incineración, ya que basta descubrir un solo caso de “vaca loca” para eliminar a todo el rebaño. Ahora se están viviendo las consecuencias de haber tomado medidas preventivas, no bajo una óptica de bienestar social, sino dentro de una perspectiva que obliga a justificar económicamente cualquier acción (sobre todo si implica gastos y pérdidas en las ganancias). ¿Para qué abatir, por ejemplo, las ganancias de la industria cárnica en un país en el que en 1988 no había tenido aún casos de esta enfermedad? Seguramente, en ese momento muchos de quiénes tenían la capacidad de decisión, pensaron que en términos de costo y eficiencia era mucho más redituable suponer que las fronteras políticas evitarían el tránsito de los priones, sin considerar que en esta época de movimientos masivos (personas, bienes de consumo y desechos), los agentes patógenos viajan sin visa ni pasaporte y con una rapidez inusitada; sin fronteras que lo impidan.
Los insólitos priones
A principio de los ochentas Stanley Prusiner, un médico estadounidense dedicado al estudio de las enfermedades neurodegenerativas, postuló que el virus de Creutzfeldt-Jakob y en general las encefalopatías espongiformes surgían por la infección de patógenos minúsculos, constituidos únicamente por proteínas. Denominó a estos agentes “priones”, para denotar que se trataba de proteínas infecciosas. Pocos le creyeron; acostumbrados a reconocer a los ácidos nucleicos como a las únicas moléculas replicativas, a los estudiosos de los seres vivos les resultaba difícil aceptar que las proteínas se pudieran multiplicar. A pesar de ello, y de algunas inconsistencias conceptuales, Prusiner recibió en 1997 el Premio Nobel en Medicina, otorgado por la originalidad y pertinencia de la hipótesis de los priones. El premio también reflejaba, por supuesto, la preocupación del establishment científico ante el rápido avance de la epidemia de las “vacas locas”.
Aunque algunos investigadores siguen creyendo que el agente infeccioso podría ser un virus asociado a un prión, la mayor parte de los grupos de investigación parecen haber aceptado la idea de que una versión mutante de los priones es la responsable de la epidemia actual. De hecho, este reconocimiento del potencial dañino de estas moléculas no ha significado ningún cambio radical en las concepciones biológicas. En condiciones normales muchos organismos (incluyendo los humanos, las vacas y las levaduras) producimos una proteína similar a la de los priones que participa en la comunicación entre las células. La versión normal, no patógena del prión, se encuentra codificada en el gen 129 del cromosoma 20 de los humanos, y se sintetiza sin provocar problema alguno en las células de nuestros cerebros. Sin embargo, el contacto con la proteína infectante induce un importante cambio en la conformación de la normal, tornándola en una molécula de efectos mortales. En otras palabras, la presencia de los priones convierte a la proteína normal en su similar, provocando su acumulación en el tejido nervioso. La forma patógena de la proteína no sólo se puede multiplicar en un individuo, sino que también se puede transmitir de uno a otro, como si se tratara de una infección. Sin reproducirse, los priones se multiplican induciendo en sus similares una modificación que recuerda, en última instancia, al mecanismo llamado alosterismo, que estudió desde hace muchos años y con éxito considerable Jacques Monod, una de las figuras centrales de la biología molecular del siglo xx.
Recientemente, Prusiner ha señalado todo un grupo de enfermedades neurodegenerativas para las que propone una explicación fisiopatogénica común y similar a la descrita para el Creutzfeldt-Jakob variante, esto es, la acumulación de proteínas “modificadas” que causan funciones aberrantes. Dentro de estas enfermedades destacan el Alzheimer y el Parkinson, aunque la lista es más larga. La propuesta adquiere una particular importancia en vista de los resultados obtenidos por el mismo grupo de Prusiner, que demostró la efectividad de anticuerpos monoclonales (Fab18), con capacidad para detener el daño neurológico causado por los priones, eliminando la proteína anómala de células en cultivo. El reporte, publicado hace apenas unos meses en Nature, muestra cómo la proteína infectante es limpiada de acuerdo a la dosis y el tiempo de exposición del anticuerpo Fab18. Esto abre el camino para intervenciones terapéuticas y preventivas con el desarrollo de anticuerpos, medicamentos y vacunas; sin embargo, la solución aún está lejana.
Las encefalopatías espongiformes humanas
Por si la epidemia vacuna no fuera suficientemente grave, resulta que la infección bovina se transmite a los humanos, ocasionando un cuadro clínico que inexorablemente lleva a los infectados a la muerte después de meses de un paulatino y progresivo deterioro neurológico. Las encefalopatías espongiformes son un grupo de enfermedades que se clasifican así por sus cambios en el tejido cerebral, en donde se observa la acumulación de la proteína anormal y la formación de espacios vacíos (como en las esponjas). Dentro de estas encefalopatías destaca el kuru —por haber sido la primera en ser estudiada y actualmente ya desaparecida— y tenemos además la enfermedad de Creutzfeldt-Jakob esporádica, el síndrome de Gerstmann-Straussler-Sheinker y el insomnio cerebral fatal.
En 1996, casi una década después de que se descubriera la epidemia en bovinos, se comenzaron a reconocer casos de lo que se denominó Creutzfeldt-Jakob variante. Esta es una encefalopatía espongiforme muy parecida al Creutzfeldt-Jakob —enfermedad neurológica bien conocida—, por sus cambios en el cerebro, que ocurre más bien de manera esporádica y ocasionalmente con tendencia familiar. Se calcula que cada año uno de cada millón de humanos la desarrolla en forma espontánea. La variante, sin embargo, afecta a personas menores de cincuenta años; en un principio se manifesta como una enfermedad psíquica y después con movimientos anormales que llevan al coma y a la muerte. No sólo desconocemos el periodo de incubación, sino que tampoco contamos con procedimientos diagnósticos simples, por lo que es imposible realizarlos en personas asintomáticas. Aunque hay reportes esperanzadores basados en la aplicación de anticuerpos, no existe alguna forma efectiva de tratamiento.
Un aspecto particularmente preocupante es la posibilidad de transmisión sanguínea del Creutzfeldt-Jakob variante, ya que esto se ha demostrado experimentalmente en un animal. En consecuencia existe el riesgo de que un número desconocido de personas (en su mayoría ingleses), portadores asintomáticos de priones asociados a dicha enfermedad, sean y hayan sido donadores de sangre. Por tanto, en Estados Unidos y otros países fue prohibida la donación a personas que hubiesen residido temporalmente en Inglaterra, y evitan la importación de productos biológicos elaborados a partir de sangre.
América, ¿territorio libre?
Hasta ahora no parece haber motivos de preocupación en este lado del Atlántico y mucho menos para los mexicanos. Existe un solo caso de encefalopatía espongiforme bovina reportado en Canadá, y unos cuantos en Texas y en el sur de Brasil que resultaron ser, por fortuna, falsa alarma. Se sabe de casos reportados en las Islas Malvinas (que gracias a Margaret Tatcher y a sus acciones militares siguen siendo británicas), que por razones obvias importan ganado de Inglaterra. En México, sin embargo, las harinas de carne como alimento para animales del mismo tipo no habían sido prohibidas explícitamente hasta el 28 de junio de 2001, cuando se publicó la Norma Oficial Mexicana correspondiente (nom-060-zoo-1999), que prohíbe la alimentación de bovinos con restos de bovinos (¡trece años después que en Inglaterra!). Como miembros del Tratado de Libre Comercio se cerraron rápidamente las fronteras mexicanas a la importación de ganado y cárnicos de áreas con sospecha de enfermedad (la insólita aparición de un elefante indocumentado en la Ciudad de México, basta para alimentar nuestras inquietudes y pesadillas). Por otro lado, y sin ánimo catastrofista, es necesario subrayar, como lo hizo notar la revista Science hace unos meses, que existe la posibilidad de transmisión originada en nuestro propio continente, como ha ocurrido con las epidemias de encefalopatia espongiforme que diezmaron las granjas de visones en Estados Unidos, y que aparentemente se expandieron debido a la alimentación enriquecida con restos de bovinos.
Por el momento, la única forma de diagnosticar con certeza si una persona padeció la enfermedad, es mediante la autopsia (lo que sirve de poco al paciente). En la actualidad se trabaja intensamente en el desarrollo de pruebas que permitan la identificación rápida mediante análisis de sangre u otros tejidos. Aunque se han desarrollado técnicas analíticas que permiten detectar si un bovino ha sido alimentado con piensos preparados con restos de animales, ninguna precaución está de más. Como advirtió a principios de marzo la revista Nature Medicine, si bien es cierto que algunos grupos de investigadores —como el dirigido por Michael Clinton del Roslin Institute de Edimburgo—, han logrado detectar la inactividad parcial de un gen involucrado en la formación de glóbulos rojos en los animales infectados mucho antes de presentar la encefalopatía, existe el riesgo potencial de que personas infectadas por priones puedan transmitirlos por vía sanguínea.
Es difícil pensar que con la globalización exista alguna región del mundo que pueda permanecer aislada de las epidemias y los patógenos que las causan. Así que las precauciones exitosas que México ha tomado con los bancos de sangre para evitar los contagios de sida y hepatitis b y c, por ejemplo, justifican también la reciente recomendación (vigente en los Estados Unidos) de que quienes hayan vivido en Inglaterra en los últimos diez años no donen sangre; aunque se trate de una proporción minúscula de la población. Y tal vez valdría la pena que los aficionados a los embutidos importados de Europa, siempre tan sabrosos, recordaran la famosa frase de Bismarck: “al que le gusten las salchichas y la política, que no vean como se hacen las unas y la otra”.
La moraleja del cuento es...
La reflexión sobre estos desastres nos debería dejar conocimientos útiles. El enriquecimiento del ganado usando cadáveres para acelerar la engorda ha resultado una tragedia que, ciertamente, era difícil de prever. Empero, hoy tenemos conocimiento del efecto dañino que el uso y abuso de los antibióticos han causado; a pesar de lo cual son cientos de miles de toneladas las que la ganadería utiliza cada año para aumentar la eficiencia de la alimentación, provocando con ello en los humanos un gravísimo incremento en la resistencia a los antibióticos. La otra moraleja es que —como ocurrió en el caso de la encefalopatía espongiforme bovina—, los análisis mal realizados del costo y beneficio son al menos parcialmente responsables de esta tragedia, cuya magnitud es hasta el momento imposible de calcular, como recién afirmó el propio Stanley Prusiner en Le Monde. Cuando se trata de garantizar el bien individual y colectivo, el criterio dominante no puede ser el comercial; lo que conviene recordar en todo momento a quienes definen las políticas públicas de la nación.
![]() |
|||
Samuel Ponce de León R.
Instituto Nacional de la Nutrición “Salvador Zubirán”.
Antonio Lazcano Araujo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Ponce de León R., Samuel y Lazcano Araujo, Antonio. (2002). La demencia vacuna: cuando los priones nos alcancen. Ciencias 66, abril-junio, 28-34. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|||
Políticas científicas y tecnológicas: guerras, ética y participación pública
|
|||
León Olivé
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
La humanidad ha progresado en el terreno de la ciencia. Ahora sabemos más sobre el mundo y hemos aprendido a investigarlo mejor. Pero también hemos progresado en la comprensión del conocimiento, de la ciencia y de la tecnología. Entendemos mejor en qué consisten, cómo se desarrollan y cuál es la naturaleza de sus productos.
A principios del siglo xxi, lo que podríamos llamar “ciencia pura” ha sido desplazado —social, cultural y económicamente— por la “tecnociencia”, es decir, por un complejo de saberes, prácticas e instituciones en los que están íntimamente imbricadas la ciencia y la tecnología. Encontramos ejemplos paradigmáticos de tecnociencia en la investigación nuclear, en la biotecnología, que elabora vacunas, en la investigación genómica, que produce alimentos genéticamente modificados y que ha comenzado a clonar células humanas en busca de la producción de órganos y de terapias “a la medida”, y la vemos también en la informática y en el desarrollo de las redes telemáticas.
Sin embargo, la entrada del siglo xxi no da pie a más optimismo, que al de algunas notas sobre el progreso científico y sobre el conocimiento acerca de la ciencia y la tecnología. Con las enormes posibilidades de intervención en la naturaleza y en la sociedad que éstas abrieron, han venido muchas consecuencias bondadosas, pero también muchas más indeseables y peligrosas. En el siglo xx la física atómica sirvió para desarrollar tanto técnicas terapéuticas y formas de generar energía eléctrica, como bombas. La biotecnología ha desarrollado antibióticos y bacterias resistentes a ellos que ahora amenazan con usarse como armas. El desarrollo de la química dio lugar a una de las industrias más contaminantes del ambiente. La tecnociencia, pues, nos está dejando un planeta contaminado, cuya energía estamos consumiendo a una velocidad suicida, al que se le han estado destruyendo sistemas que protegen la vida como la capa de ozono, y que se está calentando a partir de emisiones de gases generados por los seres humanos, provocando las conocidas consecuencias en el cambio climático.
Pero no es sólo por eso que ha comenzado mal el siglo xxi. También tenemos razones para ser poco optimistas en virtud de las guerras que corren por estos tiempos, en las que se utilizan armas de todos tipos; desde sencillos instrumentos y armas convencionales que provienen de la tecnología más tradicional, hasta diversos productos de la tecnociencia, como las “bombas inteligentes”.
A raíz de estas guerras los ciudadanos del mundo se están enterando al menos de una forma nunca antes asumida oficialmente: en muchos países —desde los democráticos “más avanzados” hasta los más tradicionalistas—, durante décadas se han estado produciendo bacterias y virus, a veces genéticamente modificados, para resistir antibióticos y vacunas actuales que ahora pueden usarse como armas. Nadie sabe con certeza cuántas de estas potenciales armas hay en el mundo, ni exactamente de qué tipo son, o al menos eso han declarado recientemente portavoces de la otan. La Unión Europea se ha declarado incapaz de enfrentar la amenaza del bioterrorismo.
Todo esto hace ineludible el planteamiento de preguntas como: ¿Realmente han contribuido la ciencia y la tecnología al progreso de las sociedades humanas? ¿De qué forma? ¿Han hecho más felices a los seres humanos, o han servido más para la destrucción del planeta?
Desde luego preguntas como éstas no pueden ser respondidas por la ciencia o por la tecnología, y menos por los políticos o por quienes se dedican a los negocios. Para responderlas adecuadamente es necesario elucidar conceptos como “progreso” y “felicidad”, y entender qué significan para las personas en sus diferentes contextos sociales. Pero estas tareas son las que típicamente se hacen desde el campo de las ciencias sociales y de las humanidades.
Si es necesario comprender algo, ante el triste panorama recién planteado, es que ya han quedado atrás los tiempos en que la evaluación de la ciencia y de la tecnología, y más aún, la discusión y la toma de decisiones sobre las políticas de su desarrollo, atañen tan sólo a los expertos, o en su caso, a los políticos asesorados por éstos. En este siglo que inicia, dadas las consecuencias de la tecnociencia en la sociedad y en la naturaleza, es más necesaria que nunca la participación pública en la evaluación y el diseño de políticas científicas y tecnológicas.
Los sistemas técnicos
Comencemos por recordar que no hay una única manera legítima de concebir a la ciencia, a la tecnología, ni a la tecnociencia, y es por eso que hay diversas maneras de entender la importancia de la participación pública en la evaluación de políticas científicas y de tecnologías concretas, así como de los riesgos que implica su aplicación. Veremos que incluso la evaluación de algo aparentemente tan técnico como la “eficiencia” de un sistema tecnológico no puede depender únicamente del juicio de los expertos, sino que debe involucrar la participación de quienes serán afectados por esa tecnología.
La tecnología muchas veces se entiende como algo reducido a un conjunto de técnicas, o en todo caso de técnicas y artefactos, pero es insuficiente para dar cuenta de ella y de su importancia en el mundo contemporáneo. Una mejor aproximación a la tecnología la ha ofrecido, por ejemplo, el filósofo español Miguel Ángel Quintanilla, quien llamó la atención sobre el hecho de que la tecnología está compuesta, antes que nada, por sistemas de acciones intencionales. El principal concepto para entender y evaluar sus impactos en la sociedad y en la naturaleza es entonces, el sistema técnico.
Éste consta de agentes intencionales (por lo menos una persona o un grupo de personas con alguna intención), un fin que lograr (abrir un coco o intimidar a otras personas), algunos objetos que los agentes usan con propósitos determinados (la piedra que se utiliza instrumentalmente para pulir otra y fabricar un cuchillo), y un objeto concreto que es transformado (la piedra que es pulida). El resultado de la operación del sistema, el objeto que ha sido transformado intencionalmente por alguien, es un artefacto (el cuchillo).
Al plantearse fines, los agentes intencionales lo hacen inmersos en una serie de creencias y valores. Alguien pule una piedra porque cree que le servirá para cortar frutos. La piedra pulida es considerada por el agente intencional como algo valioso. Los sistemas técnicos, entonces, también involucran creencias y valores.
Hoy en día estos sistemas pueden ser muy complejos. Pensemos tan sólo en una planta núcleoeléctrica o en un sistema de salud preventivo, en el cual se utilizan vacunas. En estos sistemas están indisolublemente imbricados la ciencia (de física atómica en un caso y de biología en el otro) y la tecnología; por eso suele llamárseles sistemas “tecnocientíficos” (por comodidad, nos referiremos a ellos como sistemas tecnológicos).
La comunidad de usuarios
La idea de eficiencia tecnológica supone que las metas y los resultados de la operación del sistema pueden medirse de manera objetiva, independientemente de los motivos y creencias de los agentes intencionales, cuyas metas y propósitos son parte integral de éste.
Pero la evaluación de la eficiencia enfrenta una seria dificultad. Mientras el conjunto de metas o de objetivos (0 en el cuadro) puede identificarse con razonable confianza —una vez que ha quedado establecido el conjunto de agentes intencionales que diseñan y operan el sistema, puesto que se trata de sus objetivos—, el conjunto de resultados (R), en cambio, no puede identificarse de la misma manera y es que los resultados que se producen y que son pertinentes para dicha evaluación no dependen únicamente de los agentes intencionales que diseñan o que operan el sistema técnico ni de la interpretación que ellos hagan de la situación.
El problema es que la identificación del conjunto de resultados, que sea relevante tomar en cuenta, variará de acuerdo con los intereses de diferentes grupos y sus diversos puntos de vista, pues muy probablemente cada grupo aplicará criterios distintos para identificar el conjunto de resultados. Sin embargo, el problema es que no existe una única manera legítima de establecer esos criterios. La eficiencia, entonces, es relativa a los criterios que se usen para determinarlos.
Por ejemplo, la eficiencia de un nuevo diseño de automóvil podrá medirse y determinarse según los propósitos que se planteen los tecnólogos que lo diseñan, digamos en la mayor velocidad que éste pueda alcanzar en autopistas, con menor consumo de gasolina y menor contaminación ambiental. Pero quizá tal velocidad incremente el número de accidentes y en consecuencia el número de heridos y muertos en las carreteras. ¿Considerarían los ingenieros que diseñaron el vehículo a estos datos como resultados no previstos al medir la eficiencia del coche? Lo menos que podemos decir es que es un asunto controvertido.
Un ejemplo ahora ya famoso fue el del uso de clorofluorocarburos en los refrigeradores y latas de aerosol, que provocaron el adelgazamiento de la capa de ozono. Incluir o no este resultado para determinar la eficiencia de los sistemas de refrigeración en los que se usó este refrigerante es, de nuevo, por lo menos un asunto que depende de los criterios aplicados; y éstos no son únicos ni tienen una objetividad absoluta.
Por tanto la eficiencia no puede considerarse como una propiedad intrínseca de los sistemas técnicos. La aplicación de una tecnología entraña, casi siempre, una situación de riesgo o de incertidumbre —presupongo la habitual distinción entre situaciones de riesgo, cuando se sabe qué probabilidad atribuir a los resultados posibles, y las de incertidumbre, cuando se desconoce el espacio de probabilidades para los sucesos que se consideran posibles. Siempre será necesario elegir cuáles son las consecuencias que se consideran pertinentes para evaluar la eficiencia del sistema técnico. Aunque la determinación de su relevancia será un asunto controvertido que dependerá de los diferentes intereses y puntos de vista.
Sin embargo, esto no quiere decir que la eficiencia sea algo subjetivo. Ésta es objetiva en el sentido en que una vez que los fines propuestos quedan establecidos por los agentes intencionales que componen el sistema, y una vez que el conjunto de resultados queda determinado intersubjetivamente por quienes la evaluarán, entonces se desprende un valor determinado de la eficiencia, que no depende de las evaluaciones subjetivas que cada uno de los agentes o los observadores hagan de las consecuencias (por ejemplo que les gusten o no). Esto significa que en su determinación deben participar todos los que serán afectados por la tecnología en cuestión.
Ética y democracia
¿Cómo afectan, actualmente, la ciencia y la tecnología a la sociedad que finalmente las sostiene y las hace posibles? No hay una única respuesta válida a esta pregunta ni una única correcta. La percepción de la forma en la que la tecnociencia afecta a la sociedad y a la naturaleza está íntimamente ligada a su comprensión y a la de sus beneficios, amenazas y peligros. Esta comprensión, a su vez, depende de quienes intenten hacer la evaluación de sus valores e intereses.
En este campo no hay un acceso privilegiado a la verdad, a la objetividad o a la certeza del conocimiento, y es por eso que en este aspecto se encuentran al mismo nivel los científicos naturales y sociales, los tecnólogos, los humanistas, los trabajadores de la comunicación, los directivos de empresas, los políticos, y la sociedad en general.
Esto no significa desconocer que los diferentes sectores de la sociedad, así como sus diferentes miembros, tengan un acceso diferenciado a la información pertinente y a los recursos para evaluar las consecuencias de la tecnociencia. Pero sí, que no hay nada que otorgue en principio un privilegio a algún sector de la sociedad.
La indispensabilidad de la participación pública en las discusiones y en la toma de decisiones sobre política científica y tecnológica, no sólo se deriva del carácter esencialmente debatible del riesgo para la sociedad y para la naturaleza que implica el desarrollo tecnocientífico; ni se deriva tan sólo de la indeterminación de las consecuencias de la aplicación de la tecnología. Tampoco se desprende únicamente del propósito ético de que el conocimiento científico y tecnocientífico sea público, en el sentido de estar a disposición de toda persona, y muy especialmente cuando se trata de conocimiento sobre los riesgos de sus aplicaciones y sus consecuencias.
Si queremos justificar en el orden ético el que todo el conocimiento se haga público —es decir que sea accesible a cualquier persona—, ya que es moralmente condenable que hoy en día tienda cada vez más a privatizarse —como con las patentes por ejemplo, pero también al ocultar muchos desarrollos biotecnológicos que fácilmente son convertidos en armas—, y si queremos en suma justificar la participación pública en las decisiones sobre política científica y tecnológica, entonces requerimos ciertos supuestos de la moderna concepción de “persona” y “sociedad” democrática.
Se entiende por persona a aquellos agentes racionales y autónomos que tienen la capacidad de razonar, lo que les permite hacer elecciones, así como decidir el plan de vida que consideran más adecuado para ellos.
Con base en la definición anterior, hay dos principios que fundamentan las relaciones humanas éticamente aceptables y que son pertinentes para nuestro propósito. Un principio manda nunca tratar a las personas sólo como medios, mientras el otro indica que siempre se debe permitir actuar a los individuos como agentes racionales autónomos.
Sobre la democracia, como ha señalado Luis Villoro, conviene distinguir dos acepciones: una como ideal regulativo, la democracia como proyecto de asociación conforme a valores tales como “la equidad en la pluralidad de los puntos de vista, el derecho a la decisión libre de todos, la igualdad de todos en la decisión del gobierno, la dependencia del gobierno del pueblo que lo eligió”; y otra como “un modo de vida en común en un sistema de poder”. La segunda, se refiere a la democracia como un sistema de gobierno, como “un conjunto de reglas e instituciones que sostienen un sistema de poder, tales como: la igualdad de los ciudadanos ante la ley, derechos civiles, elección de los gobernantes por los ciudadanos, principio de la mayoría para tomar decisiones, división de poderes”.
Hablar de una justificación ética de la participación pública en la evaluación y en la toma de decisiones sobre política científica y tecnológica nos remite al primer sentido de democracia; el de un proyecto de asociación conforme a los valores señalados.
La forma cómo se han desarrollado las políticas científicas y tecnológicas en las sociedades democráticas actuales —nuestro país incluido, con su incipiente democracia formal—, supone sólo la segunda acepción de democracia; en donde las diferentes partes que participan se rigen por su interés particular y alcanzan acuerdos políticos según sus fines y su poder político y económico real.
Bajo esta concepción de la democracia como “un modo de vida en común en un sistema de poder” la evaluación y, sobre todo, la gestión de la política científica y tecnológica quedarían sujetas a la misma competencia y lucha de intereses entre diferentes grupos que se enfrentan en otras esferas de la vida pública. Las razones para defender una amplia participación pública en el diseño y la gestión de las políticas científicas y tecnológicas —desde el punto de vista de las agencias estatales, por ejemplo, o de las industrias que aplican sistemas tecnocientíficos—, serían puramente prudenciales, ya que dicha participación constituiría “la mejor garantía para evitar la resistencia social y la desconfianza hacia las instituciones” y hacia la expansión tecnocientífica. Se trata de una razón pruedencial, pues no estaría fundada en valores y normas morales compartidos, ni en principio ético alguno, sino sólo en la idea de que es conveniente “evitar la resistencia y la desconfianza”.
Hay otras razones, sin embargo, para justificar la participación pública, que sólo tienen sentido si se ligan a la noción de democracia asociada al primer grupo de valores señalados con anterioridad; como, por ejemplo, que la tecnocracia es incompatible con esos valores democráticos (la equidad en la pluralidad de los puntos de vista, el derecho a la decisión libre y la igualdad en la elección del gobierno).
Pero si enfocáramos tan sólo estos valores tendríamos que librar todavía otro escollo, pues podría surgir la objeción bien conocida de que, en cuestiones de ciencia y tecnología —sobre todo en relación con los riesgos que implica su aplicación—, el conocimiento especializado es necesario para establecer cuestiones de hecho, por ejemplo, acerca de relaciones causales (o por lo menos de correlaciones estadísticamente significativas) entre ciertos fenómenos y ciertos daños.
No es posible decir: “el derecho a la decisión libre de todos”, cuando se trata, por ejemplo, de aceptar o rechazar una hipótesis científica, y menos cuando se trata de estimar el riesgo que corren los consumidores de ciertos aditivos alimenticios, o los vecinos de centrales nucleares o de un aeropuerto. En ese sentido el conocimiento científico no es algo que se decida democráticamente.
Sin embargo, en ciertas circunstancias, los juicios de los inexpertos también son necesarios y pueden ser tan razonables como los de los expertos. ¿Pero cómo fundamentar esta tesis, sin caer en el absurdo de que el conocimiento científico es algo que se decide democráticamente?
Al defender la participación pública, se sugiere, entonces, que el juicio de los expertos no es el único razonable y válido, ni el único necesario en tomarse en cuenta, como lo vimos en el caso de la evaluación de la eficiencia de un sistema técnico. Pero no sólo eso; en la aplicación de la inmensa mayoría de sistemas técnicos, cuando hay grupos sociales afectados por sus consecuencias, su participación es necesaria, por razones epistemológicas antes que éticas, para complementar la evaluación de los expertos. Hay, como he sugerido antes, un pluralismo epistemológico en la naturaleza de la ciencia y de la tecnología, que fundamenta el argumento de la legitimidad de los diversos puntos de vista.
Así, aunque ni el conocimiento científico ni el tecnocientífico se validen democráticamente, en ciertas circunstancias sí pueden equipararse ciertos juicios de expertos y de legos en cuanto a su pertinencia y razonabilidad.
Pero todavía queda un aspecto más por recordar; en buena medida la evaluación y gestión de estas políticas implican decisiones no sólo en cuanto a restricciones sobre posibles aplicaciones de sistemas tecnológicos, porque podrían ser perniciosos, sino que también involucra decisiones sobre compensaciones y posibles sanciones. El desarrollo tecnocientífico, hoy en día, afecta en tal grado a la naturaleza y a la sociedad, que su evaluación y gestión implican un debate moral y político sobre la atribución de responsabilidades. Lo que conduce a la discusión de la importancia del debate y las controversias, no sólo entre expertos, sino con la participación de amplios sectores del público.
Políticas y participación pública
“Ideal de la democracia —escribe Luis Villoro— es conceder a cualquier miembro de la sociedad la capacidad de decidir libremente sobre todos los asuntos que conciernen a su vida”. Pero “la técnica” y el enfoque tecnocrático para abordar los principales problemas de las sociedades contemporáneas, han obligado a los ciudadanos “a atenerse a las decisiones de los especialistas. Y los dominios en que éstas se llevan a cabo son cada vez más amplios. Los ciudadanos acaban reduciendo su actividad a la de obedientes consumidores de ideas y productos, incapaces de decidir por sí mismos en la mayoría de los asuntos comunes”.
La justificación ética de la participación pública en la discusión de las responsabilidades de los científicos y tecnológos en la generación de riesgos, así como en la evaluación, aceptación y gestión de las políticas en ciencia y tecnología como en cualquier otra política pública, entonces, se basa en el intento por ofrecer las condiciones adecuadas para ejercer las capacidades más básicas que el pensamiento moderno ha otorgado a las personas; concibiéndolas no como los ciudadanos abstractos de la democracia formal, sino como los racionales e inteligentes miembros de carne y hueso “afiliados a varias entidades sociales, pertenecientes a varios grupos y culturas específicas con características propias y una identidad que los distingue”. Se trata de personas en posición de ejercer su autonomía, lo que significa “decidir sobre su propia vida, en un entorno concreto, participar por lo tanto, en las decisiones colectivas en la medida en que afecten a su situación personal”.
“Guerras de las ciencias”
Para comprender la estructura y el desarrollo de la ciencia y de la tecnología, así como los desafíos que presentan a las sociedades modernas y para dar respuestas a los dilemas éticos y, en general, valorativos, que plantean a los científicos, a los gobernantes y a los ciudadanos de la calle, no es suficiente la imagen que proyectan los científicos y tecnólogos de sus propias actividades y de sus resultados, como tampoco bastan las concepciones de los economistas que toman decisiones de gobierno o de apoyo a la investigación científica y tecnológica.
Esto exige una reflexión desde otras disciplinas como la filosofía, la historia, la sociología, la economía y la psicología, sobre todo cuando la ciencia y la tecnología son su objeto de estudio.
Por esto es lamentable que, mientras hay guerras en el mundo, en las cuales se mata y se sojuzga a gente y hasta pueblos enteros, en el medio académico se hayan librado, y sigan todavía, otras guerras que, con consecuencias inmediatas aparentemente menos desastrosas, en nada ayudan a las sociedades modernas para comprenderse a sí mismas, y para entender el fenómeno científico-tecnológico.
Me refiero a lo que en otras latitudes se le ha llamado “la guerra de las ciencias” (entre las ciencias y las humanidades), y que en México, sin ser abiertamente reconocida, se da de manera más o menos oculta. Un ejemplo de esto, en nuestro medio, lo constituyen algunos artículos escritos por el matemático José Antonio de la Peña quien, por ejemplo, escribía hace no mucho en la revista de la Academia Mexicana de Ciencias —de la cual es presidente en este momento— que muchas “posiciones de los filósofos contemporáneos debilitan a la ciencia” y que “los filósofos de la ciencia” —dicho así, en general—, eran los responsables de fomentar o por lo menos de contribuir notablemente a afianzar una creencia popular en que la ciencia no tiene nada de racional ni logra, por lo general, conocimiento objetivo.
Lo lamentable de este tipo de afirmaciones por parte de hombres de ciencia es que contribuyen a la mala comprensión de la filosofía, porque parten de la incomprensión de ésta, cuando no de la ignorancia, y por tanto también a una mala comprensión de la ciencia. En el caso de la Peña, queda claro que desconoce que si algo ha logrado en las últimas décadas la filosofía de la ciencia es comprender mejor y explicar en qué consiste la objetividad y la racionalidad científica. Esto ha sido el resultado de un largo proceso de discusión a lo largo del siglo xx, a partir de trabajos de autores que de la Peña acusa de “irracionalistas”, como Kuhn y Feyerabend.
La visión filosófica de la ciencia permite entender mejor, no sólo la naturaleza de la ciencia y de la tecnología, sino también cuál es la relación éticamente justificable entre las comunidades científicas y tecnocientíficas, los políticos y la sociedad. Podemos concluir, pues, que es realmente necesaria la intensificación del diálogo entre la filosofía y las ciencias, así como su amplia proyección al público no especialista.
La sociedad, que es finalmente la que sostiene la investigación y la enseñanza de la ciencia y la tecnología, merece que la información esté a su alcance para poder tomar parte en las decisiones que afectarán su vida en un futuro.
La unam tiene las condiciones para desarrollar un amplio y ambicioso programa que ofrezca al público, a los funcionarios del Estado y a los empresarios, una buena comprensión del fenómeno científico-tecnológico, de su importancia social, cultural y económica, y de su impacto en las sociedades modernas. Para ello tan sólo se requiere que la unam coordine e impulse —bajo una perspectiva humanística— los muy diversos esfuerzos que se hacen en la investigación, la enseñanza y la difusión de la ciencia y la tecnología, así como en la filosofía de la ciencia y en los estudios de ciencia, tecnología y sociedad.
La unam no sólo tiene las condiciones ideales para terminar —al menos en México— con las “guerras de las ciencias”, sino que además es responsable de promover una cultura en el país, que tienda a fomentar la participación pública en la evaluación y gestión de la ciencia y de la tecnociencia, para ayudar a evitar que éstas se involucren en otras guerras en el planeta. Pero esto dependerá de que, en la unam también, haya participación pública y plural en el diseño y realización de las transformaciones de su estructura, de sus funciones y en el cumplimiento de su misión.
![]() |
|||
Referencias bibliográficas
Dascal, Marcelo. 1997. “Observaciones sobre la dinámica de las controversias”, en Racionalidad y Cambio Científico, Ambrosio Velasco (compilador). Paidós-unam, México.
Echeverría, Javier. 1995. Filosofía de la Ciencia. Ediciones Akal, Madrid.
. 2001. “Tecnociencia y sistemas de valores”, en López Cerezo y Sánchez Ron (editores).
El País, España, 28 de octubre de 2001.
López Cerezo, José A. y José Luis Luján. 2000. Ciencia y Política del Riesgo. Alianza Editorial, Madrid.
López Cerezo, José A. y José M. Sánchez Ron. (editores). 2001. Ciencia, Tecnología, Sociedad y Cultura. Biblioteca Nueva, Organización de Estados Iberoamericanos, Madrid.
Olivé, León. 1999. Multiculturalismo y Pluralismo. Paidós/unam, México.
. 2000. El Bien. El Mal y la Razón. Facetas de la ciencia y la tecnología. Paidós/unam, México.
Peña de la, José Antonio. 1999. “El fin de la ciencia: ¿sueño o pesadilla?”, en Ciencia, vol. 50, núm. 1. México.
Pérez Ransanz, Ana Rosa. 1999. Kuhn y el cambio científico. FCE, México.
Quintanilla, Miguel Ángel. 1989. Tecnología: un enfoque filosófico. Fundesco, Madrid.
. 1996. “Educación moral y tecnológica”, en L. Olivé y L. Villoro (eds.), Educación, Moral e Historia, Homenaje a Fernando Salmerón. unam, México.
Villoro, Luis. 1997. El Poder y el Valor. fce, México.
|
|||
León Olivé
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Olivé, León. (2002). Políticas científicas y tecnológicas: guerras, ética y participación pública. Ciencias 66, abril-junio, 36-45. [En línea]
|
← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||||||||||||||
|
|||||||||||||||
Del ojo, ciencia y representación | |||||||||||||||
J. Rafael Martínez Enríquez
conoce más del autor
|
|||||||||||||||
|
← Regresar al índice ⁄ artículo siguiente → | ||||||||||||||
La pintura, la mecánica y la anatomía, son tres grandes temas que permean la obra escrita de Leonardo. Esta tríada de intereses lo llevó al estudio de los sentidos, en particular al de la visión, por ser éstos los canales utilizados por el hombre para obtener el conocimiento del mundo. Si se pudiera decir que Leonardo apuntaba hacia la presentación de una teoría del conocimiento, un aspecto central de ésta sería que la lógica interna —la de la mente— funcionaría de manera muy similar a la lógica de los fenómenos naturales. Gracias a ello, la mente del observador podría penetrar en la “mente” de la naturaleza para actuar como su intérprete, y exponer las causas y manifestaciones de sus leyes.
Según Leonardo, las leyes, razones y necesidades de lo acontecido en el mundo se definen a partir de las matemáticas, lo que en su mente visual se refería a las formas y figuras utilizadas por la naturaleza para conformar sus estructuras y dirigir sus fuerzas.
Se ha vuelto un lugar común señalar que las disciplinas teóricas como la ciencia escolástica y la óptica, al ocuparse de la visión, eran las que más interesaban a los artistas; por lo que éstos en sus aspiraciones a hacer de la pintura una disciplina liberal, recurrieron a la óptica como sustento de la perspectiva lineal o artificial, y a las bases geométricas que hacían de la pintura una ciencia. Sin embargo, para poder justificar estas técnicas se requería una teoría que explicara la naturaleza del proceso visual, y en particular la del papel desempeñado por el ojo.
La ciencia griega reconoció, casi desde sus orígenes, la necesidad de que el ojo actuara como mensurator, es decir, como una especie de instrumento que diera cuenta de las relaciones espaciales con los objetos contemplados. Identificar los mecanismos y procesos que lo permiten se convirtió en una tarea, por demás compleja, la cual tomaría más de dieciocho siglos llevar a cabo —desde Euclides hasta la transmisión del pensamiento árabe a Occidente, pasando por Al-Kindi y Alhazen.
Nuestro tiempo ha hecho inseparable el nombre de Euclides de su opus magnum, los Elementos, considerado como el tratado de geometría más influyente de la historia. Esto ha oscurecido la existencia de otras obras del mismo autor, algunas ya perdidas, que apuntaban hacia una preocupación por presentar el conocimiento de lo natural bajo los moldes de su geometría. Tal es el caso de la Óptica, obra en la que pretende usar rayos visuales rectilíneos para dar cuenta de formas, tamaños relativos y posiciones de objetos situados en el campo visual.
Uno de los elementos centrales en la Óptica de Euclides es la noción de transmisión rectilínea de la luz, la cual ya aparece como principio en el Parménides de Platón y en los Problemata del texto atribuido a Aristóteles. La percepción de este hecho parte de observaciones como la del “perfil del cono de luz”, en particular de las aristas que se forman al hacer un agujero en la pared de un cuarto a oscuras bañado por luz exterior
.
Euclides se sitúa del lado de los estoicos y su doctrina extromisionista al suponer que el proceso de visión inicia con rayos emitidos por el ojo que se dirigen al objeto observado. Estos rayos forman un cono visual cuyo vértice se localiza en el ojo y su base sobre la superficie del objeto (figura 1). Esta aseveración aparece repartida entre las “Suposiciones” I y II de la Óptica: 1) Supóngase que los rayos que salen del ojo van por líneas rectas y que entre sí se apartan a distancias cada vez mayores; y 2) que las figuras comprendidas entre los rayos visuales es un cono cuya punta está en el ojo y la base en las extremidades de las cosas vistas.
Al medir la distancia recorrida por los rayos antes de incidir sobre el objeto, Euclides era capaz de determinar la posición que ocupaba en el campo visual. En particular, el ángulo subtendido por el cono podía ser medido y utilizado para calcular, en principio, el tamaño y la forma de objetos situados a distancia. El teorema cuatro de la Óptica establece este hecho en forma cualitativa: “Entre las distancias iguales puestas sobre una misma línea recta, las que se mirasen de más lejos parecerán menores”.
La óptica geométrica desarrollada por Euclides resultó tan exitosa en su descripción de las características espaciales de la realidad, que aun quienes mantenían opiniones encontradas respecto a la dirección del proceso visual —es decir, tanto extromisionistas como intromisionistas— emplearon el esquema de los rayos visuales para analizar los fenómenos ópticos. El mismo Aristóteles recurrió, cuando la situación lo ameritaba, a rayos que emanaban del ojo, aunque por lo general se presentaba como defensor de la teoría intromisionista, en particular en el De caelo y los Metereológicos.
Sin lugar a dudas, fue Ptolomeo quien llevó a la cúspide la propuesta euclidiana de la visión, convirtiéndola en el punto de partida de las versiones árabes que constituyen la base de la óptica, desarrollada a partir de Roger Bacon en el mundo occidental.
La ciencia de la visión
Durante la Antigüedad, en el periodo helenístico, el conocimiento de los fenómenos ópticos se distribuía, a grosso modo, en cinco ámbitos: a) la óptica propiamente dicha, que se ocupaba del estudio geométrico de la percepción del espacio, y de las ilusiones provocadas por la perspectiva, es decir, por el conjunto de elementos que determinaban la forma concreta de lo que el observador percibiría como imagen del objeto visto; b) la catóptrica, el estudio geométrico de las reflexiones de rayos visuales que inciden sobre espejos; c) el estudio de espejos que queman —speculis comburentibus—, es decir, las superficies reflejantes que mediante reflexiones hacían converger los rayos solares; d) los fenómenos atmosféricos como el arco iris y las auroras boreales; e) el estudio de la visión como parte de la filosofía y de una medicina que podríamos calificar como teórica.
Dentro de los temas de la propagación de la luz y del proceso visual, la doctrina dominante era la del “rayo visual”; según la cual, la acción de ver se lleva a cabo mediante un haz divergente de rayos emitidos por el ojo que dan lugar a un cono, cuyo vértice se localiza sobre el ojo, en donde las “espigas” son los rayos visuales que se propagan en línea recta; recorriendo los objetos que se presentan a su paso. De acuerdo a esta doctrina —llamada extromisionista— ver consiste en “iluminar”, y las condiciones de la propagación de la luz son por consiguiente las de la visión. En esta concepción, que retoma los preceptos estoicos de la constitución y funcionamiento del mundo, la propagación y el acto de visión se remiten el uno al otro, constituyéndose al mismo tiempo en las condiciones de la óptica antigua y en el limitante para su desarrollo ulterior.
Concebida la visión como un acto de “palpar” lo que se encuentra a distancia, tal y como lo establecen las doctrinas estoico-continuistas, que utilizan la mezcla de pneuma y aire como medio transmisor de la información, la óptica se concibe como una geometría de la percepción. Este problema condujo a la elaboración de una serie de supuestos teóricos abstraídos de los hechos observados —ciertamente bajo la lente de una interpretación ad hoc de los fenómenos— como es el de la variación de la magnitud de los objetos visibles, al haber motivo de cambios en la distancia entre el ojo y el objeto de su atención. Debe quedar claro que en este problema no importa el objeto en cuanto a su aspecto real, sino sólo como apariencia frente a un ojo que lo contempla. El sistema presentado por Euclides puede ser calificado, en este sentido, como geometría de las apariencias.
La ciencia de la visión en el Islam
Abrevado de esta tradición óptico-geométrica, en el siglo ix, el científico y filósofo árabe Al-Kindi se convierte en el gran renovador de la óptica griega, proponiéndose como tarea “difundir las enseñanzas de los antiguos” y “rectificar los errores cometidos”. El resultado de esta empresa es su Liber de causis diversitatum aspectus, mejor conocido como De aspectibus, en el que una parte considerable del texto se ocupa de demostrar o justificar lo que Euclides, después de haber adoptado el modelo instituido en sus Elementos, sólo había postulado: la propagación rectilínea de los rayos luminosos.
Esto lo realizó partiendo de consideraciones geométricas sobre las sombras proyectadas por un obstáculo que interrumpe parcialmente el paso de un haz lumínico, y analizando las trayectorias no alteradas. Sin embargo, acepta la teoría extromisionista de la visión introduciendo una variante en la versión euclidiana del cono visual. Según esta, el cono está constituido por rayos visuales discretos, lo cual no parece aceptable para el científico árabe, pues considera que el cono se forma por un volumen de radiación que es llenado de manera continua.
En esta interpretación el rayo deja de ser una mera recta geométrica y se convierte en la impresión producida por los cuerpos que llenan el espacio. El rayo ya no es un ente material ni algo con sustancia, sino una transformación del aire que separa al ojo del objeto. Así el poder visual prepara al medio para transmitir aquello que se convertirá en sensación visual en el ojo. En De aspectibus nos dice que “un rayo es una impresión de los cuerpos luminosos sobre los cuerpos opacos”, y su nombre —luz— proviene de la asociación con la alteración de los accidentes (o cualidades secundarias, cuya existencia depende de un ente que las perciba) correspondientes a los cuerpos que reciben la impresión. Por lo cual un rayo es tanto la impresión como aquello sobre lo que se localiza la misma. Sin embargo, el cuerpo que la produce posee tres dimensiones: longitud, anchura y profundidad. Por ende el “rayo” no sigue líneas rectas entre las cuales ocurren intervalos “vacíos de líneas”.
Por si esto no fuera suficiente para negar lo unidimensional del rayo visual, Al-Kindi nos recuerda que si consideramos como líneas sin grosor a aquello que emana del ojo y toca al objeto observado, entonces estas líneas terminan en un punto, el cual, por definición, no posee anchura. Por tanto, dichos rayos sólo serían capaces de percibir un punto, pero un punto no es percibido pues no posee longitud ni espesor ni profundidad [...] lo que significaría que estos rayos [los visuales] perciben lo que no es susceptible de ser percibido, [...] lo cual es absurdo. A partir de esto Al-Kindi concluye que el mero hecho de que los rayos visuales perciban puntos (en realidad los puntos deben poseer al menos áreas pequeñas), indica que tienen grosor y longitud. El argumento apela exclusivamente a lo que entendía como rayo visual, pero si se toma en cuenta la naturaleza del ojo y el poder visual —la capacidad del alma de ejercer una acción con el fin de llevar a cabo la percepción visual—, Al-Kindi podía defender su tesis de la unidad constituida por los rayos visuales manifestada como un cono radiante continuo: “si las partes del instrumento de la visión son continuas, es decir, una sola sustancia, entonces el poder visual se localiza en todo el instrumento. ¿Qué es entonces lo que da forma a un cono de líneas, dado que el instrumento que ejecuta la impresión es un ente continuo, sin intervalos, y por ello el poder visual no estaría en ciertos sitios y sí en otros?”
Dicho de otra manera, el molde y su producto se deben corresponder uno a otro, y no pueden existir vacíos donde el molde no lo hubiera determinado así. Con plena conciencia de estar ofreciendo un modelo de un fenómeno natural —en oposición a quienes sostendrían que el modelo corresponde a la realidad, es decir, que los elementos del modelo corresponden a entes físicos—, no desecha la posibilidad de una tarea análoga llevada a cabo por Euclides, y se arriesga a sugerir la posibilidad de que para el autor de los Elementos la radiación conforma un continuo, pero que en lo que se refiere a su descripción basta con recurrir a un número infinito de líneas geométricas discretas dado que “las fronteras de la figura cónica impresa en el aire por el poder visual se recorre con la rectitud de líneas rectas separadas por intervalos”.
En contraste con Euclides y Ptolomeo —para quienes el cono visual tiene su vértice dentro del ojo, ya que los rayos emanan de la pupila; razón por la cual el cono visual es único—, en Al-Kindi encontramos que cada parte de la córnea en contacto con el exterior es un punto de partida de un cono. Así, todos los puntos que constituyen el campo de visión de un observador son iluminados por los rayos que, al salir de cualquier parte del ojo, tienen una conexión en línea recta con dichos puntos. Este modelo permite a Al-Kindi dar una explicación —aceptada por todos—, de que el rayo axial que va del vértice del cono al centro del círculo que sirve de base al cono, es “el más fuerte” de todos y por ende, lo iluminado es lo que se percibe con mayor claridad.
Bajo los supuestos anteriores, el problema que surgía, era establecer qué se entiende por “rayo más fuerte”. La respuesta que se deduce del modelo de Al-Kindi es que la multiplicidad de conos —en contraposición con el cono único de Euclides, que contribuye a la visión y hace que el objeto situado donde incide el rayo axial sea bañado por más rayos— posibilita una mejor o más efectiva transformación del medio que enlaza al objeto con el ojo, y cuyo efecto se traduce en una percepción más clara del objeto (figura 2). Además, esta explicación rebatía dos soluciones que pretendían salvar al cono único de visión como la causa eficiente —aristotélicamente hablando— del acto de observación. Una de ellas sostenía que el ojo emite rayos en todas direcciones y que la perpendicular a la superficie ocular en un punto cualquiera marcaba, para éste, la dirección del rayo que produciría un mayor efecto. La otra afirmaba que la claridad o pureza de la percepción sólo dependía de la distancia entre el ojo y el objeto.
Como se puede apreciar, la propuesta de Al-Kindi resultaba más sencilla, pues requería un menor número de hipótesis ad hoc para explicar la claridad de la visión en una dirección privilegiada —la que se encuentra directamente opuesta a la pupila. Por otra parte, esta idea no surge de la nada, simplemente consiste en otorgar a la superficie del ojo las mismas características que posee un cuerpo luminoso, el cual —según el De aspectibus— desde cada una de sus partes ilumina, enviando rayos en todas direcciones, es decir, alumbra todo aquello que puede ser enlazado con sus partes mediante una línea recta. Este es un nuevo principio óptico que permite una explicación alternativa a la vieja teoría intromisionista —situada en términos generales dentro de las corrientes atomistas y aristotélicas— según la cual se desprenden simulacra, una especie de copia del cuerpo observado, que llegan al ojo para dar paso, por contacto, a su percepción visual. Para producir la imagen en el ojo es necesario que los simulacra viajen manteniendo la coherencia entre sus partes y sin interferir en caso de cruzarse en su trayectoria.
El ojo pasivo de Alhazen
El Kitab Al-manazir (Libro de óptica) de Ibn Al-Haytham, conocido en occidente como Alhazen, inicia con un rechazo hacia todas las variantes de la doctrina del rayo visual y se inclina por quienes sostienen la doctrina intromisionista de las “formas” de los objetos visibles, misma que en tiempos recientes había tenido entre sus más preclaros defensores a Avicena y Averroes. Sin embargo, su postura se limita casi exclusivamente a la cuestión de la dirección en que se mueve el agente que da pie a la percepción: las formas percibidas por el ojo no procedían de “totalidades” que emanaban de un objeto al ser bañado de luz, sino que dichas formas podían ser reducidas a elementos básicos.
Según Alhazen, de cada punto del objeto visible emana un rayo que llega al ojo, pero éste carece de alma, de pneuma óptico, y sólo es un instrumento. Esta idea remitió a la vieja doctrina atomista que, con fines opuestos, inspiró a Al-Kindi, sin embargo, su propósito era precisamente reformar la teoría de la visión propuesta por este último. En los dos capítulos que abren su Óptica se establecen, en primer lugar, las condiciones de posibilidad de la visión, y después presenta las correspondientes a la luz y su propagación. En ambos casos las condiciones se presentan como consecuencia de observaciones metódicas del fenómeno luminoso o de experiencias rigurosamente controladas.
Las condiciones relativas a la visión propuestas por Alhazen son cinco: 1) lo visible debe ser un ente que despida luz por sí mismo o debe ser iluminado por algún otro objeto; 2) lo visible debe estar presente frente al ojo, es decir, que entre ambos se puede trazar una recta que los conecte; 3) el medio que separa al ojo del objeto visible debe ser transparente y sin que se interponga un obstáculo opaco; 4) el objeto visible debe ser más opaco que el medio; 5) el volumen del objeto debe mantener una cierta relación con la acuosidad visual.
Alhazen considera que todo esto es necesario para que tenga lugar el acto de visión, a lo cual se agregan algunos supuestos acerca de la luz: 1) existe independientemente de que la perciba un observador; 2) la luz de una fuente lumínica (sustancial, es decir, que la produce) y la de un objeto iluminado (accidental, que sólo le produce cambios en la dirección de propagación) se desplaza a su alrededor, penetra a través de los cuerpos transparentes e ilumina los opacos, lo cual induce a que parezca que éstos últimos la emiten cuando en realidad sólo la reflejan; 3) la luz se propaga en línea recta a partir de todos los puntos de la fuente o del objeto iluminado. Estas rectas virtuales determinan las trayectorias de propagación de la luz y dan lugar a los “rayos”.
Las líneas o rayos pueden ser paralelos o cruzarse, sin impedir la mezcla de luces. Igualmente, las luces reflejadas o refractadas se propagan en líneas rectas en direcciones particulares, determinadas por leyes naturales (la ley de refracción aún no se establecía. Es hasta el siglo xvii que Snell, Descartes y Hariot llegan a ella de manera independiente). Como se puede constatar, estas características de la luz y de su propagación no remiten ni dependen de las condiciones necesarias para la visión. Sin embargo, una teoría completa de ésta debe tomar en cuenta tanto estas características como las mencionadas previamente, y es esto lo que precisamente realiza Alhazen en su Óptica, traducida al latín en el siglo xii —llamada indistintamente De aspectibus, Óptica o Perspectiva— y estudiada durante por lo menos cuatro siglos más; siendo la fuente de inspiración de los tratados de Roger Bacon, Witello, John Pecham y las enciclopedias ópticas medievales, las cuales serían superadas hasta el siglo xvii por Kepler, Descartes, Gregory, Newton y Huygens.
El séptimo libro de la Óptica de Alhazen se ocupa de la dióptrica, es decir, de las leyes de propagación de los rayos luminosos que inciden sobre lentes o medios transparentes y los atraviesan. Conforme avanza el texto se hace evidente que Alhazen ha abandonado toda referencia a rayos visuales y procede geométricamente, pero a diferencia de Euclides y Ptolomeo, quienes establecían axiomas acerca de los rayos visuales y deducían resultados geométricos a partir de ellos, Alhazen defiende una teoría intromisionista basada en la observación y la experimentación. Con esto la óptica deja de ser una geometría de la percepción y se convierte en una teoría de la visión ligada a una fisiología del ojo, a una psicología de la percepción y a una teoría de la luz que conjuga una geometría óptica y una óptica física.
Es importante enfatizar en este análisis de los cambios en la concepción del ojo como instrumento de visión, que los estudios de imágenes refractadas por superficies planas o esféricas —en particular por las correspondientes a lentes—, recurren exclusivamente a líneas que representan rayos lumínicos y que sufren desviaciones siguiendo leyes geométricas. Son estas mismas leyes y consideraciones las que pone en juego en las secciones de su Óptica, en donde describe lo ocurrido en el ojo durante el acto de visión. Y es por lo menos hasta el momento de la percepción cuando las reglas geométricas valen tanto fuera del ojo como dentro de él. Los elementos incorpóreos, como el alma, sólo intervienen en etapas posteriores a la recepción de los rayos lumínicos en el interior del ojo.
Su Óptica se aleja de las obras precedentes, ya que concede mayor importancia —algo inusitado en su tiempo— a la invención y utilización de dispositivos experimentales que pusieran a prueba tanto los principios ópticos relacionados con la visión, como el comportamiento de la luz. Sin embargo, todavía existía cierta reticencia para ir más allá de los aspectos cualitativos, y para tomar en cuenta los valores numéricos obtenidos y su eventual concreción en leyes físicas o geométricas que expresaran relaciones entre cantidades. Esta circunstancia se entiende fácilmente en tanto las descripciones cuantitativas de un fenómeno sólo eran relevantes en el caso de la astronomía y en los cómputos calendáricos, a lo que se sumaba la dificultad de obtener valores precisos en las mediciones.
Las prácticas controladas de experimentación y la nueva interpretación del proceso de visión coadyuvaron a que la óptica dejara de ser una disciplina en gran medida psicológica —refiriéndose con ello a la participación en gran escala del alma— y se transformara en una de carácter físico, cuyos elementos de trabajo serían los rayos lumínicos. Las consecuencias de esta revolución en el pensamiento óptico fueron inmensas y prefiguraron un elemento esencial de las ciencias de los siglos xvi y xvii: tomar como un hecho real a lo que previamente se habían considerado cualidades secundarias, aquéllas que sólo tenían razón de ser ante la presencia de un sujeto que las percibiera.
Para la vieja óptica de Euclides y Ptolomeo, que gira en torno a rayo visual, la imagen percibida es una especie de espejismo, y por consiguiente la ausencia del observador, al despojarla de su razón de ser, le quita toda existencia objetiva. Con Alhazen la imagen posee otro estatuto, la de un ente real cuya existencia es independiente a la existencia de un observador que la perciba. Ciertamente, si la naturaleza actúa de esta manera, la visión resulta un proceso más complicado y requiere nuevas respuestas a preguntas como ¿qué es la luz?, ¿cómo actúa sobre el ojo?, ¿cuál es el papel de éste en la visión?, y más en particular, ¿existe un sitio privilegiado donde se registra la percepción?, ¿y en qué consiste ésta? Alhazen respondió a todas estas interrogantes en el contexto de una nueva teoría acerca de la naturaleza de la luz, de su propagación y de la manera como afecta al órgano visual. Al hacerlo aporta un maravilloso ejemplo de la adaptación de un órgano, tanto en su estructura —geometría y enlaces entre las partes— como en las características de sus tejidos para el cumplimiento de su función.
Para entender lo que está en juego cuando Alhazen reforma la óptica debemos retornar a Aristóteles y sus comentarios sobre los vínculos causa-efecto y del porqué ocurren las cosas. Según el filósofo, las esferas celestes giran por obra y gracia del “primer motor”, y dicho movimiento por un efecto de cascada más o menos complejo que a su vez provoca los cambios en el mundo. Sin embargo, nunca aclara cuál es el mecanismo del cambio ni cuál es su causa eficiente. Para esto Al-Kindi tenía una respuesta: los responsables del cambio son los rayos emitidos por las esferas. Las esferas, estrellas, y todo lo existente emite rayos en todas direcciones, lo cual permite que el universo entero esté causalmente ligado por una red de radiaciones que inunda el espacio.
En De radiis Al-Kindi argumenta que los rayos salen no sólo de los ojos, sino también de las palabras. Según lo cual, los rayos visuales conectan nuestros sentidos con el mundo mediante la transformación del aire frente a nosotros, de manera que pueda transmitir las cualidades relacionadas con la “forma” y el “chroma” o color. Los rayos existen como entes físicos, originándose en las sustancias y actuando sobre las formas: las sustancias, compuestas a partir de los cuatro elementos —aire, agua, tierra y fuego—, no se alteran, pero cada cualidad, excepto la composición, se modifica por el efecto de la radiación recibida. Los rayos del sol nos permiten ver y también nos dan calor, y cuando son concentrados por un espejo llegan incluso a quemar; las medicinas irradian sus efectos a través del cuerpo; las piedras magnéticas atraen clavos y las estrellas, según su composición, afectan a los objetos aquí en la Tierra.
Estas ideas tuvieron un efecto duradero en el pensamiento científico y explican el que los practicantes de la ciencia en el Medievo otorgaran a la óptica un papel muy especial. Si la acción de la luz se reduce a rayos desplazándose en líneas rectas, entonces la ciencia que se ocupa de estas líneas —la óptica geométrica— podría ser utilizada para explicar la transmisión de las causas en los procesos naturales, por lo que las leyes de la naturaleza serían análogas a las de la óptica. Estas nociones remitían claramente a las ideas de la causa como emanación, propuesta por Plotino y otros neoplatónicos, cuyos textos integrarían una de las corrientes más importantes del Renacimiento. Su efecto se había dejado sentir previamente en hombres de la talla de Roberto Grosseteste, quien entre 1230 y 1240 escribió dos pequeños tratados —De lineis, angulis et figuri y De natura loci— en los cuales defiende que la naturaleza y su telar de líneas de transmisión de las causas se estructuran según patrones geométricos propios de los rayos de luz.
Esta propuesta es utilizada sólo de manera parcial por Alhazen, pues como se mencionó previamente, rechazaba que hubiera emanación alguna desde el ojo. Las razones que aducía eran de carácter físico: “Si la visión ocurre gracias a que algo transita desde el ojo hasta el objeto, entonces dicha cosa es un objeto o no lo es. Si lo es [...] entonces al contemplar las estrellas, en ese momento sale de nuestros ojos un cuerpo que llena todo el espacio entre el cielo y la tierra sin que el ojo pierda nada de sí mismo. Pero esto es imposible y a la vez absurdo [...] Si por el contrario, aquello que sale del ojo no es un cuerpo [no posee sustancia], entonces no podrá “sentir” al objeto visible, dado que las sensaciones son propias únicamente de los cuerpos animados. Por consiguiente nada sale del ojo para “sentir” al objeto visible”.
Y en defensa de que la visión ocurre gracias a que algo penetra en el ojo, Alhazen argumenta: “Quienquiera que mira hacia una fuente de luz muy intensa experimenta una sensación de dolor [en el ojo] y un posible daño [físico]”. Otra experiencia que menciona es que si se observa un objeto blanco bajo una luz intensa, o si se mira desde una habitación a oscuras hacia una ventana por la que entra luz, al cerrar los ojos, en ambos casos, se mantiene la imagen del objeto o de la ventana, según sea el caso, y los detalles finos se percibirán sólo si la luz no es muy intensa o muy débil. La adopción de esta nueva concepción de la naturaleza de la visión tenía consecuencias con respecto a la adecuación de la anatomía ocular y a la misión de las estructuras hasta entonces identificadas.
En el diagrama del ojo que propone Alhazen, y cuya versión ilustrada aparece en la Opticae Thesaurus Alhazenis, se pueden reconocer los principales estratos que integran el ojo. (figura 3). Cabe señalar que él llama humor cristalino a lo que hoy se conoce como lente cristalino. Esta terminología obedece a que no poseía ninguna idea del funcionamiento de una lente y que, además, atribuía a esta estructura una tarea diferente a la realmente desempeñada, la cual, como se verá más adelante, resulta principal en el proceso visivo. También habría que mencionar que la situó en el centro del ojo y no hacia el frente, en donde realmente le corresponde. Esto se debe a que no llevó a cabo ninguna disección —la ley islámica lo prohibía—, por lo que se limitó a retomar lo establecido en los antiguos textos de anatomía, en especial el de Galeno.
La razón para situar al cristalino en el centro obedece más a cuestiones filosóficas que a la observación o a la tradición: al ser el ojo el depositario del más noble de los sentidos, debería poseer la forma esférica —al igual que el universo, según lo argumentó Platón en el Timeo—, y el cristalino, el órgano sensorio de la visión y por ello el más importante, debería entonces ocupar la región central, lo cual además contribuiría a su protección.
El mecanismo de visión propuesto por Alhazen dice que: “si el objeto es opaco, entonces posee color. Y si es iluminado por cualquier tipo de luz, ésta se fijará sobre la superficie, y de su color irradiará una luz que partirá como forma que se extiende en todas direcciones [y] al alcanzar el ojo producirá sobre él un efecto [...] y el ojo sentirá el objeto”.
Dado que el color es una “forma”, el objeto no emite nada sustancial y, por tanto, no pierde materia. En el caso de la luz es diferente, pues toda fuente de luz al irradiar emite parte de su materia, como se puede verificar con la disminución que sufre una vela encendida. Más adelante Alhazen se inspira en el De usu partium galénico para proponer que la luz y el color después de pasar por el humor acuoso y la pupila, interactúan con el humor cristalino, y de ahí la imagen del objeto pasa al alma. El que la impresión visual tenga lugar en el cristalino lo deduce a partir de su transparencia —como lo registraban las disecciones del globo ocular— haciéndolo partícipe de las características de la luz, además de que al perforar la pupila opaca en las operaciones de cataratas, la visión mejora, lo cual no sucedería si la pupila fuese la responsable de percibir el objeto. Por otra parte, si los rayos atravesaran incólumes el cristalino para ser detectados en la pared posterior del ojo, en la membrana conocida actualmente como retina, aparecería todo invertido (figura 4), pero al no suceder así sólo quedaba el cristalino como detector de los rayos.
Falta por establecer la manera en que se identifica la forma o la imagen del objeto observado. Si se acepta —como lo propone Alhazen—, que de cada punto del objeto iluminado salen rayos en todas direcciones, entonces un haz de ellos llegará al ojo; y si todos pasaran por la pupila hasta incidir en el cristalino, se tendría una región iluminada; es decir, cada punto de la fuente de luz daría lugar a una zona iluminada en el cristalino, lo cual ciertamente no produciría una imagen bien definida del objeto, menos aún si tomamos en cuenta la superposición de las contribuciones de los distintos puntos. Este problema lo resuelve Alhazen señalando que de todos los rayos que constituyen el haz proveniente de un punto, sólo uno toca la superficie en dirección perpendicular a la curvatura de dicho órgano, y es este rayo el único percibido por el cristalino.
La elección del rayo perpendicular la justifica al recurrir al fenómeno de refracción, o cambio de dirección, conocido desde la Antigüedad, el cual se produce cuando los rayos de luz pasan de un medio a otro que difiere en densidad. Si la cara del ojo situada frente al objeto es esférica, se piensa entonces que sólo el rayo que incide perpendicularmente pasa sin ser refractado. El resto de los rayos sufre una desviación —sin tener una ley cuantitativa que la gobierna— que depende del ángulo de incidencia sobre la pupila; como consecuencia éstos se debilitan de tal manera que sería imposible su detección en el cristalino. Lo mismo ocurría en cada uno de los puntos del objeto observado, y, por tanto, la imagen producida sería la causa exclusiva de las contribuciones de los rayos que inciden perpendicularmente, dando lugar a una correspondencia, punto por punto, del objeto con su imagen.
Pero, ¿cómo son percibidas estas impresiones sobre el cristalino por el alma?, es decir, este conjunto de puntos que se acomoda en dicha estructura semitransparente, ¿llega a ella punto por punto o es que el cristalino los une como una “forma” —una unidad— semejante a lo observado? En tiempos de Alhazen era imposible dar una respuesta correcta a esta interrogante. Sin embargo, es digno de elogio el avance alcanzado, pues para entonces ya se tiene la idea de que la luz es una sustancia que viene del Sol, de una fogata, vela o cualquier otro emisor. Algo de ella toca a una flor y gracias a esto desde cualquier punto se desprende un rayo que se hace acompañar del “chroma” —aquello que engloba al color y hasta la textura del objeto—, por lo que no importa cuántos observan, pues cada uno puede recibir esta mezcla y dar cuenta del objeto en términos iguales. A grandes rasgos, el proceso así descrito es correcto y nos lleva a percibir las diferencias entre los enfoques de Al-Kindi y Alhazen: la luz de la que habla éste último es la que nos permite ver, en tanto que la del primero es sólo una más de las múltiples radiaciones que cruzan el universo. La primera desciende de Euclides y Ptolomeo y la segunda de Platón y Plotino, y corresponde a una forma imperfecta del modelo ideal existente en el ámbito de lo eterno. Alhazen habla de leyes ópticas y de cómo la luz alcanza al cristalino obedeciendo a leyes geométricas, de donde se colige que las leyes de la óptica son el modelo de los principios que rigen el orden natural de las cosas.
|
|||||||||||||||
Epílogo: Leonardo
Las ideas de los tratados ópticos de Al-Kindi y Alhazen alcanzaron Occidente en menos de dos siglos, y su influencia se refleja en los escritos de Roger Bacon, Witelo y John Pecham, quienes trabajaron en sitios lejano entre sí: Bacon en Oxford y Lincoln; Witelo en París, Padua y Viterbo, y Pecham en París y Oxford. Ellos constataron la difusión y aceptación de las nuevas fórmulas del pensamiento científico acerca de la visión y de los entes que participan en ella. Al iniciar el siglo xv el interés por la óptica adquiere una nueva dimensión, al incluir como problema no sólo la percepción, sino la representación del espacio. Esta nueva faceta añadía y, en cierta forma, opacaba el afán por entender el acto visivo y las formas en que la luz se constituía en una mediación entre el mundo material y el mundo divino. Dejando de lado las cuestiones metafísicas, los nuevos tratados poco tenían que añadir a sus fuentes árabes. Al parecer, antes del surgimiento de la perspectiva, se pensaba que los antiguos habían agotado las verdades matemáticas que merecían ser incluidas en los textos y sólo quedaba reproducirlas y, en ciertos casos, presentarlas en forma más transparente.
Las palabras poseían un peso inmenso durante la Edad Media. Una nueva forma de decir algo constituía un elemento nuevo del saber, pero el diseño de una técnica no se sumaba a lo que se consideraba el acervo intelectual de la humanidad. El acto de “hacer” formaba parte de las artes, que sin el apellido de “liberales” eran inapropiadas para los hombres cultos que dominaban la lengua de Cicerón. La superficie de un muro o una tela sobre un bastidor eran los medios para representar una escena e ilustrar un asunto religioso o cortés, pero quien creaba la escena no estaba considerado a la altura de los humanistas. En este contexto Leon Battista Alberti escribe Della Pittura y manifiesta su intensión de hacer de la pintura una de las “artes liberales”. El éxito de su empresa queda manifiesto cuando hablamos de la pintura y de otras expresiones del quehacer humano como “artes”.
Leonardo, lector de Alberti y consciente de la necesidad de establecer bases metodológicas y conocimientos basados en las propiedades y comportamiento de la luz, la anatomía del ojo y una teoría de la percepción que fuera más allá de las enseñanzas aristotélicas, se convirtió en un destacado representante de los nuevos impulsos del Renacimiento. Su labor forma parte del cambio de actitud ante lo que se consideraba una ocupación digna y que abriría un mar de posibilidades para la búsqueda del conocimiento utilizando nuevas herramientas, empresa en la que los problemas ópticos jugaron un papel determinante. Este nuevo espíritu dio lugar a una nueva civilización, a una sociedad tan diferente que a la vuelta de dos siglos no sintió pesar al bautizar como “época oscura” a la que le dio origen.
![]() |
|||||||||||||||
Referencias bibliográficas
Alhazen. 1572. Opticae Thesaurus: Alhazeni arabis libri septem nunc primum editi… Risner Friedrich (ed.). Johnson Reprint, New York.
Euclides. 1996. Ottica. Immagini di una teoria della visione. Traduzione e note di Francesca Incardona. Di Renzo Editore, Roma.
Lindberg, David C. 1981. Theories of Vision from Al-Kindi to Kepler. The University of Chicago Press, Chicago.
Da Vinci, Leonardo. 1995. Libro di Pittura. Codice Vaticano Urbinate lat. 1270. A cura de Carlo Pedretti. Trascrizione critica di Carlo Vecce. 2 vols. Giunti. Firenze.
Ptolomeo, Claudio. 1996. Ptolemy’s Theory of Visual Perception. An English Translation of the Optics with Introduction and Commentary by A. Mark Smith. Transactions of the American Philosophical Society, Philadelphia.
Strong, Donald S. 1979. Leonardo on the Eye. English Translation and Commentary of MS. D in the Bibliothèque Nationale, Paris. Garland Publishing, Inc, New York.
|
|||||||||||||||
J. Rafael Martínez Enríquez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Martínez Enríquez, J. Rafael. (2002). Del ojo. Ciencia y representación. Ciencias 66, abril-junio, 46-57. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |
![]() |
![]() |
||
|
|||
Morbilidad psiquiátria entre los profesionales de la salud
|
|||
Arnoldo Kraus
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
En el ámbito médico, es lugar común escuchar que los doctores son los peores pacientes. De ser cierta esa aseveración, es menester recurrir a varias hipótesis para explicar porqué los médicos, al enfermar, confrontan, viven, interpretan o cambian el significado de los padecimientos. Hipótesis que tiene la magia de representar una de las verdades más fascinantes, y, a la vez, menos conscientes de la medicina: enfermedad, enfermo y médico, al unirse, interactúan y representan una historia.
Observar desde afuera ese escenario no es menos interesante que ocupar una butaca en el teatro. Presenciar los vínculos entre médicos supuestamente sanos —esa es una de las funciones de la bata y de los diplomas que burocratizan las oficinas médicas— y doctores, probablemente enfermos, cargados de síntomas y signos, puede ser una experiencia irrepetible. ¿Está seguro el doctor enfermo de que el doctor médico tiene el don de la escucha y el estetoscopio en el corazón? ¿O que la pluma prescribe lo que debe? La trama es difícil: ser doctor y enfermo a la vez resulta complejo. Ser doctor-enfermo y creer en el doctor-doctor es una aventura con infinidad de caminos.
Todo es factible; el paciente habla y el médico escucha; habla el galeno y oye el doctor transformado en paciente; ambos conversan pero ninguno escucha. Después sigue la actuación; emerge el dolor físico, del alma, del vacío; siguen los tonos diversos de la voz, los ademanes, los guiños. El paso siguiente es caminar a la sala de exploración; desvestirse, señalar el sitio del dolor, voltearse, respirar hondo, arrugar la frente, soplar y describir con algún movimiento y palabras aquello que tanto lastima; hasta que, finalmente, se vuelve imprescindible encontrar la oración precisa que convierta el dolor en diagnóstico. Pero ¿qué implica el escenario anterior? Será tan sólo una forma de actuación, cuya dinámica se modifica, quizá más, cuando el enfermo es doctor.
Estos juegos, repetidos y estudiados, sufridos y esperanzados, son ensayos y preámbulos de infinidad de repertorios. No en balde muchos pacientes, antes de hablar, sacan del bolso una serie de anotaciones que son como el guión de su enfermedad. Los médicos enfermos lo hacen con frecuencia: la lista asegura que todas las quejas queden registradas; sus síntomas y sospechas no pueden, no deben, defraudar su autodiagnóstico; cada síntoma equivale a una porción del reparto, cada doctor un actor potencial, y cada nota, convertida en dolor, una súplica de cura.
La pregunta sería entonces: ¿saben más los doctores enfermos acerca de su mal que los enfermos no doctores? La experiencia lo niega, ya que los médicos llegan a alterar la realidad. Es común, y quizá demasiado frecuente, diagnosticar depresión en psiquiatras o médicos que acuden con el internista en busca de un algo que lo “todo” explique.
La historia clínica y las notas posteriores son elementos en los que el médico construye el “otro” esqueleto del doliente. Probablemente, sea, incluso, el más importante, el más real, pues contiene la vida del sujeto leída a partir del dolor, quien, al sufrir, reinventa su verdadera historia con tal de sanar o transformarse en otro. Si uno fuera capaz de reproducir las quejas de los médicos pacientes, las novelas sobre enfermedad y con ellas alguna cura, no sólo proliferarían, sino que podrían ser libros de texto. No hay paradoja oculta; a partir del dolor la verdad se convierte en realidad.
Regreso a las hipótesis de que los doctores son los peores pacientes, porque imaginan más de lo que deben y sobreinterpretan sus síntomas al creer que saben demasiado. Además, hay quienes consideran que el mejor médico es el más famoso, pero en el camino descubren que tanta ocupación genera una atención impersonal (Charles Bukowski solía decir que la fama es la peor puta de todas). No son pocos los que se consideran inmortales, mientras otros, a pesar de saberse deprimidos, acuden desesperadamente en busca de algún diagnóstico físico que oculte los males del alma; tal vez, porque desconfían de la medicina, de ellos y, por supuesto, del de enfrente. Por tanto, ser médico enfermo es complejo: ¿cuántos doctores consultan a tiempo? ¿Cuántos consideran que no afrontar la enfermedad puede ser más terapéutico que ser diagnosticado? ¿Cuántos aceptan el destino de ser ahora enfermos?
Quizá también son malos pacientes, porque conocen los efectos colaterales de los medicamentos y desconocen, a pesar de manifestar lo contrario, las heridas de la enfermedad. Si la tan mencionada y rediviva relación médico-paciente es todo un reto, ¿qué decir de la relación médico-médico enfermo? Y a la vez, si comprender síntomas y palabras es de por sí un acto complejo, ¿cómo entender el dolor disfrazado, digerido e interpretado por un médico,que difícilmente acepta su psicopatología, que no siempre quiere decirlo “todo”, y que, por supuesto, no desea saberlo?
Virginia Woolf, quien fue objeto de tratamientos médicos inadecuados durante su temprana vida adulta, solía decir que “realmente sólo un doctor es peor que un esposo”. Vecino en tiempo y espacio, George Bernard Shaw comentó, “no conozco a ninguna persona pensante y bien informada, que no sienta que la tragedia de la enfermedad, sea la que deja al enfermo desvalido en las manos de una profesión de la cual se desconfía profundamente”. Repasar el libro de La señora Dalloway y El dilema del Doctor, no sólo garantiza la lectura de obras exquisitas, sino que además ofrece un panorama literario lleno de desencuentros de la sociedad con el mundo médico. No hay galeno a quien le gustaría ser el tema de estos y otros intelectuales que han juzgado nuestra profesión con tanto rigor.
Desde el punto de vista de un internista, me queda ocuparme de la morbilidad de los médicos. Para ello recurro a los pasillos del hospital, a las paredes de mi consultorio y a las lecturas de diversas revistas médicas. Por ahí deambulamos un sinfín de profesionistas con títulos que no siempre evitan el que seamos catalogados como “casos”. Ser un “caso” —término inventado por la ciencia médica— es mal negocio, ya que convierte al ente en objeto, al paciente en no persona y al signo y síntoma en una serie de posibilidades, cuya interpretación modifica al enfermo en algo “interesante”. Sus células heridas lo transforman en patología y su condición de sujeto, de humano, se esfuma y desaparece. Los famosos deja vu y jamais vu de la psiquiatría son sólo parte de la historia de esa conversión; el individuo que ha dejado de ser ente, se transforma en una suerte de despojo del ser por su propio ser. ¿Qué dirían Freud, Lacan, Fromm o ustedes mismos ante tal transmutación? Esa situación es particularmente compleja cuando el “caso” es el médico enfermo.
Son diversas las formas y niveles de tal morbilidad; una de ellas, poco aceptada, se engloba, paradójicamente, en el conocimiento. En las revistas médicas los galenos hablamos de medicina, de pacientes, de células, de tecnología, de ciencia profunda (hay quien no sólo conoce la molécula, sino que tiene sueños eróticos gracias a ella) y de nuevas y viejas enfermedades. Tales revistas son incontables y por ende, uno supondría, innumerables los descubrimientos. Nada es más falso; los artículos que pasan desapercibidos son miríada. El universo de lo desechable por intrascendente, porque nadie lo cita o, simplemente, porque la información ahí contenida es inútil, es inmenso. Y sin embargo, quienes lo escriben —supongo yo— son doctores, menos desechables que las ideas generadas por sus cerebros.
A pesar de saber muchas veces la verdad, somos suficientemente doctos para engañar y entregar una investigación inmadura que, por tanto, resulta altamente mortal. ¿Cómo es posible mentir sabiendo que lo estamos haciendo? ¿Complicidad? ¿Enajenación? O bien, ¿cómo incorporarse por obligación en un sistema no siempre deseable? Es probable que una de las formas menos reconocidas de psicopatología médica sea ésta; la de perpetuar costumbres a sabiendas de su inutilidad —escribir no porque haya algo que decirse, sino porque se debe hacerlo— o tal vez, juntar personas y transformarlas en “casos”, hacer congresos “porque toca”, o recetar porque representa una obligación.
El dogma anterior se ha denominado “escribir o perecer”, esto es, publish or perish en el inglés del New England Journal of Medicine. Es injusto que igualemos el deceso de los estadounidenses con el de los mexicanos, ya que la psicopatología de los galenos vecinos es muy diferente, y su óptica médica, en la que sus pacientes “casi” han dejado de ser humanos, difiere mucho de la nuestra. Las defunciones y patologías de enfermos verdaderos o de doctores enfermos son diferentes. En este tamiz hemos copiado enfermedades, e inventado también otra forma de psicopatología; la de una medicina académica yerta de humanismo, pero ávida de publicaciones.
Hay otros tipos de psicopatología médica que han sido estudiados con detenimiento en Europa y en Estados Unidos y que son dignos de tomarse en cuenta como: la drogadicción, la dependencia al alcohol, la depresión y la tendencia al abuso sexual de los pacientes. Se dice también que en la profesión médica la tasa de divorcios y suicidios es más alta que en otras. Es imposible aseverarlo, pero resulta factible que las vivencias cotidianas del médico sean tierra fértil para alguna de esas condiciones. A pesar de esto, no debe soslayarse que el sufrimiento al que están sometidos los doctores puede ser muy grande y constante.
El dictum que sugiere no involucrarse “demasiado” en la vida de los pacientes es, en múltiples ocasiones, sólo un papel y no realidad. Todo doctor recuerda más de una muerte, y ha padecido más de un insomnio por enfermos cuya cura ni siquiera dependía de sus habilidades. Pero seamos realistas, en esta sociedad, ¿a quién le preocupa el sufrimiento del doctor? O bien, ¿qué médico es capaz de saberse melancólico y tiene la capacidad de compartir su dolor con sus pacientes?
El término “síndrome de desgaste”, lo que sea que esto signifique, engloba y predispone muchas de las circunstancias anteriores. El ejercicio de la medicina no se puede separar de la vida cotidiana. Es impensable que los médicos inmunicen su práctica y olviden los desasosiegos que constituyen su vida y la del “otro”. En ese sentido, el sufrimiento tiene dos caras: la que pregunta y por ende fertiliza, y la que desarma y quizá entorpece. La salud psíquica de los médicos depende de una inmensa cantidad de factores, algunos modificables, otros no. De ahí que no exista la fórmula mágica para separar el dolor y el desgaste personal del buen ejercicio de la profesión.
Gilles Deleuze solía decir que no se escribe con las propias neurosis; los médicos no enfermamos de males propios y comunes, padecemos, en ocasiones, otras patologías: las que devienen del conocimiento médico, del sufrimiento, de las malformaciones de una profesión amenazada por tiempos difíciles y relaciones humanas muy deterioradas, así como por las propias flaquezas de cualquier ser humano. La psicopatología del médico imprime diferentes huellas y estigmatiza con otros sellos. Caminar a través del dolor de los otros, saberse poseedor de los certificados que anuncian su nacimiento y su muerte no es gratuito: compromete y amenaza.
Retomo a Deleuze y lo cito: “La neurosis, la psicosis no son fragmentos de vida, sino estados en los que se cae cuando el proceso está interrumpido, impedido, cerrado. La enfermedad no es proceso, sino detención del proceso. Igualmente, el escritor como tal no está enfermo, sino que más bien es médico, médico de sí mismo y del mundo. El mundo es el conjunto de síntomas en los que la enfermedad se confunde con el hombre. La literatura se presenta entonces como una iniciativa de salud: no forzosamente el escritor cuenta con una salud de hierro, pero goza de una irresistible salud pequeñita, producto de lo que ha visto y oído, de las cosas demasiado grandes para él, demasiado fuertes para él, irrespirables”.
Los médicos, al enfermar, recorren senderos distintos. Les compete asimilar su padecimiento para inventar su salud, para generar recetas cargadas de vida y para comprender que sus males son semillas de crecimiento y fuente de entendimiento. El médico enfermo puede convertirse en el mejor doctor de sí mismo, de la comunidad y de un mundo ávido de lecturas de salud y no de enfermedad. El galeno que se ha visto por dentro, que se ha oído a través de su enfermedad, que ha sufrido, es otro. Saber que las células se hinchan, que los músculos lloran, y que el corazón, entre latido y latido, se fractura no por dolor, sino por ausencia de escucha, es hacer de la enfermedad una filosofía de vida. La empatía y la ahora olvidada filosofía de la medicina nacen también ahí: en el doctor enfermo y en el médico que ha cuidado médicos.
![]() |
|||
Arnoldo Kraus
Instituto Nacional de la Nutrición “Salvador Zubirán”.
_______________________________________________________________
como citar este artículo → Kraus, Arnoldo. (2002). Morbilidad psiquiátrica entre los profesionales de la salud. Ciencias 66, abril-junio, 60-64. [En línea]
|
← Regresar al índice ⁄ artículo siguiente → |
|
|||
Cuasares
|
|||
Deborah Dultzin
conoce más del autor
|
|||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Los cuasares son objetos celestes que por más de treinta años han cautivado e intrigado a los astrónomos. El primero se descubrió en 1960, pero no fue sino hasta 1963 cuando los astrónomos comprendieron (o creyeron comprender) lo que estaban viendo. Aunque el objeto tenía la apariencia de una débil estrellita azul, desde un principio se sospechó que no se trataba de ninguna estrella ordinaria, pues fue detectada por su emisión de radiofrecuencia. Sólo después pudo ser identificada como un objeto visible, ya que las estrellas no emiten con esa intensidad.
Una de las técnicas más usadas en astronomía para analizar la luz de los objetos es la espectroscopia, mediante la cual podemos descomponer la luz blanca y analizar por separado los diferentes colores (longitudes de onda o frecuencias) que la componen. Pues bien, al analizar el espectro de este primer cuasar quedó de inmediato claro que, a pesar de su apariencia de “estrellita azul”, no se parecía a ninguna estrella en sus características espectrales (que reflejan básicamente la temperatura). De hecho, no era similar a ningún cuerpo celeste conocido hasta entonces. Marten Schmidt resolvió este enigma cuando logró identificar, en el espectro de uno de estos objetos, el patrón de emisión producido por el hidrógeno, el elemento más abundante en el Universo. Sin embargo, las longitudes de onda que aparecían en este patrón habían sido desplazadas sistemáticamente hacia el lado rojo del espectro (aparecían con longitudes de onda mayores que en el laboratorio). El desplazamiento era tan grande, que los astrónomos tardaron tres años en encontrar un patrón reconocible, el cual, al poco tiempo, fue utilizado para identificar otros objetos similares.
Después de haber descartado otras posibles causas de este desplazamiento al rojo, vino la interpretación aceptada, hasta el día de hoy, por la gran mayoría de los astrónomos; que es la expansión del Universo lo que causa el alejmiento entre las galaxias. Ésta es una de las predicciones más importantes que se desprende de la teoría de la relatividad general, formulada por Albert Einstein alrededor de 1915, y que fue comprobada por Edwin Hubble unos años más tarde, quien logró establecer una relación entre la distancia a la que se encuentra una galaxia de nosotros y su aparente velocidad de alejamiento causada por la expansión del Universo.
Esta correlación se conoce como la Ley de Hubble, que dice que la velocidad de recesión (o alejamiento) es mayor, cuanto más lejos se encuentra una galaxia en proporción directa a su distancia. El corrimiento al rojo de los patrones espectrales ya se había detectado en muchas galaxias (aunque nunca en forma tan drástica como apareció en los cuasares), y mediante la Ley de Hubble se medía la velocidad de recesión que se usaba para determinar la distancia a galaxias lejanas. El desplazamiento al rojo se designa con la letra z.
Aplicando esta ley se obtiene una distancia tal, que la luz debe viajar dos billones y medio de años para llegar a nosotros desde este objeto (esto se expresa al decir que el objeto se encuentra a dos billones de años luz de distancia). Entonces quedaba claro que no se trataba de una estrella, sino de un objeto fuera de nuestra galaxia, siendo el más lejano conocidos hasta entonces.
El nombre cuasar es una castellanización del vocablo inglés quasar, formado por las siglas: quasi-stellar radio source. Hoy día se conocen más de siete mil cuasares, quince de los cuales llevan el nombre del observatorio mexicano de Tonantzintla. 3C273 es el más cercano con un el valor es z = 0.158, esto es 15,8 %. Mientras que el más lejano detectado hasta ahora, tiene su espectro corrido al rojo en casi 500% (z = 4.897), lo que implica una velocidad de recesión muy cercana a la de la luz (trecientos mil kilómetros por segundo) —que es la velocidad límite en la naturaleza para el movimiento de la materia y la energía— y que lo sitúa en los confines del Universo observable. La variabilidad en el brillo de algunos cuasares fue el siguiente hallazgo. Se encontró que existían algunos que duplicaban su emisión de luz en un día, lo cual indica que la región que produce esta luz no puede ser mayor que “un día luz” o veinticinco millones de kilómetros (dos veces el tamaño del Sistema Solar). Es decir, que algunos cuasares producen mucho más energía que una galaxia normal —con sus cientos de miles de millones de estrellas— como el Sistema Solar.
Mientras que, por un lado, en los últimos veinte años se ha realizado un intenso trabajo por observarlos en todas las frecuencias posibles, desde las radiofrecuencias (radiación de baja energía) hasta los rayos gamma (la radiación más energética) —lo que ha sido posible gracias al gran avance de la tecnología astronómica de los observatorios espaciales—, por el otro se han intentado formular teorías que puedan explicar los fenómenos físicos que ocurren en los cuasares y, muy especialmente, que puedan dar cuenta de la fuente de tan colosal energía. Hay una serie de fenómenos asociados a los cuasares que son imposibles de explicar mediante algún tipo de radiación estelar conocida, como los chorros de plasma colimados que son emitidos por los objetos radiofuentes, la emisión de rayos gamma y la actividad de los “primos hermanos” más cercanos a los cuasares, llamados blazares, de los que hablaremos más adelante. Además, los datos de variabilidad en las frecuencias de rayos x ponen límites aún más estrictos al tamaño de donde proviene la emisión de esta energía.
De “lagartos” y otros bichos
Algo que ha ido quedando claro a lo largo de todos estos años es que los cuasares no representan un fenómeno tan insólito en el Universo, como se pensó en un principio. Al ir juntando pacientemente las piezas del gran rompecabezas, ha surgido el hecho de que fenómenos muy similares ocurren en los núcleos de algunos tipos de galaxias; por ejemplo, en las radiogalaxias y en las conocidas como galaxias Seyfert (en honor a su descubridor). Los núcleos de todos estos objetos son muy parecidos a los cuasares, aunque varía la potencia emitida de un tipo a otro, y también algunas otras características como la morfología de la galaxia circundante al núcleo. Se sabe, por ejemplo, que los núcleos de las radiogalaxias “viven” en galaxias de forma elíptica, mientras que los núcleos de las galaxias Seyfert “viven” en galaxias de tipo espiral. Los cuasares son tan brillantes que no ha sido fácil detectar la galaxia circundante. El problema se debe al contraste, ya que mientras el núcleo es brillantísimo, la nebulosidad circundante es muy tenue (recordemos que se trata de objetos muy lejanos). Esto ha sido posible gracias a las técnicas digitales modernas con las cuales se pueden obtener y manipular imágenes astronómicas, y al aumento en el tamaño de los telescopios de nueva tecnología. Sin embargo, se han logrado detectar varias de las nebulosidades alrededor de los cuasares. Desde luego, resulta imposible reconocer estrellas en esas nebulosidades para asegurar que son galaxias como las conocidas; también es difícil hablar de su morfología, aunque lo que sí parece ser una característica común es que todas presentan morfologías sumamente perturbadas.
Todos estos objetos se agrupan bajo el nombre común de “núcleos activos de galaxias”, y el encuentro energético de este fenómeno lo constituyen unos objetos conocidos como tipo bl Lac. En los setentas se descubrió una serie de objetivos que presentaban características semejantes a los cuasares, pero mucho más extremas; además de la potencia, presentan una diferencia importante que es la dificultad por detectar sus líneas espectrales. Cuando finalmente se logró encontrar líneas débiles en el objeto prototipo, conocido hasta entonces como la “estrella variable” bl Lacérate (estrella bl en la constelación del Lagarto), se descubrió que ésta tampoco era una estrella, sino un objeto situado fuera de nuestra Galaxia y sumamente lejano. El conjunto de los objetos tipo bl Lac —o lagartos— y los cuasares, cuya luminosidad varía más violentamente en el óptico (ovv, Optically Violently Variable), constituye la clase de objetos conocidos como blazares.
Las tres propiedades en común más importantes de todos los núcleos activos de galaxias es que son de altísima luminosidad, poseen radiación de electrones ultrarrelativistas —es decir, que están acelerados a velocidades cercanas a la de la luz en fuertes campos magnéticos (esta radiación se llama sincrotrónica)— y tienen una estructura muy compacta. Para explicar la generación de energía equivalente a decenas y hasta cientos de veces la emitida por toda una galaxia (desde una región del tamaño del Sistema Solar e incluso menor), se han propuesto varias teorías. Entre las que ha predominado la propuesta hecha hace treinta años por un astrónomo ruso y uno estadounidense. En 1964, Yakov Zeldovich y Edwin Salpeter propusieron, independientemente, que la fuente de energía de los núcleos activos de galaxias podría ser la caída de material (gas y estrellas) a un agujero negro, cuyo centro del núcleo sería de entre uno y varios millones de veces la masa del Sol. Lo que entonces pareció la idea más descabellada, ha resultado ser, a lo largo de estos últimos treinta años, la más probable y aceptada por la comunidad astronómica.
Brotes intensos de formación estelar
Por otro lado, recientemente, algunos astrónomos han retomado y desarrollado otra de las primeras teorías que surgieron para explicar los cuasares: la de explosiones casi simultáneas de estrellas muy masivas (supernovas) que funcionan como fuente de energía, provocando la aceleración de electrones. En la versión moderna de esta teoría se estudia la posibilidad de tener una gran cantidad de explosiones de este tipo, así como la evolución de los remanentes de dichas explosiones en un medio sumamente denso y un volumen muy reducido. Esta alternativa, cuyo atractivo principal es no recurrir a objetos de existencia hipotética —los agujeros negros—, no ha resultado, sin embargo, atractiva para la mayoría de la comunidad de astrónomos, por varias razones.
Una de ellas es que, con base en lo que podemos observar en nuestra Galaxia, las explosiones de supernovas ocurren, en promedio, cada trescientos años, y lo que esta teoría requiere es, aproximadamente, una explosión diaria. Es también hipotético suponer que lo anterior puede ocurrir en el núcleo de las galaxias. Otra razón importante es que, aunque esto sucediera, la teoría excluye la posibilidad de explicar los objetos más energéticos: las radiogalaxias, los objetos bl Lac y los cuasares emisores de rayos gamma, y no puede ofrecer, por tanto, el esquema unificador del modelo del agujero negro. Particularmente, el modelo de las explosiones de supernovas no puede explicar la emisión de chorros de plasma extremadamente colimados y energéticos que se observan en muchos de los objetos mencionados; los más espectaculares son los de las radiogalaxias que se extienden a distancias de hasta miles de años luz. Los descubrimientos más recientes, al respecto, creen que es muy posible que ambas teorías, en lugar de excluyentes, sean complementarias.
Agujeros negros supermasivos
La teoría de la relatividad general describe, en términos de la geometría del espacio-tiempo, la fuerza fundamental a gran escala en el Universo: la gravitación. La presencia de objetos masivos le da curvatura a este espacio-tiempo que se manifiesta como una “fuerza” de atracción hacia estos objetos. Esta teoría amplía la concepción newtoniana de la gravedad y muchas de las predicciones adicionales que ya han sido corroboradas; aunque no todas, como la predicción de la existencia de regiones del espacio, cuya curvatura es tan intensa que las cierra en sí mismas, desconectándolas (desde el punto de vista de intercambio de información) del resto del Universo, y formando así un “agujero negro” en el espacio-tiempo. Como ejemplo, pensemos en los cohetes que impulsan las naves espaciales, a los cuales les deben imprimir una velocidad mínima de once kilómetros por segundo. Pero si la masa de la Tierra fuese la misma y su radio de aproximadamente medio centímetro —en lugar de poco más de seis mil kilómetros—, la velocidad de escape sería mayor a trescientos mil kilómetros por segundo, es decir, mayor que la velocidad de la luz. En ese caso, nada, ni siquiera la luz, podría escapar de la gravedad de un cuerpo con esas características, y ésta es, precisamente, la definición de un agujero negro. El término “agujero” resulta un tanto impreciso, pues no se trata de un hoyo en el espacio, sino más bien de una enorme condensación de materia.
Existen fuertes argumentos, tanto teóricos como resultados de la observación, que apoyan la idea de que este tipo de objetos puede existir en el núcleo de los cuasares y otras galaxias, generando así la energía a su alrededor. El núcleo de las galaxias está conformado por cúmulos sumamente densos de estrellas que muestran —se han hecho cálculos— que pueden colapsarse por su propia atracción gravitacional hasta convertirse en un agujero negro. De manera análoga, se piensa que las estrellas con mayor masa, al final de sus vidas —cuando no soportan su propio peso por la presión de la radiación, ya que toda su fuente de energía se ha agotado (además de que hasta ahora se desconoce alguna de materia con la suficiente “rigidez” para soportar pesos de más de cuatro masas solares)— se colapsan hasta formar agujeros negros. Sólo que, en el caso del núcleo de las galaxias, la masa del agujero negro, como resultado del colapso gravitacional de un cúmulo, sería de varios millones de masas solares. Otra teoría dice que estos agujeros negros pueden ser de origen “primordial”, es decir, que son algo así como pedazos de la singularidad original, a partir de la cual se inició la expansión del Universo, que se quedaron sin expandir. Estos agujeros negros primordiales, al condensarse la materia alrededor de ellos, podrían servir como “semillas” para la formación posterior de galaxias, lo que ayudaría a resolver uno de los problemas más difíciles de la astrofísica: el del origen de las galaxias. En todo caso, la confirmación de la existencia de éstos es, tal vez, el tema más candente en la astrofísica moderna.
Se piensa que la generación de energía tiene lugar cuando la enorme fuerza gravitacional del agujero negro atrae material de la galaxia circundante, gas y estrellas, que por su momento angular (o cantidad de rotación) forma una especie de remolino alrededor de éste. Las estrellas se destruyen previamente, por fuertes fuerzas de marea, al orbitar en las cercanías del agujero negro. El remolino de gas así formado se calienta por la gravedad y la fricción, radiando tanta energía como un billón de soles, cuando sus dimensiones son apenas mayores a las del Sistema Solar. La mayor parte del material atraído acaba cayendo y desapareciendo en el agujero negro, de modo que, para que se manifieste la actividad, el remolino (o disco de acreción) debe tener una fuente de suministro de gas. Así, mientras tenga suministro, el fenómeno durará (se emite energía mientras “el monstruo tenga qué comer”). Sin embargo, parte del gas, —el más lejano al plano ecuatorial del disco (que parece una llanta, ya que no es realmente plano), logra ser acelerado en el borde interno del remolino y emitido al plano del disco en forma de chorros perpendiculares de plasma. Esto puede explicar los chorros de plasma de alta colimación, observados en cuasares y otros núcleos activos de galaxias, y en particular en las radiogalaxias.
Interacciones y colisiones de galaxias
Al preguntarse los astrónomos de dónde puede el agujero negro central obtener tanto material para “engullir” —una vez agotado el gas normal del núcleo galáctico—, varios han afirmado que un cuasar sólo puede formarse cuando hay una colisión entre dos galaxias con una masa similar. Cada una de éstas puede poseer un agujero negro central (en cuyo caso se “funden” en uno solo y se suman sus masas), o éste se puede formar al colisionarse. En cualquiera de los casos, la colisión causa que una gran cantidad de gas fluya hacia el núcleo de la nueva galaxia, “encendiendo” un cuasar. La idea de las colisiones de galaxias no es nueva; en los setentas ya se podían explicar varias morfologías peculiares de las galaxias, como las “colas”, “puentes” y “plumas”, provocadas por fenómenos de interacción, ya sea de manera directa (fusión de galaxias) o indirecta (fuerzas de marea por encuentros cercanos). Un ejemplo típico es el sistema conocido como “la antena” en la constelación del Cuervo. En aquella época, las simulaciones que se podían hacer de la interacción de galaxias por computadora sólo tomaban en cuenta a las estrellas, pero no al gas, lo que era una gran limitante. Cuando dos galaxias, cada una con cien billones de estrellas, chocan y se fusionan, no sucede gran cosa con las estrellas, pues las distancias interestelares son tan grandes, que la mayoría de ellas ni siquiera se tocan. Para hacer simulaciones que incluyan el gas se requieren supercomputadoras (como la Cray que adquirió recientemente la unam) y que han dado resultados sumamente interesantes. El gas que llena los enormes volúmenes del espacio interestelar, debido a la colisión, se aglutina en el centro de la galaxia remanente de la fusión.
Recientemente se ha descubierto que los cuasares no sólo tienen gran cantidad de gas, sino que éste se encuentra en forma molecular, es decir, a alta densidad, por lo que cuando se logra detectar la galaxia subyacente, ésta siempre presenta morfología perturbada. En este esquema, no cualquier colisión de galaxias crea un cuasar, sino sólo cuando ambas progenitoras tienen mucho gas, preferentemente molecular. La evidencia clave para confirmar esta idea vino de los descubrimientos hechos con el satélite iras (Infrared Astronomical Satellite), que en 1983 detectó una serie de galaxias, cuya luminosidad en infrarrojo puede ser incluso mayor que la luminosidad visual de los cuasares (estamos hablando de longitudes de onda de doce a cien micras). Cuando dos galaxias colisionan, detonando un cuasar, éste quedará inicialmente oculto por una gran cantidad de gas y polvo que rodea al núcleo. Este polvo absorbe la enorme radiación del cuasar —por lo que es indetectable en longitudes de onda de luz visible— y se calienta e irradia gran cantidad de energía justamente en las longitudes de onda de infrarrojo. El satélite iras descubrió galaxias que emiten hasta 90% de su energía en infrarrojo, y varias de ellas tienen luminosidades en estas longitudes de onda de miles de millones de soles como los cuasares. El prototipo de estos objetos es la galaxia conocida como Arp 220.
Al producirse la colisión, el enorme flujo de gas genera ondas de comprensión y choque que producen enormes brotes de formación estelar. Las estrellas de mayor masa pierden gran cantidad de ésta en forma de fuertes vientos y evolucionan rápidamente hasta estallar como supernovas. Después de algunos millones de años estos acontecimientos despejan el entorno del cuasar “enterrado” y su luz empieza a verse. Incluso se cree haber encontrado objetos en esta fase transitoria, como la galaxia Mkn 231 que se encuentra entre el “cuasar infrarrojo” y el visible, y a pesar de emitir 90% de su energía en el infrarrojo, tiene las características claras de cuasar visible, su morfología refleja indudablemente una colisión de galaxias, y además se le ha detectado una enorme cantidad de gas molecular, requisito indispensable para detonar un cuasar.
Hay que decir que, como siempre, no todos los astrónomos que trabajan en este tema están de acuerdo con tales ideas. Algunos piensan que la interacción de galaxias puede ser una condición suficiente, pero no obligatoria. Recientemente se han logrado obtener imágenes de varios cuasares con los telescopios óptico-infrarrojos Keck y el franco-canadiense, en Hawai. En alrededor de 90% de los casos se ha detectado una galaxia subyacente con morfología de interacción. Sin embargo, estas observaciones sólo han sido posibles de los cuasares más brillantes. Aunque algunos astrónomos piensan que las galaxias superluminosas detectadas en el infrarrojo por el iras son “protocuasares”, se argumenta que la colisión puede generar solamente un gigantesco brote de formación estelar en el centro, para lo cual existe una prueba crucial que determina si las galaxias infrarrojas son cuasares disfrazados (o protocuasares) que en ese caso tienen la misma distribución en su desplazamiento al rojo que los cuasares.
Se sabe que la enorme mayoría de los cuasares tiene corrimientos al rojo entre z = 2 y z = 3. Cuando la luz de esos objetos fue emitida hace miles de millones de años —que es lo que ha tardado su viaje por el espacio hasta llegar a nosotros—, el Universo era mucho más joven y estaba menos extendido, por tanto, la densidad de galaxias, así como la posibilidad de colisión entre ellas era mucho mayor. Esto explicaría el que ya no se formen cuasares (no hay cuasares cercanos) y que las galaxias actualmente no tengan tanto gas como cuando acababan de formarse, pues fue “usado” para formar estrellas.
Lo principal, entonces, es averiguar si la distribución de los corrimientos al rojo de las galaxias infrarrojas es la misma que la de los cuasares, para lo cual tendremos que esperar un mejor telescopio que nos permita ver galaxias infrarrojas más lejanas. Quizá será posible con el telescopio sirtf (Space Infrared Telescope Facility) que se espera a principios de este siglo.
La curiosidad por saber qué tipo de procesos físicos dominan la emisión observada en distintas frecuencias de los diversos núcleos activos de galaxias (incluidos los cuasares) sigue presente. La hipótesis más aceptada es que la energía de este proceso (de origen gravitacional) dominará la emisión, dependiendo de cuánto material tenga el agujero negro a su disposición “para engullir”. Si el “alimento del monstruo” es menor, la emisión de origen gravitacional puede ser comparable a la emisión de estrellas masivas y supernovas de un brote de formación estelar circumnuclear, e incluso, a los núcleos menos energéticos, las estrellas, gas y polvo de toda la galaxia circundante. Uno de los grandes retos de este campo es poder desentrañar el origen de todas las contribuciones a la emisión de estos objetos. Hay quienes piensan que todas las galaxias tienen un agujero negro en su núcleo, incluida la nuestra, la Vía Láctea. El “monstruo” puede, por tanto, haber estado activo en el pasado y estar muerto o moribundo por “inanición” en el presente. En el centro de nuestra Galaxia existen ciertas evidencias de actividad nuclear, aunque son sólo indirectas y no hay pruebas, por lo que es muy difícil detectar esta actividad. En los objetos más activos, lo difícil es detectar la galaxia circundante, aunque recientemente logramos ver, por primera vez, el objeto tipo bl Lac: “el Lagarto” oj287 (esta imagen se obtuvo en el observatorio Astronómico Nacional de San Pedro Mártir, Baja California). En este caso se estudió también su velocidad y se encontró evidencia de interacción de galaxias, como en los cuasares.
Faros que alumbran el pasado
Por último, hay que decir que los cuasares son una especie de faros que iluminan el pasado. Recordemos el ejemplo con el que iniciamos este texto: el cuasar 3C273, cuya luz tarda 2 500 000 000 de años en llegar a la Tierra (la mitad de la edad del Sol), es el más cercano de todos los cuasares. Tal vez algunos de esos objetos sean ahora galaxias con soles y planetas en los que hay astrónomos que ven la Vía Láctea como fue hace cientos de miles de años, quizá como cuasar. En todo caso, el estudio de estos objetos es esencial para la cosmología, para el estudio del origen y la evolución del Universo.
![]() |
|||
Deborah Dultzin
Instituto de Astronomía,
Universidad Nacional Autónoma de Mexico.
_______________________________________________________________
como citar este artículo → Dultzin, Deborah. (2002). Cuasares. Ciencias 66, abril-junio, 66-73. [En línea]
|
← Regresar al índice ⁄ artículo siguiente → |
La ciencia y sus demonios | ![]() |
||
Germinal Cocho y Pedro Miramontes Vidal | |||
|
← Regresar al índice ⁄ artículo siguiente → | ||
Borges en Pierre Menard, autor de El Quijote escribe: “la verdad, cuya madre es la historia, émula del tiempo, depósito de las acciones, testigo de lo pasado, ejemplo y aviso de lo presente, advertencia de lo por venir”. La historia es mucho más que la narrativa secuencial de eventos y personajes que nos enseñan en la escuela. Al ser la madre de la “verdad”, se vuelve indispensable para obtener conocimiento, y si aceptamos que uno de los papeles de la ciencia es precisamente ese aprendizaje, entonces la tarea científica pasa obligadamente por el estudio y la comprensión de los hechos históricos.
La idea de concebir a la historia como una serie de procesos sujetos a causas y efectos es parte del legado que nos ha dejado la monumental obra de Karl Marx y Friedrich Engels. Una de las frases más ilustrativas al respecto, fue escrita por Marx en 1852, en El Dieciocho Brumario de Luis Bonaparte, y ha sido citada en múltipes ocasiones por la literatura política. “Hegel dice en alguna parte que todos los grandes hechos y personajes de la historia universal aparecen dos veces. Pero se olvidó añadir: la primera vez como tragedia, la otra como farsa”.
Marx establece un paralelismo entre el golpe de estado que le permitió a Louis Napoleon Bonaparte convertirse en emperador de Francia bajo el nombre de Napoleon III, y una asonada semejante que le permitió a su tío —Napoleon Bonaparte— alcanzar el trono de la misma nación unas décadas antes, en las postrimerías de la Revolución Francesa. Marx atribuye a Hegel la afirmación de que la historia tiene un carácter cíclico. Evidentemente, ninguna persona puede aceptar una periodicidad estricta en la historia; si así fuera, estaríamos condenados a observar el desenvolvimiento de un drama totalmente determinista y predestinado. Por eso, Marx emplea una metáfora para subrayar que en la historia se pueden reconocer hechos específicos aparentemente repetitivos (“la primera como tragedia, la otra como farsa”), pues tienen rasgos que podrían parecer semejantes, pero cuyas circunstancias particulares son diferentes.
Los historiadores de la ciencia han identificado desde hace tiempo un vaivén, una aparente periodicidad, es decir, una alternancia entre el racionalismo y el romanticismo. Esta pugna, abierta o soterrada, ha dominado el desarrollo de la ciencia prácticamente desde sus orígenes. En estos momentos la ciencia refleja la crisis de la sociedad occidental, lo cual indica que estamos entrando en una de las transiciones del antagonismo mencionado. Si bien los tiempos de crisis son tiempos de riesgo y peligro, también lo son de oportunidad para las ideas innovadoras y para los cambios revolucionarios.
La Naturphilosophie
En las sociedades occidentales —americanas y europeas—, en los albores del siglo xix, surgió un importante movimiento, tanto en el arte como en la ciencia, de pensadores que no encontraban satisfacción a sus inquietudes sociales y éticas en la atmósfera de estricto clasicismo, dominante en el mundo intelectual de la época. Frente al frío racionalismo ilustrado que imperaba, esta corriente surgió como un movimiento de exaltación del hombre, de la naturaleza y de la belleza, pero también como expresión social de rebeldía, libertad e independencia. Se buscaba, consciente o inconscientemente, una salida que privilegiara al individuo, al “yo” sobre la colectividad. A este anhelo utópico de persecución por un mundo ideal, sin más base que la voluntad o el fervor, a la búsqueda de soluciones fundadas en los sentimientos por encima de la razón, se le llama romanticismo. El romanticismo europeo enfatiza lo individual por encima de lo colectivo, y es una reacción contra las leyes del arte neoclásico, en el cual la creatividad se encontraba restringida por reglas académicas, por tanto, es la expresión directa de las emociones que a menudo busca sus fuentes en el pasado o en las mitologías.
En las ciencias, el romanticismo postula que la naturaleza no puede ser explicada racionalmente y que sólo es posible percibirla de manera intuitiva. Por lo cual, no hay una descripción única del universo pues ésta depende del individuo, de su entorno y sus circunstancias; lo subjetivo, irracional e imaginativo se abren paso. Los filósofos Fichte y Schelling le dieron sustento a esta forma de pensamiento bajo el nombre de Naturphilosophie.
Ésta se opone radicalmente a la tradición empírico-matemática de los siglos anteriores y, sobre todo, a la corriente racionalista que dominaba desde el Siglo de las Luces, conocida como La Ilustración. Los racionalistas, fuertemente influidos por el éxito de la mecánica de Newton, pensaban que el mundo se podía entender y explicar completamente con base en estas leyes. En 1705 Edmund Halley predijo que el cometa que ahora lleva su nombre, y que había pasado cerca de la Tierra en el sistema solar en 1607 y 1682, regresaría en 1758. La exactitud de su predicción produjo entusiasmo y suscitó gran confianza en el poder de los métodos matemáticos para ir más allá en la descripción del universo, con lo cual se abría la posibilidad de predecir el futuro. La naturaleza se percibía de pronto como un libro abierto, dispuesta a revelar sus secretos a quien conociese su lenguaje: las matemáticas, según Galileo. La base del racionalismo era la confianza en el poder ilimitado de la razón. Este era el medio que los humanos debían usar como único instrumento para acceder a la verdad, a la comprensión del universo y a la búsqueda de su propia felicidad. Ellos seguían un método analítico como estrategia de estudio, que les llevaba a descomponer a la naturaleza en partes. Además buscaban afanosamente la descripción detallada de la misma, un buen ejemplo es la clasificación de los seres vivos por Carl Linne en un sistema que siguiese, en sus palabras, “el orden dictado por su naturaleza”.
Otra oscilación del péndulo
A finales del siglo xix y comienzos del xx hubo otra alternancia en la lucha sentimiento-razón. Al romanticismo le siguieron varios movimientos filosóficos apegados al racionalismo, tanto en las ciencias como en las artes, entre los cuales se encuentra “el realismo”, que tuvo muchos seguidores en Francia, cuna de los enciclopedistas ilustrados. En las artes, como su nombre lo indica, tiende a dibujar un retrato exacto de la naturaleza y la sociedad. El ejemplo paradigmático es La comedia humana de Honoré de Balzac; retrato ambicioso y erudito de la sociedad con sus pasiones, virtudes y defectos.
En el fondo los choques entre las corrientes que estamos señalando forman parte de una pugna más antigua y todavía presente. Desde que los humanos aprendieron a cuestionarse y a interrogar a la naturaleza, existe el antagonismo “idealismo” versus “materialismo”. También estos términos son confusos, pues comúnmente el idealismo tiene una connotación positiva que se refiere a la capacidad de los individuos para desenvolverse y actuar durante la vida, guiados por principios morales muy elevados. Sin embargo, lo que caracteriza al idealismo filosófico es que sus partidarios opinan que el mundo y sus fenómenos no tienen una existencia propia e independiente del observador y, por tanto, no existe una realidad objetiva externa al individuo e independiente de su conciencia.
Por otra parte, en el lenguaje cotidiano, alguien es “materialista” cuando muestra un exagerado interés por las posesiones mundanas y el dinero. Sin embargo, el materialismo filosófico considera que el universo y la naturaleza tienen una existencia objetiva, aunque no estemos presentes. Es decir, que la razón del perímetro de una circunferencia con su radio es 3.141592… aun si no hubiese habido matemático que lo formulase y que un árbol hace ruido al caer en la mitad del bosque, a pesar de que nadie lo escuche.
Durante la influencia del nuevo racionalismo vuelve la confianza de que la ciencia tiene la capacidad de explicar todos los fenómenos naturales e incluso los sociales. Más aún, que estos son parte de la física y que como tales deben ser estudiados. En la actualidad no todos los biólogos teóricos —en su mayoría físicos—están convencidos de que la teoría de Darwin de la evolución biológica por selección natural sea la explicación del fenómeno evolutivo, aunque a finales del siglo xix el darwinismo encajaba perfectamente bien, lo mismo que el marxismo en el racionalismo materialista. El neorromanticismo del siglo xix no es igual al precedente, ya que, por un lado, había sido influido por el realismo y, por el otro, la historia no es una mera repetición, como se mencionó con anterioridad. Éste tiene sus consecuencias graves, pues su naturaleza es más negativa y su rechazo al racionalismo es más violento.
En 1918, año en que termina la primera guerra mundial, Oswald Spengler —filósofo alemán— publica La decadencia de Occidente. El argumento central del libro es que las civilizaciones, al igual que los organismos, nacen, crecen, maduran y terminan en una degradación irreversible. Spengler opina que la cultura occidental agotó su fase creativa, situándose en una etapa cercana a la muerte intelectual. Este proceso se debía, en buena parte, a la preponderancia del materialismo sobre las formas espirituales, por lo cual afirma que el racionalismo y la ciencia son culpables de esta degradación espiritual (“Tras dos siglos de orgías científicas, hemos llegado a hartarnos”). Spengler inicia una línea de pensamiento con gran influencia en algunas corrientes contemporáneas que descalifican a la ciencia, e inician una cruzada en contra de lo que llaman “verdades absolutas”. Otra frase muy ilustrativa del mismo autor es: “La naturaleza es siempre una función de la cultura”, en ella no dice que la ciencia es función de la cultura (lo que sería aceptable), sino de la naturaleza, es decir, que ésta no tiene existencia propia en ausencia de los humanos.
Si bien las artes y las ciencias encontraron un ambiente de notable crecimiento durante la República de Weimar, la inestabilidad política y la gran crisis económica provocaron en el ciudadano medio un sentimiento de desesperanza y miedo ante un futuro incierto, lo que genera la necesidad de buscar culpables, ya sean reales o ficticios, así como de buscar salidas oblicuas para poder fincar alguna esperanza, no importando si ésta carece de bases. Es en este ambiente donde renacen las supersticiones y los mitos, así como los charlatanes que los explotan, con consecuencias nefastas. Adolf Hitler y Hermann Goering habían intentado una asonada en Munich en 1924, pero más tarde se convencieron de que redituaba más, políticamente hablando, culpar a los judíos de la precaria situación económica, revivir los mitos de un pasado germánico grandioso y convencer a las masas pobres e incultas de que cada uno de ellos era un superhombre en potencia, con un futuro esplendoroso si se les daba la oportunidad. Finalmente, la República de Weimar muere con el ascenso al poder del Partido Nazi en 1933.
El mundo hoy
Los profundos cambios que el mundo experimentó en la última década del siglo xx y que estuvieron asociados con la caída de la Unión Soviética y el fin del llamado “bloque socialista”, condujeron al apoderamiento mundial de la escena política y económica por parte de Estados Unidos y su capitalismo neoliberal.
Analistas, comunicadores y personajes de la política occidental se congratularon con este cambio y auguraron un futuro de felicidad sin precedentes, en el cual la humanidad compartiría los valores estadounidenses de libertad, moral y democracia. Cabe mencionar que este escenario idílico se vino abajo antes de que lo hicieran las torres gemelas de Nueva York. No hace falta ser sabio para percibir que no todo el mundo quiere una homogeneización impuesta por la fuerza, ya que la “globalización” no significa que todos los pueblos de la Tierra tomen lo mejor de los demás y puedan incorporarlo a su estilo de vida en un intercambio fructífero y enriquecedor; más bien es la aceptación, sin posibilidad de apelación, de los estándares y valores estadounidenses. El rechazo a la imposición homogeneizante que se demuestra con el auge mundial de los movimientos globalifóbicos, es a la “McDonalización” de la economía, de las costumbres y los valores (incluso gastronómicos).
El tránsito del mundo bipolar al unipolar, lejos de aliviar las tensiones que se generaron en la Guerra Fría, ha traído consigo aberraciones en las relaciones entre naciones, sociedades e individuos. El mundo se encuentra inmerso en una crisis generalizada, con múltiples facetas, que se reconoce por las siguientes manifestaciones: la guerra, el método insensatamente elegido para resolver conflictos entre Estados, naciones o grupos étnicos; el terrorismo, que implica tanto la acción desesperada de grupos minoritarios como el abuso ilegal del Estado que tiene el poder suficiente para ejercerlo de manera impune; el desorden económico global que hace recaer el bienestar de una reducida clase acaudalada en los hombros de una mayoría.
El mundo está dividido en dos partes; una está excluida de cualquier beneficio del desarrollo, desprovista de las condiciones que permiten una vida humana con un mínimo de dignidad. En esa parte se concentran los países del llamado Tercer Mundo. La desesperanza conduce a la pérdida de fe en el progreso, a la búsqueda de soluciones personales inmediatas, por lo cual la mayoría se vuelca al misticismo, cae en los brazos de la religión, tradicional o emergente y ante la privatización de los servicios de salud que los vuelve inaccesibles al pueblo, confía su salud a prácticas pseudocientíficas, cuando no charlatanescas.
En una situación análoga a lo mencionado con anterioridad y semejante a la atmósfera de la República de Weimar, el cuadro aquí descrito orilla a la gente a la búsqueda y persecución de culpables, sean estos reales o figurados: estamos en otra transición del racionalismo al romanticismo. Esta vez se acusa, quizá con razón, a la ciencia de ser parte del aparato de desigualdad e injusticia. Los demonios de la ciencia
En la alternancia del racionalismo y el romanticismo, actualmente, el primero está en el banquillo de los acusados. Un poeta, más notable por su actuación política (presidente de Checoslovaquia desde 1989 y posteriormente de la República Checa hasta nuestros días) expresa su punto de vista de la siguiente manera: “La caída del comunismo se puede interpretar como una señal de que el pensamiento moderno —basado en la premisa de que el mundo es discernible objetivamente y que el conocimiento así adquirido es susceptible de generalización— ha caído en una crisis final”.
Esta frase de Václav Havel describe a lo que pretendemos llegar: la crisis de valores no solamente genera una pérdida de confianza en la racionalidad, sino que además produce confusión entre los intelectuales, conduce a errores metodológicos como el de Havel, al confundir el marxismo con la burocracia soviética, y al grosero disparate de concluir, bajo esta premisa falsa, que el mundo no es discernible objetivamente.
Estas ideas encuentran eco hoy en día en las escuelas del posmodernismo y del relativismo cultural. El punto de vista de que los valores de una cultura no son bienes absolutos, sino que dependen del desarrollo histórico de cada cultura —doctrina conocida como relativismo cultural— es innegable desde la perspectiva de la antropología (los principios morales pueden ser distintos en diferentes culturas sin que se pueda decidir cuál es el bueno y cuál el malo; los sacrificios humanos en la antigua Tenochtitlan horrorizaron a los españoles que, en cambio, veían muy natural que algunas personas muriesen en la hoguera). Sin embargo, extrapolar esta idea hasta la afirmación de que los resultados de la ciencia dependen también del marco de referencia de cada cultura, lo más que puede producir es una sonrisa.
Nosotros pensamos que el universo se puede discernir objetivamente y que el conocimiento así adquirido es susceptible de generalización, pero no podemos cerrar los ojos ante la diversidad de críticas y ataques a la ciencia que son legítimas y tienen fundamentos reales. La ciencia ha estado del lado de los intereses más perversos y carga consigo pecados y demonios que es necesario exorcizar.
Entre estos demonios, se encuentra la relación de la ciencia con la tecnología guerrera. Pablo González Casanova dice que “tenemos que pensar que la globalización está piloteada por un complejo empresarial-financiero-tecnocientífico-político y militar que ha alcanzado altos niveles de eficiencia en la estructuración, articulación y organización de las partes que integran al complejo, muchas de las cuales son empresas o instituciones estatales también complejas. Así, el megacomplejo dominante, o el complejo de complejos dominante, posee grandes empresas que disponen de bancos para su financiamiento, de centros de investigación científica para sus tecnologías, de casas de publicidad para difundir las virtudes de sus productos, de políticos y militares para la apertura y ampliación de sus “mercados de insumos”, o de sus mercados de realización y venta, o de sus mercados de contratación de trabajadores calificados y no calificados”.
La asociación de los científicos con la guerra no es nueva; ya el notable Arquímedes de Siracusa en el siglo iii a.C. inventaba máquinas de combate durante la guerra de su ciudad natal contra los romanos. A partir de entonces, se vuelve muy difícil encontrar algún instrumento de muerte que no dependa de un desarrollo tecnológico basado en trabajos científicos. De hecho, si aceptamos que la tecnología es ciencia aplicada, entonces quizá se pueda afirmar que todos los instrumentos de exterminio modernos son “hijos” de la ciencia.
Como lo menciona González Casanova, la ciencia forma parte de un complejo empresarial-financiero-tecnocientífico-político y militar. Este hecho restringe severamente la capacidad científica de decidir las líneas de investigación, pues el financiamiento proveniente de este complejo no se ocupa de la ciencia como deleite intelectual ni como medio para atender los problemas de las mayorías, sino que forma parte del aparato de dominación. En el mundo globalizado y dominado por el neoliberalismo los Estados han ido dejando, paulatinamente, de ser la fuente principal de financiamiento de la actividad científica. Las pautas de investigación biotecnológica, biomédica, de la ciencia de materiales, informática y de muchas otras áreas obedecen a los intereses de grandes compañías que, a su vez, cumplen el interés de la ganancia inmediata.
Aun si fuésemos lo suficientemente indulgentes para pasar por alto la asociación de la ciencia con los medios bélicos, existen también aspectos negativos en el terreno de la ética. La imagen quijotesca que la sociedad tiene del científico como individuo distraído de su entorno, habitante del mundo de los sueños y embebido en su trabajo, a menudo propalada por los mismos científicos como para rehuir de su responsabilidad, es simple y llanamente falsa. Los científicos, siendo gente educada, con una formación académica de muchos años, estarían en condiciones, si no obligados, de saber qué es lo que sucede en su entorno. Bajo estas circunstancias es difícil encontrar una explicación acerca de la razón por la cual no existe más que un puñado de ellos que levanta su voz contra las complicidades señaladas y contra el desinterés por nuestro planeta y por lo pobres del mismo.
Si bien es cierto que la ciencia ha generado un bienestar material en la humanidad (o mejor dicho, en parte de la humanidad) también ha dejado de lado la moral y la ética. Es decir, que no se ha preocupado por buscar respuestas satisfactorias a las preguntas de la gente acerca del sentido, valor y propósito de la vida. La ciencia se ha convertido en una religión secular con “verdades” reveladas a los mortales sólo a través de sacerdotes, dueños exclusivos del saber universal: la ciencia es la base de la tecnología moderna y ésta lo es del capitalismo actual. Asombro y escepticismo
¿Cómo debería ser entonces la ciencia? Vayamos a sus fundamentos, a ese núcleo aún no contaminado y que eventualmente permitirá el rescate de su fondo ético.
La ciencia consta de varios elementos; podemos decir que quizá, someramente, los más importantes sean el asombro y el escepticismo. Lo primero nos lleva a maravillarnos ante el universo y a preguntarnos acerca de su origen, desarrollo y evolución. Este elemento también lo tienen las religiones; vivir en “el temor a Dios” se entiende actualmente de manera errónea como el miedo constante y continuo a la deidad. El uso de “temor” en esta expresión debe tomarse como sinónimo de sobrecogimiento, pasmo o asombro (como en la frase inglesa awe of God o en alemán Ehrfurt vor Gott). Sin embargo, a diferencia de las religiones, la ciencia tiene un interés exclusivo por el mundo físico y sus manifestaciones, y deja la espiritualidad al albedrío personal. Lo segundo es el ingrediente que distingue a la ciencia de las religiones.
El escepticismo implica una actitud crítica ante los hechos y fenómenos, ya sean naturales o sociales. En la ciencia las teorías y explicaciones no se aceptan sin discusión y convencimiento, no se admiten las explicaciones del tipo “porque sí” o “porque Dios quiere”. Por ello, un científico debe ser parte de la conciencia de la sociedad (empezando por su gremio), debe tener un compromiso con su gente y luchar por desterrar las supersticiones y la charlatanería. En los medios de comunicación impresos y electrónicos, son escasos los espacios dedicados a la ciencia y abundan los que de una manera u otra fomentan prejuicios, estereotipos, pseudociencias y supersticiones. Detrás de todo esto se encuentra una poderosa industria que logra enormes ganancias explotando la credibilidad y buena fe de la gente. La astrología, el pensamiento New Age y las religiones modernas representan negocios formidables, que quebrarían inmediatamente si la educación fomentara con éxito una actitud de escepticismo entre los ciudadanos.
No podemos engañarnos con la pretensión ingenua de que con la pura voluntad podemos cambiar una estructura con intereses políticos y económicos colosales. Sin embargo, quedarse sin hacer algo es convalidar la situación.
La educación es un campo en donde se forma el espíritu, lo cual repercute en la sociedad, por lo que es un espacio en donde se puede actuar para cambiar el estado de las cosas y que puede llevar a fundar una corriente de opinión y trabajo que sea propositiva y, más aún, cuyas propuestas convenzan a la gente. En nuestro caso especial el énfasis estaría situado en la educación superior.
Interrogantes
Existe una buena cantidad de estudios y diagnósticos acerca de los problemas de la educación superior en México, en los cuales se han formulado una serie de preguntas, entre las que destacan las siguientes:
¿Diversidad u homogeneidad? La educación superior pública se encuentra desde hace tiempo bajo presiones para uniformar planes de estudio y para aplicar métodos homogeneizantes de evaluación tanto de estudiantes como de profesores. Un ejemplo son los exámenes departamentales y las evaluaciones a los docentes para la asignación de sobresueldos.
Resulta curioso que esta tendencia cobre fuerza incluso en sectores académicos, cuando los avances científicos recientes apuntan en dirección contraria. La física y la matemática de los sistemas complejos muestran que la diversidad ayuda a que los sistemas incrementen su capacidad de adaptación ante situaciones novedosas. Los planes de estudio y los programas de materias rígidos no dejan campo de maniobra para la diversidad y son la garantía de problemas futuros. En la Facultad de Ciencias de la unam, la mitad de las materias de la carrera de matemáticas son optativas; los estudiantes pueden elegir de un conjunto bastante amplio y de esa manera decidir de manera flexible su formación profesional. Adicionalmente, cada profesor elige el enfoque y la orientación que le dará a sus materias. El resultado es que esta facultad produce matemáticos muy diversos y todos ellos con grandes posibilidades de éxito al insertarse en el mercado laboral o en el mundo académico. Este caso muestra un ejemplo contundente de que se puede enfrentar a la política de uniformación seguida por las autoridades educativas de México. Hay que defender la libertad de cátedra y pugnar por que no se implante nada parecido a exámenes departamentales. La homogeneización de las personas y de las actividades humanas es característica de los regímenes totalitarios.
¿Elite o masas? También hay que responder con firmeza a la tendencia en boga de dificultar el ingreso y la permanencia de estudiantes que por restricciones personales o, la mayoría de las veces, por su nivel socioeconómico, no pueden ser estudiantes de tiempo completo o tener el mismo rendimiento que otros; hay que convencerlos de que un estudiante que no termina una carrera es útil a la sociedad y no es una “inversión desperdiciada”; aquél que abandona los estudios a la mitad de la carrera, eleva el nivel promedio de la cultura de la sociedad y esto es favorable. Mejor todavía sería que ese individuo pudiera retomar sus estudios cuando su situación se lo permitiera.
Rechazamos pues el absolutismo de las dicotomías, así como nos resulta aberrante la intimidación “están con los Estados Unidos o con los terroristas” recientemente proferida por George W. Bush, al igual que estamos en contra de ser obligados a elegir entre los extremos “educación elitista con calidad” versus “educación masiva mediocre”. ¿Quién puede decir que tiene la demostración fehaciente de que no es posible tener una educación masiva con calidad? Normalmente, frases como las entrecomilladas representan lugares comunes que, a fuerza de repetición, terminan siendo aceptadas sin reserva; y es insólito que los científicos, que casi por definición no deberían aceptar afirmaciones contundentes sin evidencia que las sostenga, de buena gana se traguen mitos, como el propalado por un “líder” académico, quien afirma que con la edad “decrece la capacidad de los profesores para generar nuevos conocimientos” y que “un profesor de arriba de 60 años (sic) no puede competir en productividad con los profesores jóvenes”. Alguien alguna vez dijo que una mentira repetida mil veces se vuelve verdad.
¿Especialización o generalización?, ¿universidad pública o universidad privada? La especialización prematura de los estudiantes desemboca en la formación de profesionales con un elevado grado de competencia, pero en campos cada vez más restringidos, lo cual provoca el aislamiento de los científicos. La comunicación, ya no digamos entre físicos y biólogos, por mencionar alguna, sino entre biólogos de diferentes especialidades ya es casi imposible: un ecólogo de campo y un genetista molecular pueden afrontar dificultades para encontrar un tema común de conversación científica. La superespecialización profesional tiene su análogo en la evolución biológica; a todos nos han enseñado que un organismo muy especializado puede ser muy eficiente en la explotación de su entorno, pero extremadamente frágil ante cambios del mismo. El oso hormiguero tiene una anatomía muy adecuada para la búsqueda, caza e ingestión de hormigas únicamente, pero ¿qué pasa si las hormigas se acaban? A un profesionista superespecializado también se le pueden acabar las hormigas.
Un egresado de una universidad pública y uno de una privada son, evidentemente, distintos en muchos aspectos. Uno de ellos es la incuestionable diferencia salarial que obtendrán al salir. Esto no es reflejo de la calidad de la educación que recibieron o de la cultura adquirida (como lo muestra el caso del gerente de México S. A.), sino de lo útiles que serán al aparato productivo. Hasta ahora, los empresarios mexicanos han preferido a un profesionista bien capacitado para resolver tareas específicas y puntuales. Nosotros tenemos que convencer a los empleadores (públicos o privados) que les resulta más redituable alguien con capacidad para adecuarse exitosamente a un entorno rápidamente cambiante. Es decir, debemos persuadirlos de que conviene más mantener en su empleo a alguien adaptable a situaciones novedosas que remplazar a una persona superespecializada cuando sus habilidades dejan de ser útiles y traer a alguien nuevo, con todo el problema que representa iniciarlo en las labores de un centro de trabajo. En pocas palabras, creemos que la universidad pública debe preparar “milusos” de alto nivel, en lugar de especialistas con una visión reducida.
¿Cómo incorporar el conocimiento moderno a la enseñanza? Nuestros planes de estudios continúan con la idea de presentar un desarrollo compartamentalizado de la ciencia. Esto ha sido bueno hasta ahora para la formación “intelectual” del estudiante, pero ¿será adecuado en un mundo en rápido cambio? Existe una tendencia moderna a borrar las fronteras artificiales entre las ciencias, lo cual se aprecia con la emergencia de disciplinas como la biología matemática, la bioinformática y la física biológica. Siguiendo nuestra tendencia la propuesta sería, por poner un ejemplo, presentar la física a la luz de la biología y la biología a la luz de la física. En ningún lugar se ha analizado qué repercusiones tendría esto en los planes y programas de estudio ¿un tronco común?, ¿módulos polivalentes?
En pocas palabras, ¿cuál sería el mejor camino para llevar a los estudiantes a un trabajo productivo temprano rompiendo así la estratificación social en la ciencia con sus mandarines y siervos? No lo sabemos, posiblemente, grupos relativamente pequeños de profesores que impartan materias en los primeros semestres pudieran ponerse de acuerdo acerca de cómo lograr que los estudiantes, independientemente de sus carreras, conozcan desde muy temprano cuáles son las polémicas contemporáneas en la ciencia; y se enfrenten así a una serie amplia de lecturas generales que los lleven a una dinámica autosostenida de estudio para la adquisición de herramientas para el pensamiento. En otras palabras, romper con la obtención pasiva de conocimiento como un “bagaje inerte” y convencer al estudiante de que el mundo se ve diferente (mucho más lindo) si se saben desentrañar las sutilezas del razonamiento por analogía, descubrir la utilidad del formalismo y aprender a dejar suelta la fantasía acerca de los aspectos metafísicos y filosóficos de la ciencia.
Colofón
En las épocas de crisis afloran las mentes lúcidas y valerosas. En la transición del racionalismo al romanticismo, en los albores del siglo xix, existió un grupo de pensadores que se llamaron a sí mismo los morfólogos racionalistas. Goethe, D’Aubenton, Geoffroy Saint-Hilaire y Lamarck son algunos de los nombres asociados con esta escuela. A finales del mismo siglo, y en medio de otra época más de transición, aparece la enorme personalidad de D'Arcy Wentworth Thompson. Todos estos naturalistas, montados a caballo entre el final de una etapa de racionalismo y el comienzo de una de romanticismo, sintetizaron lo mejor de ambos mundos: la pasión por el estudio detallado, minucioso y reductivo, propio de los racionalistas, y el amor de los románticos por los principios generales.
Todos ellos, ahora desdeñados por el establishment científico, fueron seres creativos, a la vez racionales y emotivos, que dentro de las restricciones sociales llegaron a ser artífices de su propia vida y dueños de su destino. Esto en contraste chocante con la situación neoliberal presente, en la que todos los aspectos de la vida humana para ser considerados de valía, tienen que representar ganancia o beneficio capitalista, y en la cual el hombre no es más que el medio que tienen las mercancías para producir más mercancías.
![]() |
|||
Germinal Cocho Instituto de Física,
Universidad Nacional Autónoma de México.
Pedro Miramontes Vidal
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
como citar este artículo → Miramontes, Pedro y Cocho, Germinal. (2002). La ciencia y sus demonios. Ciencias 66, abril-junio, 76-85. [En línea] |
← Regresar al índice ⁄ artículo siguiente → |