revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01 P02  
  del bestiario
 
     
La lotería en las comunidades ecológicas
 
 
 
Héctor T. Arita
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
¿No es irrisorio que el azar dicte la muerte de alguien y que
las circunstancias de esa muerte no estén sujetas al azar?
 
J. L. Borges, La lotería en Babilionia.
 
 
El día de Nochebuena de 1938, Jorge Luis Borges sufrió un terrible accidente que le produjo una lesión en la cabeza, dejándole como secuela una septicemia que estuvo a punto de cobrar la vida del joven y, entonces, poco conocido escritor argentino. Según algunos biógrafos, el azaroso incidente aunado a la muerte de su padre, ocurrida unos meses antes, dejó tan profunda huella en la mente del joven Borges, que desencadenó en él un frenesí creativo. En los siguientes ocho años, produjo algunas de las narraciones más extraordinarias.
 
 
Una de esas obras —La lotería en Babilionia, publicada en 1941— nos presenta la alucinante historia de un pueblo regido totalmente por el azar; una nación en la que todos los acontecimientos están determinados por los sorteos que se realizan con regularidad por “la Compañía”, una misteriosa congregación. Lo que comenzó con un inocente negocio de azar para repartir monedas y otros premios, se convirtió en un sistema tan complejo de premios y castigos aleatorios, que ya no es posible discernir con detalle su efecto. El destino de una persona no es sino una secuencia de sorteos que van definiendo, paso a paso, la serie infinita de eventos aleatorios, dándole forma a la vida de cada individuo.
 
 
 
Como sucede con otras de las genialidades de Borges, que en primera instancia pueden parecer absurdas, la idea de una vida forjada por una infinidad de acontecimientos azarosos no es tan descabellada. Parecería que en definitiva el azar domina el mundo; sin embargo, algo innato en el ser humano se resiste a lo aleatorio, a lo impredecible como forma de vida. Aunque la mecánica cuántica ha demostrado, tanto en la teoría como en la práctica, que el misterioso mundo subatómico está dominado por el azar y que la propia existencia de las partículas es un fenómeno de probabilidad, algo en nuestra mente se rehúsa a aceptar tal noción. El propio Einstein proclamó que “Dios no juega a los dados con la naturaleza” como respuesta a los conceptos de Born y Heisenberg de un universo subatómico intrínsecamente inescrutable y fatalmente incierto.
 
Esa misma resistencia a la fatalidad estocástica se manifiesta en una reciente controversia acerca de los mecanismos que determinan la estructura y la composición de las comunidades ecológicas. Un par de publicaciones, aparecidas el año pasado, intentan demostrar que el aparente orden observado en la naturaleza —en los conjuntos de especies de plantas y animales— no es sino el producto de eventos aleatorios. Es decir, una versión ecológica de la lotería de Borges, en la que una secuencia muy grande de pequeños eventos azarosos es capaz de producir todos los complejos patrones de diversidad biológica encontrados en el mundo. A mediados del año 2001 se publicó, dentro de la serie “Monografías en biología de poblaciones” de la Universidad de Princeton, el libro de Stephen Hubbell con el poco modesto título de The Unified Neutral Theory of Biodiversity and Biogeography. Unos meses más tarde, en el número de Science del 28 de septiembre de 2001, fue publicada una revisión de Graham Bell titulada “Neutral Macroecology”. Ambos trabajos intentan demostrar una premisa fundamental: la posibilidad de construir por computadora comunidades de plantas y animales que, al menos en su estructura y diversidad de especies, sean sorprendentemente semejantes a las que existen en la realidad, logrando esto por medio de simulaciones relativamente sencillas, en las que unos cuantos parámetros varían de acuerdo a reglas aleatorias muy simples.
 
 
Para comprender los alcances de las teorías de Hubbell y de Bell, hagamos una breve recapitulación de las explicaciones clásicas propuestas para entender el orden que aparentemente tienen las comunidades naturales. Una comunidad ecológica se define, en su sentido más amplio, como cualquier conjunto de individuos de diferentes especies que existen en el mismo lugar en un momento dado. Así, una selva es una comunidad porque está conformada por un conjunto de árboles de diferentes especies. Su-cede lo mismo con los mamíferos, los hongos y los invertebrados que habitan esa selva. Por lo mismo, el conjunto de todos los organismos de una selva (árboles, mamíferos, hongos, invertebrados, etcétera) podría considerarse también una comunidad ecológica.
 
 
Ahora bien, existen patrones definidos que se repiten en comunidades de muy diversa índole. En casi todos los conjuntos de especies, estudiados hasta ahora, existen, por ejemplo, unas pocas especies que son muy abundantes y muchísimas muy poco comunes (raras). Este patrón es bien conocido tanto por los naturalistas aficionados como por los ecólogos profesionales —todo avezado coleccionista de mariposas o colector científico sabe que existen unas pocas especies de las que podemos capturar cientos o miles de ejemplares, y muchas tan raras, que en ocasiones se necesitan años de trabajo para capturar una de ellas. Esta estructura —de la relativa abundancia de las especies— está tan generalizada que los ecólogos en ocasiones olvidan que, al menos en teoría, podrían existir otros arreglos igualmente posibles. Imaginemos, por ejemplo, una comunidad de mariposas en la cual todas las especies tienen exactamente la misma abundancia y la misma probabilidad de ser observadas. Yéndonos al otro extremo, podríamos vislumbrar otra comunidad hipotética formada por miles de ejemplares de la misma especie. ¿Por qué la inmensa mayoría de las comunidades presenta un patrón con pocas especies comunes y muchas raras?
 
 
La teoría clásica explica que las especies de alguna manera se reparten los recursos disponibles, sean de espacio, alimento, refugio u otro satisfactor ecológico. Esto se define por medio de mecanismos de competencia de los limitados recursos disponibles, por lo que algunas especies se llevan una tajada mayor y pueden estar representadas por muchos ejemplares; éstas son las especies comunes. La mayoría, sin embargo, alcanza tajadas mucho más pequeñas del pastel de los recursos ecológicos y deben subsistir como poblaciones compuestas por muy pocos elementos; se trata de las especies raras. Los ecólogos saben, desde hace varias décadas, que este patrón puede representarse matemáticamente con una distribución log-normal, es decir, con un modelo que genera una campana de Gauss si la escala de abundancia se representa en una escala logarítmica.
 
 
Hubbell y Bell han demostrado que es posible replicar, con asombrosa precisión, los patrones log-normales —observados en comunidades naturales— por medio de simulaciones muy simples, en las que se incorpora un elemento aleatorio a los parámetros de nacimiento, movimiento, reproducción y muerte de los miembros de una comunidad. Ellos llaman a estas simulaciones “modelos neutrales”, porque en ellos se hace caso omiso a las interacciones de los elementos, por lo que éstos son idénticos entre sí, independientemente de la especie a la que pertenezcan. Otros atributos de las comunidades ecológicas bien conocidos por los ecólogos —tales como el patrón log-normal de las áreas de distribución de las especies la relación entre el número de especies y el área de un sitio y la correlación positiva entre abundancia local y área de distribución— pueden, asimismo, ser reproducidas con una buena aproximación por los modelos neutrales de Hubbell y Bell. Hubbell va más lejos, y llega incluso a proponer la existencia de un parámetro (el número fundamental de la biodiversidad, (q)), que determine, siempre a través de procesos aleatorios, los patrones no sólo locales, sino biogeográficos de diversidad biológica.
 
 
Pero, ¿demuestran los modelos neutrales que la naturaleza, o al menos las comunidades ecológicas, son aleatorias?, ¿son las comunidades de plantas y animales los equivalentes ecológicos de la lotería de Borges? En primer lugar, no todos los ecólogos están convencidos por los modelos neutrales, ya que, de hecho, está en marcha una candente polémica que seguramente durará varios años y generará una gran cantidad de conceptos nuevos sobre la ecología de comunidades. En segundo lugar, como reconoce el propio Bell, existen dos posibles interpretaciones generales, bastante controvertidas, de los modelos neutrales: la interpretación “débil” en que los modelos neutrales simplemente son capaces de generar patrones muy semejantes a los naturales, pero no identifican mecanismos reales para crear esos patrones en las comunidades que observamos en la naturaleza; y la interpretación “dura”, en la cual, los modelos neutrales realmente han identificado los mecanismos (aleatorios) que han creado las comunidades naturales.
 
 
Una extrapolación simplona de la interpretación “dura” tiene implicaciones filosóficas muy profundas. Si, como lo ha demostrado la mecánica cuántica, el azar rige el mundo subatómico, y si, como parecen mostrar los modelos neutrales, lo aleatorio domina las comunidades ecológicas, ¿no será posible que las comunidades humanas sean, igualmente, resultado de procesos estocásticos? ¿Será posible que vivamos en un mundo como el que describe Borges en La lotería en Babilonia? ¿Acaso somos como los personajes de la película Matrix —quienes creen ser personas reales con vidas igualmente tangibles, pero que no son sino parte de una gigantesca ficción maquinada por alguna mente diabólica.
 
 
El azar es, sin duda, un componente importante en nuestra existencia, como lo sabe cualquier vendedor o comprador de seguros de vida o cualquier tahúr de casino. Pero, ¿hasta qué punto vivimos vidas aleatorias o al menos modelables al usar simulaciones estocásticas? Isaac Asimov exploró esa pregunta en su trilogía de ciencia ficción, La fundación. El tema central de esta saga es el modelo de Hari Seldon; un genial “psicohistoriador”, quien es capaz de predecir el futuro de la humanidad por medio de modelos matemáticos, en los que asume que los individuos se comportan en forma análoga a las moléculas de un gas; siem-pre en movimiento aleatorio.
 
 
Los modelos de Seldon funcionan de acuerdo con los libros de Asimov, por la enorme cantidad de gente involucrada en los cálculos (sólo Trántor, la capital del imperio de veinticinco millones de planetas habitados, tenía cerca de cuarenta mil millones de habitantes). Los modelos de los “psicohistoriadores”, a su vez, son capaces de predecir las tendencias generales de los conglomerados de gente, mas no el comportamiento ni el destino particular de los individuos.
 
 
 
Es por ello que resulta vano tratar de explicar las particularidades de nuestras vidas, en términos de una secuencia de eventos aleatorios, como los de la lotería de Borges. De intentarlo, podríamos vivir obsesionados con el desenlace particular de nuestra vida y con su infinita gama de secuencias que la lotería de Borges podría haber creado. Si él no hubiera sufrido el accidente en la Nochebuena de 1938, un evento ciertamente azaroso, tal vez no habría tenido su fecundo periodo literario y posiblemente tampoco habría creado La lotería en Babilonia. Siendo así, es posible que el presente ensayo nunca hubiera sido escrito y que el lector no se hubiera enterado de las especulaciones ecológicas de Hubbell y Bell. Como reza el título de un pasaje de Carmina Burana, Fortuna imperatrix mundi, no hay duda.Chivi66
 
Héctor T. Arita
Instituto de Ecología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Arita, Héctor T. (2002). La lotería en las comunidades ecológicas. Ciencias 66, abril-junio, 12-15. [En línea]

 
  P01    
  de flujos y reflujos
 
     
La vastedad del cosmos y el derecho a estar equivocado
 
 
 
Ramón Peralta y Fabi
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
El Vesubio, un volcán chaparrito y ancho, sirve de espectáculo nocturno a la ciudad de Nápoles. Hace casi dos mil años tapó a sus vecinos Pompeya y Herculano, y mira plácido al pequeño pueblo de Nola, cuyo mercado está lleno de verdura y fruta colorida que se cultivan en la fértil planicie de Campania. Cerca del mercado está el Palacio Orsini y la estatua que recuerda a su hijo más célebre, Giordano (Filippo) Bruno. El pueblo fue conquistado por los romanos en 313 a.C., nueve años después de la muerte de Aristóteles, y pasó a formar parte del Reino de Nápoles nueve años después de que Hernán Cortés tomara Tenochtitlan.
 
 
A los 17 años, Filippo toma el nombre de Giordano, recibe la tonsura e inicia su vida de monje dominico, abriéndose las puertas al conocimiento y cerrando las de su libertad intelectual. El Nolano —apodo que nunca perdió— pronto dominó el latín, y su avidez por la lectura le descubrió las obras —prohi-bidas por el Santo Oficio— de Erasmo de Rotterdam, prelado católico y uno de los más brillantes académicos y humanistas del siglo xvi que lo enfrentaron con sus primeros problemas. En 1576, el Prior del convento le anticipó que, debido a su crítica al uso de medallones de la Virgen y los santos, y a que había citado argumentos de Erasmo en algunos debates, se le podría acusar de herejía y, por tanto, comenzar un proceso jurídico en su contra.
 
 
Bruno deja el convento de Nápoles a causa del miedo que le es infundado, e inicia sus viajes por Italia, primero, y después por Francia, Inglaterra, Alemania y Suiza. Es en este periodo cuando crea su legendaria fama como debatidor, mujeriego, maestro, poeta, políglota, filósofo y memorista inolvidable. Además publicó obras sobre muy variados temas y géneros, tanto en la corte de Enrique III en Francia y de Isabel I de Inglaterra, como en la universidad, de París, Oxford, Wittenberg y Praga, y en las más diversas comunidades protestantes. Abordaba métodos para la memoria, interpretaciones de las Sagradas Escrituras, poemas, una comedia de teatro (lI candelaio, el hacedor de velas), magia, y sobre el sentido y validez de las religiones, lucubrando sobre la naturaleza humana y la vastedad del cosmos.
 
 
Como parte de la elite intelectual de Europa, estaba al tanto de las corrientes de pensamiento de su época en casi todos los temas. Usando las ideas de Copérnico y de Cusa, se anticipó al proponer una visión del cosmos parecida a la que actualmente tenemos. Para Copérnico, la Tierra deja de ser el centro del Universo y es un planeta más en movimiento alrededor del Sol; la esfera celeste más lejana da al Universo una estructura amplia, pero finita. En su obra De l’infinito universo e mondi, Bruno especula cómo las estrellas son soles semejantes al nuestro, infinitas en número, y en torno a las cuales habría mundos paralelos rotando como los del Sistema Solar; desechando con esto el geocentrismo y el antropocentrismo. Más aún, imagina un espacio infinito, sin puntos o direcciones privilegiadas, en el que sistemas solares nacen y mueren, con la posibilidad de formas de vida distintas y hasta racionales. La naturaleza es para Bruno el todo orgánico que ocupa el centro del escenario; los seres humanos y su mundo son un mero accidente (circonstanzi) de importancia sólo local, aunque percibido como una mónada es una imagen del todo. Con este pensamiento anticipa las monas o mónadas de Leibnitz, que son aquellos elementos que forman el todo. En De Triplici minimo, propone el mínimo matemático (la unidad), el físico (átomo) y el metafísico (alma) como base de todo. Para Bruno, como para nosotros en la actualidad, el mundo natural es el sistema armónico que exhibe a los átomos y sus interrelaciones.
 
 
Su mérito, más que por la validez de sus especulaciones, es representar al espíritu libre y la mente audaz que, con la cultura y el conocimiento de su época, se atrevió a especular y cuestionar, debatir y criticar, a proponer y construir. También representa a la víctima de una sociedad corrupta y temerosa, al luchador solitario e indomable y, finalmente, el derecho a estar equivocado. Su obra influyó directa e indirectamente en sus contemporáneos, como Galileo Galilei, a quien se le ofreció la plaza de profesor de matemáticas en la Universidad de Padua y que ocupó temporalmente Bruno en 1591, y William Gilbert, médico de Isabel I y autor de la primera obra científica sobre electromagnetismo, De Magnete. De hecho, algunas de sus ideas pueden identificarse en notables filósofos que le sucedieron, como Leibnitz y Spinoza.
 
 
Cuando Bruno aún era un niño, el Concilio de Trento había establecido normas estrictas de interpretación en un intento por mantener la unidad de la Iglesia, al menos en Italia, y había clarificado diversos aspectos, de contenido y forma del credo católico. Todo esto para contrarrestar la intensa y volátil actividad de los movimientos de reforma de Lutero en Alemania y de Calvino en Francia y Suiza. La bula que formalizaba la clausura del Concilio prohibía a cualquiera “publicar del modo que fuese, todo tipo de comentarios, glosas, anotaciones, escolios o cualquier interpretación de los decretos”; parece inverosímil, sin embargo, la tragedia es que actualmente hay instituciones y Estados en los que sigue ocurriendo.
 
 
Con esto, la Santa Inquisición adquiría una “responsabilidad” mucho mayor y una justificación más para ampliar su ámbito de influencia.
 
 
En una desafortunada estimación de la situación política, Bruno vuelve a Italia. Después de unos meses en Padua, viaja a Venecia en 1591, en donde es contratado por el patricio, Consejero de la República de Venecia, Zuane Mocenigo, quien esperaba ser iluminado sobre magia y adquirir las dotes retentivas de Bruno; pero pronto se decepciona, especialmente cuando éste manifiesta su propósito por volver a Fráncfort del Meno para publicar unos trabajos, por lo que unos meses después lo denuncia y lo entrega a la Santa Inquisición. La defensa de Bruno parecía avanzar en su favor cuando argumentaba, antes que Galileo, que la Biblia debía ser la guía en los asuntos del comportamiento y la fe, y no en lo que toca a la naturaleza; especialmente en temas astronómicos. Ni aun hoy esto es comprendido cabalmente, los creacionistas, así como diversos grupos retrógradas de la sociedad, son un ejemplo de ello.
 
Mientras Bruno mantuvo el camino del disenso honesto y digno, acabando en el martirio, Galileo, décadas después y a una edad avanzada, consciente del desenlace de Bruno, decide retrac-tarse de sus ideas sobre el movimiento celeste.
 
 
Una semana antes de hacerse efectiva, Bruno escucha la sentencia condenatoria del tribunal que cree que al quemar públicamente todas sus obras y su cuerpo acabaría con sus ideas. La entereza de Bruno se manifiesta cuando responde: “En este momento, señores, quizá vuestro temor al sentenciarme sea mayor que el mío al recibir la sentencia”.
 
 
El 17 de febrero de 1600, Giordano Bruno fue conducido al Campo dei Fiori. Allí, en público, fue desnudado y amordazado. Mientras ardía en el fuego, cantos sobre el amor divino se elevaron al cielo entrelazados con el humo.
 
 
Una efigie de Giordano Bruno, el Nolano, encapuchado que parece meditar mirando al horizonte, fue develada por universitarios en el Campo dei Fiori en 1889. En la parte inferior tiene una inscripción que reza: “A Giordano Bruno; el siglo que él anticipó. En Roma, donde fue quemado en la pira”.
 
 
La barbarie de la Inquisición no es un hecho aislado en la historia. La intolerancia y la ausencia de argumentos siguen siendo el motivo para la violencia, tanto oficial como la de grupos que reclaman la “pureza” o la “verdad”, como si tal cosa existiera. Los bombardeos norteamericanos e israelitas, la explosión de bombas en Madrid o en Jerusalén de fanáticos nacionalistas y el atentado en Nueva York, no difieren mucho de los actos de Stalin, Milosevic y Hitler; los militares argentinos y, en su momento, los mexicanos, justificaron el asesinato en aras de la defensa de la nación, como inquisidores modernos bendecidos con la “razón”; la diferencia en el número de muertes no indica diferencia en la “moral” involucrada. Nada puede justificar las pugnas tribales de 1994 en Ruanda y Burundi, entre tutsis (batusis o watusis) y hutus, con la muerte de cientos de miles de civiles, ni la matanza de Acteal en Chiapas en 1998 o el crimen de la abogada Digna Ochoa en la Ciudad de México en 2001.
 
 
Todavía cuesta la vida disentir, saber demasiado, enfrentarse al sistema: todos tenemos derecho a vivir equivocados.Chivi66
 
 

Ramón Peralta y Fabi
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
como citar este artículo
Peralta y Fabi, Ramón. (2002). La vastedad del cosmos y el derecho a estar equivocado. Ciencias 66, abril-junio, 86-89. [En línea]
 
  P01 P02  
 
 
     
Metafísica experimental y mécanica cuántica
 
Luis de la Peña y Ana María Cetto
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Cada vez que ha surgido una nueva rama de la física —sea la mecánica clásica, la óptica, el electromagnetismo, u otra— su desarrollo ha implicado la necesidad de revisar preconcepciones y de crear conceptos apropiados para entender, describir y relacionar los nuevos fenómenos en cuestión. Este tipo de trabajo, el de construcción de la base conceptual de una nueva teoría, normalmente implica una confrontación de visiones; y en el camino suelen presentarse fuertes desacuerdos y resistencias a la aceptación de las nuevas ideas, antes de quedar establecido un andamiaje conceptual más o menos completo y coherente, que sirva de soporte para la nueva teoría.
 
El desarrollo de la mecánica cuántica no ha sido la excepción. El hecho de que los fenómenos típicamente cuánticos se presenten normalmente en sistemas de pequeñísima dimensión, no susceptibles a observación directa, abre la posibilidad a diferentes lecturas del mundo cuántico, que conducen a esquemas conceptuales discrepantes entre sí. Si bien uno de ellos ha adquirido amplia popularidad, no puede decirse siquiera que esté libre de severas dificultades conceptuales. Detrás de cada uno de estos esquemas se encierra toda una forma de leer la naturaleza y de interpretar sus mensajes; el asunto por lo tanto tiene profundas implicaciones metafísicas. No es gratuito que los debates en torno a la interpretación de la mecánica cuántica hayan llenado algunas de las páginas más notables de la historia de la física del siglo pasado.
 
 
En el proceso de construcción y consolidación del andamiaje conceptual, los experimentos juegan a menudo un papel privilegiado. Más allá de confirmar las predicciones del nuevo formalismo, y de explorar los límites de su aplicabilidad, pueden ayudar a profundizar en la comprensión de los nuevos fenómenos, o inclusive a someter a prueba su ropaje interpretativo. Así, en las últimas décadas se ha realizado toda una serie de complejos y delicados experimentos con el propósito de confirmar la interpretación que oficialmente acompaña a la mecánica cuántica —y que es considerada parte integral de esta teoría.
 
Tales experimentos se han hecho posibles gracias a que hoy día se cuenta con instrumentos capaces de crear condiciones muy especiales —como cavidades microscópicas que encierran una o dos partículas en su interior bajo condiciones controladas, átomos en estados bien definidos, haces de luz de muy baja intensidad, etcétera. La motivación para llevarlos a cabo no es solamente de origen metafísico; una buena parte de este trabajo experimental tiene implicaciones importantes en áreas de investigación de avanzada, como la computación cuántica y la transmisión de mensajes codificados. Tal circunstancia ayuda, naturalmente, a mantener en estado de buena salud financiera a estos proyectos experimentales.
El indeterminismo cuántico
 
Una de las características de la mecánica cuántica más extensamente discutidas en la literatura que aborda los problemas conceptuales de esta teoría, ya sea a nivel profesional o de divulgación, es su indeterminismo.
 
El que una teoría física no sea determinista no representa en sí ningún problema, si lo consideramos una propiedad de nuestra descripción, más que una propiedad ontológica del sistema examinado o descrito. Y en efecto, el que el comportamiento de un sistema físico o de cualquier otra índole sea descrito como tal no significa, sino que el cúmulo de factores que determinan detalladamente su comportamiento ha sido dejado a un lado al separar, conceptualmente, el modelo que se discute de una parte de su entorno. Veamos un ejemplo para ser claros: consideremos un recipiente cerrado que contiene únicamente algún gas, y que se encuentra a una temperatura fija (por ejemplo, la del medio ambiente). Sabemos bien que existen leyes relativamente simples que nos permiten determinar la presión del gas en términos del volumen y la temperatura; como ambos son fijos, también la presión es fija. Todo parece estar determinado. Pero en realidad no, pues basta que nos preguntemos con qué velocidad se mueve una cierta molécula (alguna en particular, arbitraria y libremente escogida de entre los cuadrillones que contiene el frasco) para advertir, de inmediato, que no tenemos información alguna para contestar: la velocidad puede ser prácticamente cualquiera. Lo que las simples leyes de la termodinámica nos permiten determinar con precisión es la velocidad promedio de las moléculas o la velocidad más probable, y otras cantidades como éstas, pero no más.
 
La descripción termodinámica es global, no entra en los detalles del movimiento de cada molécula, sino que contempla sólo algunas de sus propiedades estadísticas. Se trata así de una descripción muy simple y útil —pero claramente incompleta. Los movimientos particulares de cada una de las moléculas quedan indeterminados, o sea que la teoría proporciona una descripción indeterminista. Sin embargo, nadie dudaría que hay factores físicos que determinan con precisión el movimiento de cada molécula —al menos mientras consideremos al sistema dentro de los cánones de la física clásica—, aunque no lo conozcamos. El sistema es determinista; lo indeterminista es la descripción que de él hacemos.
 
El meollo del problema con la teoría cuántica es que percibimos el indeterminismo de los sistemas por ella descritos, pero a la vez consideramos esta descripción como acabada, como la más completa posible. Esto usualmente se entiende en un sentido estricto, es decir, no como la descripción más completa de que disponemos hoy en día, sino la más completa en principio, ahora y para siempre.
 
Recurramos otra vez a un ejemplo sencillo para aclarar el punto. Pensemos esta vez en una pizca de un material radioactivo con una vida media de algunos minutos. Esto quiere decir que cualquiera de los (muchísimos) núcleos radioactivos de la muestra puede decaer en el curso de los próximos minutos, aunque también puede no hacerlo. Precisar cuales núcleos decaerán en los próximos cinco minutos y cuales no, queda fuera de las posibilidades de la teoría, que sólo puede decir qué fracción del total decaerá en ese lapso. Además, en cada decaimiento el correspondiente núcleo emite una partícula —supondremos que son electrones, pero podría ser otra cualquiera— que sale en un caso en una dirección, en el siguiente en otra dirección cualquiera, y así sucesivamente. El resultado es que cuando decaen muchos núcleos, salen electrones uniformemente repartidos en todas las direcciones. A pesar de que cada decaimiento se produce en un momento preciso y emite un electrón en una dirección bien establecida, la descripción cuántica —la mejor con que contamos— no nos permite determinar estos datos precisos, sino sólo la probabilidad de que un núcleo dado que aún no ha decaído, lo haga dentro del plazo dado, como hemos dicho, y la probabilidad de que el electrón emitido caiga o no dentro de la ventana estrecha de un detector colocado en las cercanías. La naturaleza decide con precisión; nosotros únicamente calculamos con probabilidades.
 
Si se creyera —que, como hemos visto, no es el caso— que la situación es análoga a la de la molécula del gas, no habría nada de extraño en el comportamiento cuántico. Pero la convicción prevaleciente de que hasta aquí podemos —y podremos— llegar con nuestras descripciones del mundo cuántico, convierte a este indeterminismo en algo esencial. Como este fenómeno es omnipresente en la teoría cuántica, suele interpretársele como manifestación de una nueva propiedad de la materia: si no es el caso que la propia naturaleza es indeterminista, lo son al menos y de forma irremediable e irreductible nuestras descripciones de ella, como lo expresan formalmente las llamadas relaciones de indeterminación de Heisenberg (conocidas también bajo otros nombres y significados, pero esto lo podemos dejar de lado), o como indeterminismo ontológico, o indeterminismo epistemológico, pero indeterminismo al fin.
 
Iconoclasia de las variables ocultas
 
Para muchos espíritus este estado de cosas resulta poco satisfactorio: es posible entenderlo como un resultado de nuestros procedimientos de investigación y descripción, o como una característica del conocimiento alcanzado, pero no como una ley de la naturaleza. Sin duda alguna, el más conocido de los físicos que de manera abierta se negó a aceptar como definitiva a la mecánica cuántica (con todo y su ropaje interpretativo), precisamente por su indeterminismo esencial, es Einstein, a quien no tenemos necesidad de presentar. A su lado ha alineado toda una fila de científicos realistas que, al igual que él, ven en la teoría actual un magnífico logro, pero no una teoría final, acabada. Naturalmente, las razones y circunstancias de cada uno de estos disidentes son muchas y muy variadas, de tal manera que no podemos decir que se trate de una escuela, sino más bien de una posición común de principio.
 
En la mente de muchos de estos iconoclastas surge la idea de que debe ser posible construir una teoría más refinada y rica que la actual, la cual contenga variables de algún tipo hoy desconocidas que sean las responsables de los diversos posibles comportamientos; su conocimiento detallado explicaría el del sistema cuántico, y el indeterminismo desaparecería. Por ejemplo, en el caso del gas clásico, se trataría de todo el conjunto de velocidades y posiciones de las otras moléculas, más los datos del recipiente, lo que determinaría detalladamente la velocidad y posición de la molécula de nuestro interés. Basta esta imagen para entender la razón por la cual a estas hipotéticas variables, que transformarían en deterministas a los sistemas cuánticos, se les conoce bajo el nombre genérico de variables ocultas. En ellas radicaría el misterio que los físicos deterministas desearían resolver.
 
Para que una teoría de variables ocultas tenga interés físico y perspectivas de éxito debe cumplir varios requisitos indispensables. Dos de ellos son obvios: las variables deberán ser distribuidas, y la teoría resultante deberá ser plenamente compatible con la mecánica cuántica actual y reproducir sus resultados dentro de los estrechos límites que fijan los experimentos. La primera simplemente dice que es en las diferentes realizaciones de tales variables en donde debemos encontrar la razón de los diferentes resultados observados o predichos por la teoría, con lo cual el actual indeterminismo se transforma en el mero resultado de las realizaciones azarosas de las posibilidades, que naturalmente se dan en el sistema. La segunda condición resulta del hecho de que las predicciones de la teoría cuántica contemporánea, que cubren un impresionante rango de fenómenos físicos de muy diversas escalas y estructuras, nunca han sido fallidas, y que algunas de ellas han sido verificadas con la increíble precisión de diez dígitos. Sirva de referencia que en la ingeniería usual una exactitud de una parte en mil ya es considerada como ingeniería de precisión y difícilmente se alcanza la de una parte en diez mil, salvo en aplicaciones muy especiales, como sucede en la óptica.
 
Pero aún hay más (como nos enseñara a decir uno de los más profundos filósofos de la televisión nacional): es claro que si la intención al introducir las variables ocultas es darle a la teoría una estructura conceptual aceptable dentro de los cánones del realismo, estas variables a su vez deberán tener propiedades plenamente aceptables según los mismos cánones. Aquí es donde vuelven a complicarse las cosas. La historia de este asunto es compleja y larga —pues se inicia en 1932, muy pocos años después del nacimiento de la teoría cuántica que hoy manejamos y que podemos situar en el curso de los años 1925 a 1927—, por lo que sólo haremos referencia a los puntos centrales, sin pretensión alguna ni de totalidad ni de apego a la cronología del tema. En aquel año, 1932, apareció publicado el primer texto de mecánica cuántica escrito por un matemático, el húngaro-norteamericano Johann von Neumann —por cierto, uno de los verdaderamente grandes matemáticos del siglo xx, quien, entre tantas otras cosas, fue uno de los creadores de la actual computadora digital. En su libro, von Neumann incluyó una famosa demostración sobre la imposibilidad de construir una teoría de variables ocultas consistente con la mecánica cuántica. Con esto, el sueño realista se quedaba en esto, un sueño. Naturalmente los esfuerzos en esta dirección se redujeron drásticamente, mientras su descrédito se extendía. Peor aún, como respuesta a las limitaciones que se le encontraron al teorema de von Neumann en el curso de las décadas, aparecieron otros teoremas similares (de Kochen y Specker, de Gleason, etcétera), que venían a reforzar el clima contra la propuesta realista.
 
Las desigualdades de Bell
 
De entre todos estos esfuerzos el que indudablemente tuvo mayor éxito fue el del físico inglés John Bell, con su famoso teorema de 1966. En realidad se trata de un teorema muy simple y general que debe cumplir cualquier teoría realista cuántica —el que una descripción del sistema cuántico sea realista significa que se puede hacer, al menos en principio, en términos de las trayectorias seguidas por las partículas— con propiedades físicamente aceptables (como las citadas arriba), a lo que se agrega la demostración, vía un ejemplo específico, de que la teoría cuántica viola tal teorema en situaciones apropiadas. La amenaza de muerte de las intenciones realistas parecía cumplirse finalmente.
 
El resultado vino a ser un tanto paradójico, pues la intención de Bell, al enfocar sus esfuerzos en este tema, era precisamente la opuesta a lo que emergió de su empeño. Bell analizó la interpretación causal de la mecánica cuántica propuesta desde 1952 por el físico estadounidense (a pesar de Estados Unidos) David Bohm, que es una teoría de variables ocultas plenamente consistente con el formalismo cuántico (pues se trata sólo de una relectura de sus resultados, en términos realistas). Luego la mera existencia de la teoría de Bohm desdecía el teorema de von Neumann y mostraba que algo esencial estaba mal en todo este entramado. Para Bell, esto significaba que la sentencia de muerte del realismo no estaba realmente dictada, lo que le complacía, pues él mismo era un físico realista. Sin embargo, prestó de inmediato atención a una propiedad central y no precisamente atractiva de esta teoría, y se preguntó si ella era inevitable en cualquier teoría de variables ocultas, o bien se aplicaba específicamente a la teoría de Bohm. Fue en la búsqueda de la respuesta a esta interrogante que Bell llegó a su teorema.
 
 
El punto en cuestión es que la teoría de Bohm no es local. Esto puede sonar demasiado abstracto a algunos e irrelevante a otros, pero se trata de algo fundamental e incompatible con principios centrales de la física no cuántica (y del resto de las ciencias naturales). La no localidad significa que un cuerpo puede actuar sobre otro a distancia. Tal acción ocurre en la mecánica cuántica que es no relativista de manera instantánea, pero podemos achacar esto al carácter no relativista de la teoría, o sea al hecho de que el formalismo cuántico usual no es consistente con la teoría de la relatividad —deficiencia que se corrige con una versión relativista de la teoría. Sin embargo, dada su naturaleza, esta interacción a distancia no desaparecería aun en la versión relativista. El punto es si en efecto un cuerpo puede actuar sobre otro sin conexión causal aparente o, en términos más simples, sin que medie fuerza alguna entre ellos. Hasta se estremece uno un poco con esta pregunta, la cual parece pertenecer más bien al terreno de lo sobrenatural. La respuesta que da la física no cuántica es un rotundo no. Y esa misma respuesta quisiera poder darla un sector importante de los físicos realistas, aunque no todos, en el caso de la física cuántica. Por ejemplo, Bohm, el propio Bell y muchos otros físicos e incluso filósofos de la ciencia, han asumido la no localidad cuántica como algo que nos impone la naturaleza y que debemos aceptar, gústenos o no. Si ello contradice nuestra intuición o visión filosófica, peor para nosotros, nos dirían, pues no nos queda más que cambiarla si deseamos profesar una filosofía compatible con las leyes naturales; es decir, debemos dejar que la naturaleza nos imponga sus leyes, en vez de tratar de imponerle las nuestras.
 
Sin embargo, para el sector de físicos realistas que se estremece con la pregunta sobre la localidad, la respuesta anterior aparece como la aceptación de una comunión entre la magia y la ciencia. El precio que se está pagando por eliminar el indeterminismo resulta demasiado alto. Para el sector de iconoclastas empedernidos es tan inaceptable la no localidad, como el indeterminismo esencial. Lo que se antoja es una teoría a la vez realista y local, en vez de la actual teoría indeterminista o no local.
 
A diferencia de resultados anteriores, como el teorema de von Neumann y otros, el teorema de Bell tiene dos características de gran relevancia. Una es la simplicidad y generalidad de su derivación, que lo torna transparente y difícilmente rebatible. Otra, la que ha determinado su éxito, es que su enunciado es tal, que se hace posible llevarlo al experimento. Se trata de verificar en el laboratorio que los sistemas cuánticos cumplen las predicciones de la teoría cuántica y violan ciertas desigualdades matemáticas, que Bell obtuvo a partir de las demandas de determinismo y localidad (y nada más, fuera de relaciones probabilistas muy generales y elementales). Así, lo que se pretende probar en el laboratorio es si los sistemas cuánticos contradicen o no la demanda de realismo local, que se refiere más a un principio metafísico que físico. Con esto se han abierto las puertas a un nuevo terreno, hasta hoy totalmente impensado, al que algunos autores comienzan a llamar metafísica experimental. Quizá sea un poco exagerado hablar en tales términos en este momento; pero sí es un hecho que las fronteras de lo físico y experimentable se han recorrido significativamente con estos estudios.
 
Las predicciones de la teoría cuántica han sido tantas y tan bien verificadas que la mayoría de los físicos no dudaría en suponer que en estos experimentos también se cumplirán. Hay quienes, incluso, han insistido en que no se requiere hacer ninguno nuevo: la simple extrapolación de nuestra experiencia cuántica nos hace saber que los sistemas cuánticos pueden violar las desigualdades de Bell. ¿Para qué malgastar tiempo, esfuerzo y dinero en lo obvio?
Sin embargo, cuando se trata de principios generales y profundos hay quienes perseveran. Es posible que la naturaleza sea como se nos dice, nos guste o no creerlo; pero esto no ha sido demostrado, sino simplemente aceptado como resultado de ver y leer el formalismo de la mecánica cuántica desde una cierta perspectiva, la ortodoxa. No estamos obligados a rechazar a priori otras posibilidades, como la que precisamente postula el realismo local. Por tanto, la realización de los experimentos tiene sentido, pues se trata de certificar o negar predicciones que son específicas de la teoría cuántica. Y el argumento se ha reforzado profundamente de la manera más convincente y simple posible: diversos autores han construido modelos realistas locales de los dispositivos experimentales que satisfacen cumplidamente los resultados. Esto refuta de manera evidente la convicción generalizada y popular de que los experimentos realizados han demostrado la incompatibilidad entre el realismo local y el comportamiento de la naturaleza.
 
Son varios los que se han hecho —en realidad no con partículas, sino con luz, pero formalmente las cosas son equivalentes para la mecánica cuántica a través de la dualidad onda-corpúsculo— y todos parecen conducir a conclusiones consistentes con las predicciones cuánticas. Con ello suele justificarse la conclusión mencionada líneas arriba sobre el realismo local. Sin embargo, aun aquí hay gato encerrado, pues diversos análisis detallados de los experimentos han mostrado que todos contienen algún punto débil: o enfrentan problemas de muestreo estadístico, o bien debido a la baja eficiencia de los detectores, o a la necesaria supresión del ruido de fondo, o a la introducción obligada de hipótesis adicionales no verificadas (en ocasiones incluso inverificables). De manera que siempre hay alguna vía de escape que permite la construcción de un modelo realista local capaz de reproducir los resultados observados, e incluso, en varios casos, de ir más allá. Basta la existencia de un solo modelo de esta naturaleza consistente con la mecánica cuántica, para que pierda toda su fuerza el correspondiente experimento como refutación del realismo local. Es claro que hasta que no se haya realizado simultáneamente un experimento libre de todas las escapatorias conocidas, no se deberá considerar como ganada la ofensiva contra el realismo local.
 
¿Qué tan definitivo es lo concluido?
 
Las desigualdades originales de Bell no son homogéneas en las probabilidades de coincidencia, o sea que están relacionadas con números absolutos. Pero verificar relaciones de este tipo está más allá del límite de las posibilidades tecnológicas contemporáneas, básicamente debido a la baja eficiencia de los detectores. Lo que se puede poner a prueba en el laboratorio son otras desigualdades, de tipo homogéneo, que se derivan de las de Bell, a costa de agregar hipótesis suplementarias sobre el comportamiento de los detectores, los polarizadores, etcétera. Como éstas no han sido verificadas, no queda excluida la posibilidad de que sean ellas las responsables de la supuesta violación del realismo local, sin que ello cree ningún problema mayor.
 
A lo anterior podemos añadir consideraciones de otra naturaleza, que permiten rescatar el realismo local sin afectar la teoría cuántica. Una primera muy básica es la siguiente: los estados cuánticos que conducen a la violación de las desigualdades de Bell son los conocidos como estados entrelazados (entangled) entre dos partículas. Estos son estados que se refieren simultáneamente y de manera indisoluble a las dos partículas de una pareja y no permiten hacer una afirmación sobre el posible estado de cada una por separado. Mucho se ha escrito sobre ellos, pero poco se les entiende realmente; poseen multitud de propiedades anti-intuitivas y son en buena medida responsables de una variedad de sorprendentes, cuasi mágicos, fenómenos cuánticos. Lo que nos importa resaltar aquí es que las correlaciones entre las dos partes entrelazadas del sistema que tienen propiedades son locales. De hecho, es esta ausencia de localidad la que pone en evidencia las desigualdades de Bell.
 
En otras palabras, la no localidad está ya en cada una de las correlaciones que se miden en los experimentos, por lo que es perfectamente posible, al menos en principio, olvidarse de las desigualdades de Bell si de lo que se trata es de evidenciar la falta de localidad cuántica, y medir sólo las correlaciones entre la pareja de partículas entrelazadas. El resultado será tan no local como lo que intenta ponerse en evidencia con los experimentos más complejos como los de Bell. Luego lo que está realmente a discusión es si las propiedades no locales de un sistema entrelazado se preservan intactas cualquiera que sea la distancia, aun macroscópica, entre las dos partes del sistema, o si hay límites espacio-temporales, aún no establecidos, para la preservación de la integridad de estos estados.
 
Este es un tema que en varias formas se encuentra también en escrutinio activo, bajo el nombre genérico de decoherencia. Y poco a poco se está abriendo paso la idea de que, en efecto, existen factores naturales que limitan la vida de la coherencia cuántica. El tema es de gran importancia práctica, aunque parezca increíble, pues es precisamente el fenómeno de entrelazado el que sirve de soporte a las ideas relacionadas con temas tan actuales como la computación cuántica, la (mal) llamada teleportación, el cifrado seguro de mensajes, etcétera. Seguramente dentro de muy poco tiempo tendremos mucho más que decir respecto a estos asuntos; hoy por hoy no sabemos con certeza en qué sentido habrán de evolucionar nuestros conocimientos al respecto.
 
Un segundo comentario, que surge de manera natural, se refiere al sentido físico que pudieran tener las variables ocultas. Si se tratara de un esquema meramente formal, es decir, con las variables adicionales introducidas ad hoc con el solo propósito de recuperar la causalidad, no sería mucho lo que se ganaría en comprensión física. En alguna forma esto es lo que se hace en la teoría de Bohm, donde a la propia función de onda cuántica se le asigna el papel de un campo físico sui generis, generador de la fuerza no local que conduce al comportamiento cuántico. En ésta no se introducen elementos físicos nuevos; se trata de la vieja mecánica cuántica vestida con un ropaje diferente.
 
Pero hay otras alternativas más ricas, una de las cuales, la electrodinámica estocástica, nos parece que tiene un buen porvenir. En esta teoría se toma seriamente al campo de radiación de fondo, el llamado campo de punto cero o de vacío, que es un ruido electromagnético que persiste aun a temperatura cero. Se trata de un campo bien conocido dentro de la electrodinámica cuántica, pero tomado usualmente en ella como un campo virtual, responsable apenas de algunas correcciones menores a los resultados predichos por la mecánica cuántica. Si se considera que el espacio está ocupado al menos por este campo de vacío, la imagen de la dinámica de los electrones atómicos cambia sustancialmente, pues cada uno de ellos se encontrará en permanente e inevitable interacción con este campo estocástico, lo que le imprimirá un movimiento azaroso.
 
He aquí un mecanismo simple que explica de inmediato no sólo el aparente indeterminismo de los átomos, sino su estabilidad, problema cuya comprensión física se le escapa a la mecánica cuántica. En efecto, cada estado estacionario atómico puede entenderse ahora como un estado donde la potencia media extraída del campo por el electrón se compensa en promedio con la potencia radiada por éste. Incluso la misteriosa causa que vincula electrones separados distancias apreciables en los estados entrelazados (aunque siempre dentro de la escala atómica) y da lugar a la aparente no localidad discutida arriba, queda explicada en principio. Puesto que las longitudes de onda de los componentes del campo de vacío que determinan los rasgos esenciales de la dinámica (de unos miles de ángstroms) se extienden normalmente por muchas distancias atómicas (que son apenas de algunos). Es de esperar entonces que tienda a establecerse una correlación importante entre los movimientos de partículas relativamente separadas, pero que comparten un mismo (o varios) componentes relevantes del campo de fondo: quedan ellas vinculadas dinámicamente a distancia a través de este campo.
 
La somera descripción anterior puede verse como una propuesta concreta para construir una teoría alternativa, que sirva de fundamento a la mecánica cuántica contemporánea y brinde una explicación racional, causal y realista a sus propiedades misteriosas. De hecho, con esta intención se le ha ido investigando y elaborando durante las últimas décadas, pero puede tomarse otra perspectiva menos comprometida, reduciéndose a ver en la electrodinámica estocástica un ejemplo que muestra la posible existencia de vías alternas capaces de ofrecer una salida interesante y enriquecedora a los problemas que confronta la actual mecánica cuántica. Lo que parece menos prometedor es dejar las cosas como están, que es, en el fondo, lo que propone la ortodoxia de los textos.
 
De todo lo anterior puede concluirse, con optimismo, que la mecánica cuántica está lejos de ser una teoría acabada, y que tanto en el terreno teórico como en el experimental hay aun un enorme trabajo por delante, cuyos resultados podrán tener consecuencias importantes importantes en ámbitos tan distantes como la metafísica y la alta tecnología.Chivi66
Referencias bibliográficas
 
Bell, John S. 1966. “On the Problem of Hidden-Variables in Quantum Mechanics”, en Rev. Mod. Phys., vol. 38, núm. 447.
. 1987. Lo decible y lo indecible en mecánica cuántica. Alianza Universidad, vol. 661 Alianza Editorial, Madrid, 1990.
Ferrero, Miguel y Emilio Santos. 1997. “Empirical Consequences of the Scientific Construction: The Program of Local Hidden-Variables Theories in Quantum Mechanics”, en Found. Phys., vol. 27, núm. 765.
Laloë, Frank. 2001. “Do we really understand Quantum Mechanics? Strange Correlations, Paradoxes and Theorems”, en Am. J. Phys., vol. 69, núm. 655.
Patiño Jaidar, Leonardo. 2001. “¿Es no separable la mecánica cuántica?”, en Rev. Mex. Fís., vol. 47, núm. 181.
De la Peña, Luis. y Ana María Cetto. 1995. The Quantum Dice. An Introduction to Stochastic Electrodynamics. Kluwer Academic Press., Dordrecht.
Selleri, Franco. 1990. Quantum Paradoxes and Physical Reality. Kluwer Academic Press., Dordrecht.
. 1986. El debate de la teoría cuántica. Alianza Editorial, Madrid.
Sulcs, Sue y Graham Oppy. “The Rejection of Local Realism is Premature”, en Found. Phys. Lett., vol. 13. núm, 521.
Wick, David. 1996. The Infamous Boundary. Seven Decades of Heresy in Quantum Physics. Copernicus (Springer-Verlag), Nueva York.
 

Luis de la Peña
Instituto de Física,
Universidad Nacional Autónoma de México.
 
Ana María Cetto
Instituto de Física,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 
como citar este artículo
De la Peña, Luis y Cetto, Ana María. (2002). Metafísica experimental y mecánica cuántica. Ciencias 66, abril-junio, 16-23. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Morbilidad psiquiátria entre los profesionales de la salud
 
Arnoldo Kraus
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En el ámbito médico, es lugar común escuchar que los doctores son los peores pacientes. De ser cierta esa aseveración, es menester recurrir a varias hipótesis para explicar porqué los médicos, al enfermar, confrontan, viven, interpretan o cambian el significado de los padecimientos. Hipótesis que tiene la magia de representar una de las verdades más fascinantes, y, a la vez, menos conscientes de la medicina: enfermedad, enfermo y médico, al unirse, interactúan y representan una historia.
 
Observar desde afuera ese escenario no es menos interesante que ocupar una butaca en el teatro. Presenciar los vínculos entre médicos supuestamente sanos —esa es una de las funciones de la bata y de los diplomas que burocratizan las oficinas médicas— y doctores, probablemente enfermos, cargados de síntomas y signos, puede ser una experiencia irrepetible. ¿Está seguro el doctor enfermo de que el doctor médico tiene el don de la escucha y el estetoscopio en el corazón? ¿O que la pluma prescribe lo que debe? La trama es difícil: ser doctor y enfermo a la vez resulta complejo. Ser doctor-enfermo y creer en el doctor-doctor es una aventura con infinidad de caminos.
 
Todo es factible; el paciente habla y el médico escucha; habla el galeno y oye el doctor transformado en paciente; ambos conversan pero ninguno escucha. Después sigue la actuación; emerge el dolor físico, del alma, del vacío; siguen los tonos diversos de la voz, los ademanes, los guiños. El paso siguiente es caminar a la sala de exploración; desvestirse, señalar el sitio del dolor, voltearse, respirar hondo, arrugar la frente, soplar y describir con algún movimiento y palabras aquello que tanto lastima; hasta que, finalmente, se vuelve imprescindible encontrar la oración precisa que convierta el dolor en diagnóstico. Pero ¿qué implica el escenario anterior? Será tan sólo una forma de actuación, cuya dinámica se modifica, quizá más, cuando el enfermo es doctor.
 
Estos juegos, repetidos y estudiados, sufridos y esperanzados, son ensayos y preámbulos de infinidad de repertorios. No en balde muchos pacientes, antes de hablar, sacan del bolso una serie de anotaciones que son como el guión de su enfermedad. Los médicos enfermos lo hacen con frecuencia: la lista asegura que todas las quejas queden registradas; sus síntomas y sospechas no pueden, no deben, defraudar su autodiagnóstico; cada síntoma equivale a una porción del reparto, cada doctor un actor potencial, y cada nota, convertida en dolor, una súplica de cura.
 
La pregunta sería entonces: ¿saben más los doctores enfermos acerca de su mal que los enfermos no doctores? La experiencia lo niega, ya que los médicos llegan a alterar la realidad. Es común, y quizá demasiado frecuente, diagnosticar depresión en psiquiatras o médicos que acuden con el internista en busca de un algo que lo “todo” explique.
 
La historia clínica y las notas posteriores son elementos en los que el médico construye el “otro” esqueleto del doliente. Probablemente, sea, incluso, el más importante, el más real, pues contiene la vida del sujeto leída a partir del dolor, quien, al sufrir, reinventa su verdadera historia con tal de sanar o transformarse en otro. Si uno fuera capaz de reproducir las quejas de los médicos pacientes, las novelas sobre enfermedad y con ellas alguna cura, no sólo proliferarían, sino que podrían ser libros de texto. No hay paradoja oculta; a partir del dolor la verdad se convierte en realidad.
 
Regreso a las hipótesis de que los doctores son los peores pacientes, porque imaginan más de lo que deben y sobreinterpretan sus síntomas al creer que saben demasiado. Además, hay quienes consideran que el mejor médico es el más famoso, pero en el camino descubren que tanta ocupación genera una atención impersonal (Charles Bukowski solía decir que la fama es la peor puta de todas). No son pocos los que se consideran inmortales, mientras otros, a pesar de saberse deprimidos, acuden desesperadamente en busca de algún diagnóstico físico que oculte los males del alma; tal vez, porque desconfían de la medicina, de ellos y, por supuesto, del de enfrente. Por tanto, ser médico enfermo es complejo: ¿cuántos doctores consultan a tiempo? ¿Cuántos consideran que no afrontar la enfermedad puede ser más terapéutico que ser diagnosticado? ¿Cuántos aceptan el destino de ser ahora enfermos?
Quizá también son malos pacientes, porque conocen los efectos colaterales de los medicamentos y desconocen, a pesar de manifestar lo contrario, las heridas de la enfermedad. Si la tan mencionada y rediviva relación médico-paciente es todo un reto, ¿qué decir de la relación médico-médico enfermo? Y a la vez, si comprender síntomas y palabras es de por sí un acto complejo, ¿cómo entender el dolor disfrazado, digerido e interpretado por un médico,que difícilmente acepta su psicopatología, que no siempre quiere decirlo “todo”, y que, por supuesto, no desea saberlo?
 
Virginia Woolf, quien fue objeto de tratamientos médicos inadecuados durante su temprana vida adulta, solía decir que “realmente sólo un doctor es peor que un esposo”. Vecino en tiempo y espacio, George Bernard Shaw comentó, “no conozco a ninguna persona pensante y bien informada, que no sienta que la tragedia de la enfermedad, sea la que deja al enfermo desvalido en las manos de una profesión de la cual se desconfía profundamente”. Repasar el libro de La señora Dalloway y El dilema del Doctor, no sólo garantiza la lectura de obras exquisitas, sino que además ofrece un panorama literario lleno de desencuentros de la sociedad con el mundo médico. No hay galeno a quien le gustaría ser el tema de estos y otros intelectuales que han juzgado nuestra profesión con tanto rigor.
 
Desde el punto de vista de un internista, me queda ocuparme de la morbilidad de los médicos. Para ello recurro a los pasillos del hospital, a las paredes de mi consultorio y a las lecturas de diversas revistas médicas. Por ahí deambulamos un sinfín de profesionistas con títulos que no siempre evitan el que seamos catalogados como “casos”. Ser un “caso” —término inventado por la ciencia médica— es mal negocio, ya que convierte al ente en objeto, al paciente en no persona y al signo y síntoma en una serie de posibilidades, cuya interpretación modifica al enfermo en algo “interesante”. Sus células heridas lo transforman en patología y su condición de sujeto, de humano, se esfuma y desaparece. Los famosos deja vu y jamais vu de la psiquiatría son sólo parte de la historia de esa conversión; el individuo que ha dejado de ser ente, se transforma en una suerte de despojo del ser por su propio ser. ¿Qué dirían Freud, Lacan, Fromm o ustedes mismos ante tal transmutación? Esa situación es particularmente compleja cuando el “caso” es el médico enfermo.
 
Son diversas las formas y niveles de tal morbilidad; una de ellas, poco aceptada, se engloba, paradójicamente, en el conocimiento. En las revistas médicas los galenos hablamos de medicina, de pacientes, de células, de tecnología, de ciencia profunda (hay quien no sólo conoce la molécula, sino que tiene sueños eróticos gracias a ella) y de nuevas y viejas enfermedades. Tales revistas son incontables y por ende, uno supondría, innumerables los descubrimientos. Nada es más falso; los artículos que pasan desapercibidos son miríada. El universo de lo desechable por intrascendente, porque nadie lo cita o, simplemente, porque la información ahí contenida es inútil, es inmenso. Y sin embargo, quienes lo escriben —supongo yo— son doctores, menos desechables que las ideas generadas por sus cerebros.
 
A pesar de saber muchas veces la verdad, somos suficientemente doctos para engañar y entregar una investigación inmadura que, por tanto, resulta altamente mortal. ¿Cómo es posible mentir sabiendo que lo estamos haciendo? ¿Complicidad? ¿Enajenación? O bien, ¿cómo incorporarse por obligación en un sistema no siempre deseable? Es probable que una de las formas menos reconocidas de psicopatología médica sea ésta; la de perpetuar costumbres a sabiendas de su inutilidad —escribir no porque haya algo que decirse, sino porque se debe hacerlo— o tal vez, juntar personas y transformarlas en “casos”, hacer congresos “porque toca”, o recetar porque representa una obligación.
 
El dogma anterior se ha denominado “escribir o perecer”, esto es, publish or perish en el inglés del New England Journal of Medicine. Es injusto que igualemos el deceso de los estadounidenses con el de los mexicanos, ya que la psicopatología de los galenos vecinos es muy diferente, y su óptica médica, en la que sus pacientes “casi” han dejado de ser humanos, difiere mucho de la nuestra. Las defunciones y patologías de enfermos verdaderos o de doctores enfermos son diferentes. En este tamiz hemos copiado enfermedades, e inventado también otra forma de psicopatología; la de una medicina académica yerta de humanismo, pero ávida de publicaciones.
 
Hay otros tipos de psicopatología médica que han sido estudiados con detenimiento en Europa y en Estados Unidos y que son dignos de tomarse en cuenta como: la drogadicción, la dependencia al alcohol, la depresión y la tendencia al abuso sexual de los pacientes. Se dice también que en la profesión médica la tasa de divorcios y suicidios es más alta que en otras. Es imposible aseverarlo, pero resulta factible que las vivencias cotidianas del médico sean tierra fértil para alguna de esas condiciones. A pesar de esto, no debe soslayarse que el sufrimiento al que están sometidos los doctores puede ser muy grande y constante.
 
El dictum que sugiere no involucrarse “demasiado” en la vida de los pacientes es, en múltiples ocasiones, sólo un papel y no realidad. Todo doctor recuerda más de una muerte, y ha padecido más de un insomnio por enfermos cuya cura ni siquiera dependía de sus habilidades. Pero seamos realistas, en esta sociedad, ¿a quién le preocupa el sufrimiento del doctor? O bien, ¿qué médico es capaz de saberse melancólico y tiene la capacidad de compartir su dolor con sus pacientes?
 
El término “síndrome de desgaste”, lo que sea que esto signifique, engloba y predispone muchas de las circunstancias anteriores. El ejercicio de la medicina no se puede separar de la vida cotidiana. Es impensable que los médicos inmunicen su práctica y olviden los desasosiegos que constituyen su vida y la del “otro”. En ese sentido, el sufrimiento tiene dos caras: la que pregunta y por ende fertiliza, y la que desarma y quizá entorpece. La salud psíquica de los médicos depende de una inmensa cantidad de factores, algunos modificables, otros no. De ahí que no exista la fórmula mágica para separar el dolor y el desgaste personal del buen ejercicio de la profesión.
 
Gilles Deleuze solía decir que no se escribe con las propias neurosis; los médicos no enfermamos de males propios y comunes, padecemos, en ocasiones, otras patologías: las que devienen del conocimiento médico, del sufrimiento, de las malformaciones de una profesión amenazada por tiempos difíciles y relaciones humanas muy deterioradas, así como por las propias flaquezas de cualquier ser humano. La psicopatología del médico imprime diferentes huellas y estigmatiza con otros sellos. Caminar a través del dolor de los otros, saberse poseedor de los certificados que anuncian su nacimiento y su muerte no es gratuito: compromete y amenaza.
 
Retomo a Deleuze y lo cito: “La neurosis, la psicosis no son fragmentos de vida, sino estados en los que se cae cuando el proceso está interrumpido, impedido, cerrado. La enfermedad no es proceso, sino detención del proceso. Igualmente, el escritor como tal no está enfermo, sino que más bien es médico, médico de sí mismo y del mundo. El mundo es el conjunto de síntomas en los que la enfermedad se confunde con el hombre. La literatura se presenta entonces como una iniciativa de salud: no forzosamente el escritor cuenta con una salud de hierro, pero goza de una irresistible salud pequeñita, producto de lo que ha visto y oído, de las cosas demasiado grandes para él, demasiado fuertes para él, irrespirables”.
 
Los médicos, al enfermar, recorren senderos distintos. Les compete asimilar su padecimiento para inventar su salud, para generar recetas cargadas de vida y para comprender que sus males son semillas de crecimiento y fuente de entendimiento. El médico enfermo puede convertirse en el mejor doctor de sí mismo, de la comunidad y de un mundo ávido de lecturas de salud y no de enfermedad. El galeno que se ha visto por dentro, que se ha oído a través de su enfermedad, que ha sufrido, es otro. Saber que las células se hinchan, que los músculos lloran, y que el corazón, entre latido y latido, se fractura no por dolor, sino por ausencia de escucha, es hacer de la enfermedad una filosofía de vida. La empatía y la ahora olvidada filosofía de la medicina nacen también ahí: en el doctor enfermo y en el médico que ha cuidado médicos.Chivi66
Arnoldo Kraus
Instituto Nacional de la Nutrición “Salvador Zubirán”.
_______________________________________________________________
 

como citar este artículo

Kraus, Arnoldo. (2002). Morbilidad psiquiátrica entre los profesionales de la salud. Ciencias 66, abril-junio, 60-64. [En línea]
    Regresar al índice artículo siguiente
  P01    
  del tintero
 
     
Notas sueltas. Reflexiones sobre ciencia
 
 
Tomás Segovia
conoce más del autor
 
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
El hombre moderno sigue haciendo la mímica de la participación en el mundo, ahora ya sin contenido. La técnica, con sus impresionantes logros, ha proporcionado el modelo de esa vida, y es la mímica del trabajo, produce los mismos efectos, aumentadísismos, sin tener su contenido. La fascinación de esa eficacia era inevitable. Todo el mundo piensa en la “magia” ante los logros de la técnica; pero ¿qué magia es ésa? Porque todo el mundo sabe al mismo tiempo que no hay nada mágico detrás de los aparatos. “Ce n’est pas sorcier”, como dicen los franceses. De la magia sólo nos ha quedado el aspecto negativo: la impenetrabilidad, el escape a nuestro control. El que aprieta el botón de un aparato de radio, ignorando en absoluto cómo funciona eso (cosa que por lo demás la propia ciencia ignora) y sin poder creer al mismo tiempo que un “espíritu” lo produce, está viviendo una mímica sin contenido.
 
*  *  *
 
 
 
El romanticismo es una toma de conciencia radical del misterio del significar y por tanto del misterio de la verdad. Este misterio se puede expresar incluso en los términos más chatos de la lógica formal-pragmática. En esos términos la verdad tiene dos naturalezas, puesto que hay dos modos de verificar: por un lado un juicio se verifica cotejándolo con las reglas sintácticas de la lógica misma (las “tablas de verificación”); por otro se verifica cotejándolo con un “estado de cosas” exterior. Pero resulta que las reglas sintácticas son ellas mismas inverificables (sería un círculo vicioso), y lo mismo sucede con el “estado de hecho”, incluso más aún que con las reglas sintácticas, porque esa verificación implica que sepamos ya, de alguna otra manera que no sea lógica y por lo tanto inverificable, o sea que sepamos fuera de la verdad cuál es el estado de cosas; e implica también unas reglas de cotejo que serán tan inverificables sin círculo vicioso como las reglas sintácticas.
 
La Verdad es pues triplemente misteriosa para la lógica formal: porque es misterioso el origen de las reglas sintácticas que “verifican” la verdad: porque es misterioso el origen del cotejo que “verifica” el juicio verdadero, y porque es misteriosa esa “verdad” fuera de la Verdad que es el conocimiento del “estado de cosas” (o más bien, saliéndonos de ese formalismo, su sentido).
 
*  *  *
 
 
 
Me parece claro que una actitud (y no una filosofía o una teoría o una ideología) verdaderamente relativista e indeterminista, una mentalidad que dejara de estar obsesionada por el sueño de conocerlo todo, explicarlo todo, explorarlo todo, dominarlo y controlarlo todo, sería una novedad histórica radical, una “revolución” en el sentido en que lo fueron la Revolución Industrial, la Revolución Neolítica, o todavía mejor la Revolución Romántica. Una civilización que viviera de veras lo que he llamado el principio de incertidumbre del sentido, no como teoría, sino como estilo histórico y actitud espontánea, como respeto y amor a la oscuridad de todo origen, respetaría y amaría también las zonas oscuras del conocimiento del mundo y de la historia. Y el verdadero respeto de lo oscuro, que no consiste en blandirlo para demoler la claridad del contrario o la claridad en general, sino en saber dónde está el límite de la certidumbre, empezando por la propia, y respetar ese límite (o sea la regla universal que tanto he repetido y que prescribe: “No inventarás”); ese verdadero respeto es el summum de la tolerancia, una tolerancia llevada tan lejos que sin duda habría que darle otro nombre.Chivi66
Tomás Segovia
Poeta y escritor. Premio Octavio Paz de Poesía 2001.
_______________________________________________________________

como citar este artículo

Segovia, Tomás. (2002). Notas sueltas. Reflexiones sobre ciencia. Ciencias 66, abril-junio, 99. [En línea]
  P01 P02  
 
 
     
Políticas científicas y tecnológicas: guerras, ética y participación pública
 
León Olivé
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La humanidad ha progresado en el terreno de la ciencia. Ahora sabemos más sobre el mundo y hemos aprendido a investigarlo mejor. Pero también hemos progresado en la comprensión del conocimiento, de la ciencia y de la tecnología. Entendemos mejor en qué consisten, cómo se desarrollan y cuál es la naturaleza de sus productos.
 
A principios del siglo xxi, lo que podríamos llamar “ciencia pura” ha sido desplazado —social, cultural y económicamente— por la “tecnociencia”, es decir, por un complejo de saberes, prácticas e instituciones en los que están íntimamente imbricadas la ciencia y la tecnología. Encontramos ejemplos paradigmáticos de tecnociencia en la investigación nuclear, en la biotecnología, que elabora vacunas, en la investigación genómica, que produce alimentos genéticamente modificados y que ha comenzado a clonar células humanas en busca de la producción de órganos y de terapias “a la medida”, y la vemos también en la informática y en el desarrollo de las redes telemáticas.
 
Sin embargo, la entrada del siglo xxi no da pie a más optimismo, que al de algunas notas sobre el progreso científico y sobre el conocimiento acerca de la ciencia y la tecnología. Con las enormes posibilidades de intervención en la naturaleza y en la sociedad que éstas abrieron, han venido muchas consecuencias bondadosas, pero también muchas más indeseables y peligrosas. En el siglo xx la física atómica sirvió para desarrollar tanto técnicas terapéuticas y formas de generar energía eléctrica, como bombas. La biotecnología ha desarrollado antibióticos y bacterias resistentes a ellos que ahora amenazan con usarse como armas. El desarrollo de la química dio lugar a una de las industrias más contaminantes del ambiente. La tecnociencia, pues, nos está dejando un planeta contaminado, cuya energía estamos consumiendo a una velocidad suicida, al que se le han estado destruyendo sistemas que protegen la vida como la capa de ozono, y que se está calentando a partir de emisiones de gases generados por los seres humanos, provocando las conocidas consecuencias en el cambio climático.
 
Pero no es sólo por eso que ha comenzado mal el siglo xxi. También tenemos razones para ser poco optimistas en virtud de las guerras que corren por estos tiempos, en las que se utilizan armas de todos tipos; desde sencillos instrumentos y armas convencionales que provienen de la tecnología más tradicional, hasta diversos productos de la tecnociencia, como las “bombas inteligentes”.
 
A raíz de estas guerras los ciudadanos del mundo se están enterando al menos de una forma nunca antes asumida oficialmente: en muchos países —desde los democráticos “más avanzados” hasta los más tradicionalistas—, durante décadas se han estado produciendo bacterias y virus, a veces genéticamente modificados, para resistir antibióticos y vacunas actuales que ahora pueden usarse como armas. Nadie sabe con certeza cuántas de estas potenciales armas hay en el mundo, ni exactamente de qué tipo son, o al menos eso han declarado recientemente portavoces de la otan. La Unión Europea se ha declarado incapaz de enfrentar la amenaza del bioterrorismo.
 
Todo esto hace ineludible el planteamiento de preguntas como: ¿Realmente han contribuido la ciencia y la tecnología al progreso de las sociedades humanas? ¿De qué forma? ¿Han hecho más felices a los seres humanos, o han servido más para la destrucción del planeta?
Desde luego preguntas como éstas no pueden ser respondidas por la ciencia o por la tecnología, y menos por los políticos o por quienes se dedican a los negocios. Para responderlas adecuadamente es necesario elucidar conceptos como “progreso” y “felicidad”, y entender qué significan para las personas en sus diferentes contextos sociales. Pero estas tareas son las que típicamente se hacen desde el campo de las ciencias sociales y de las humanidades.
 
Si es necesario comprender algo, ante el triste panorama recién planteado, es que ya han quedado atrás los tiempos en que la evaluación de la ciencia y de la tecnología, y más aún, la discusión y la toma de decisiones sobre las políticas de su desarrollo, atañen tan sólo a los expertos, o en su caso, a los políticos asesorados por éstos. En este siglo que inicia, dadas las consecuencias de la tecnociencia en la sociedad y en la naturaleza, es más necesaria que nunca la participación pública en la evaluación y el diseño de políticas científicas y tecnológicas.
 
Los sistemas técnicos
 
Comencemos por recordar que no hay una única manera legítima de concebir a la ciencia, a la tecnología, ni a la tecnociencia, y es por eso que hay diversas maneras de entender la importancia de la participación pública en la evaluación de políticas científicas y de tecnologías concretas, así como de los riesgos que implica su aplicación. Veremos que incluso la evaluación de algo aparentemente tan técnico como la “eficiencia” de un sistema tecnológico no puede depender únicamente del juicio de los expertos, sino que debe involucrar la participación de quienes serán afectados por esa tecnología.
 
La tecnología muchas veces se entiende como algo reducido a un conjunto de técnicas, o en todo caso de técnicas y artefactos, pero es insuficiente para dar cuenta de ella y de su importancia en el mundo contemporáneo. Una mejor aproximación a la tecnología la ha ofrecido, por ejemplo, el filósofo español Miguel Ángel Quintanilla, quien llamó la atención sobre el hecho de que la tecnología está compuesta, antes que nada, por sistemas de acciones intencionales. El principal concepto para entender y evaluar sus impactos en la sociedad y en la naturaleza es entonces, el sistema técnico.
 
Éste consta de agentes intencionales (por lo menos una persona o un grupo de personas con alguna intención), un fin que lograr (abrir un coco o intimidar a otras personas), algunos objetos que los agentes usan con propósitos determinados (la piedra que se utiliza instrumentalmente para pulir otra y fabricar un cuchillo), y un objeto concreto que es transformado (la piedra que es pulida). El resultado de la operación del sistema, el objeto que ha sido transformado intencionalmente por alguien, es un artefacto (el cuchillo).
 
Al plantearse fines, los agentes intencionales lo hacen inmersos en una serie de creencias y valores. Alguien pule una piedra porque cree que le servirá para cortar frutos. La piedra pulida es considerada por el agente intencional como algo valioso. Los sistemas técnicos, entonces, también involucran creencias y valores.
 
Hoy en día estos sistemas pueden ser muy complejos. Pensemos tan sólo en una planta núcleoeléctrica o en un sistema de salud preventivo, en el cual se utilizan vacunas. En estos sistemas están indisolublemente imbricados la ciencia (de física atómica en un caso y de biología en el otro) y la tecnología; por eso suele llamárseles sistemas “tecnocientíficos” (por comodidad, nos referiremos a ellos como sistemas tecnológicos).
 
La comunidad de usuarios
 
La idea de eficiencia tecnológica supone que las metas y los resultados de la operación del sistema pueden medirse de manera objetiva, independientemente de los motivos y creencias de los agentes intencionales, cuyas metas y propósitos son parte integral de éste.
 
Pero la evaluación de la eficiencia enfrenta una seria dificultad. Mientras el conjunto de metas o de objetivos (0 en el cuadro) puede identificarse con razonable confianza —una vez que ha quedado establecido el conjunto de agentes intencionales que diseñan y operan el sistema, puesto que se trata de sus objetivos—, el conjunto de resultados (R), en cambio, no puede identificarse de la misma manera y es que los resultados que se producen y que son pertinentes para dicha evaluación no dependen únicamente de los agentes intencionales que diseñan o que operan el sistema técnico ni de la interpretación que ellos hagan de la situación.
 
El problema es que la identificación del conjunto de resultados, que sea relevante tomar en cuenta, variará de acuerdo con los intereses de diferentes grupos y sus diversos puntos de vista, pues muy probablemente cada grupo aplicará criterios distintos para identificar el conjunto de resultados. Sin embargo, el problema es que no existe una única manera legítima de establecer esos criterios. La eficiencia, entonces, es relativa a los criterios que se usen para determinarlos.
 
Por ejemplo, la eficiencia de un nuevo diseño de automóvil podrá medirse y determinarse según los propósitos que se planteen los tecnólogos que lo diseñan, digamos en la mayor velocidad que éste pueda alcanzar en autopistas, con menor consumo de gasolina y menor contaminación ambiental. Pero quizá tal velocidad incremente el número de accidentes y en consecuencia el número de heridos y muertos en las carreteras. ¿Considerarían los ingenieros que diseñaron el vehículo a estos datos como resultados no previstos al medir la eficiencia del coche? Lo menos que podemos decir es que es un asunto controvertido.
 
Un ejemplo ahora ya famoso fue el del uso de clorofluorocarburos en los refrigeradores y latas de aerosol, que provocaron el adelgazamiento de la capa de ozono. Incluir o no este resultado para determinar la eficiencia de los sistemas de refrigeración en los que se usó este refrigerante es, de nuevo, por lo menos un asunto que depende de los criterios aplicados; y éstos no son únicos ni tienen una objetividad absoluta.
 
Por tanto la eficiencia no puede considerarse como una propiedad intrínseca de los sistemas técnicos. La aplicación de una tecnología entraña, casi siempre, una situación de riesgo o de incertidumbre —presupongo la habitual distinción entre situaciones de riesgo, cuando se sabe qué probabilidad atribuir a los resultados posibles, y las de incertidumbre, cuando se desconoce el espacio de probabilidades para los sucesos que se consideran posibles. Siempre será necesario elegir cuáles son las consecuencias que se consideran pertinentes para evaluar la eficiencia del sistema técnico. Aunque la determinación de su relevancia será un asunto controvertido que dependerá de los diferentes intereses y puntos de vista.
 
Sin embargo, esto no quiere decir que la eficiencia sea algo subjetivo. Ésta es objetiva en el sentido en que una vez que los fines propuestos quedan establecidos por los agentes intencionales que componen el sistema, y una vez que el conjunto de resultados queda determinado intersubjetivamente por quienes la evaluarán, entonces se desprende un valor determinado de la eficiencia, que no depende de las evaluaciones subjetivas que cada uno de los agentes o los observadores hagan de las consecuencias (por ejemplo que les gusten o no). Esto significa que en su determinación deben participar todos los que serán afectados por la tecnología en cuestión.
 
Ética y democracia
 
¿Cómo afectan, actualmente, la ciencia y la tecnología a la sociedad que finalmente las sostiene y las hace posibles? No hay una única respuesta válida a esta pregunta ni una única correcta. La percepción de la forma en la que la tecnociencia afecta a la sociedad y a la naturaleza está íntimamente ligada a su comprensión y a la de sus beneficios, amenazas y peligros. Esta comprensión, a su vez, depende de quienes intenten hacer la evaluación de sus valores e intereses.
 
En este campo no hay un acceso privilegiado a la verdad, a la objetividad o a la certeza del conocimiento, y es por eso que en este aspecto se encuentran al mismo nivel los científicos naturales y sociales, los tecnólogos, los humanistas, los trabajadores de la comunicación, los directivos de empresas, los políticos, y la sociedad en general.
 
Esto no significa desconocer que los diferentes sectores de la sociedad, así como sus diferentes miembros, tengan un acceso diferenciado a la información pertinente y a los recursos para evaluar las consecuencias de la tecnociencia. Pero sí, que no hay nada que otorgue en principio un privilegio a algún sector de la sociedad.
 
La indispensabilidad de la participación pública en las discusiones y en la toma de decisiones sobre política científica y tecnológica, no sólo se deriva del carácter esencialmente debatible del riesgo para la sociedad y para la naturaleza que implica el desarrollo tecnocientífico; ni se deriva tan sólo de la indeterminación de las consecuencias de la aplicación de la tecnología. Tampoco se desprende únicamente del propósito ético de que el conocimiento científico y tecnocientífico sea público, en el sentido de estar a disposición de toda persona, y muy especialmente cuando se trata de conocimiento sobre los riesgos de sus aplicaciones y sus consecuencias.
 
Si queremos justificar en el orden ético el que todo el conocimiento se haga público —es decir que sea accesible a cualquier persona—, ya que es moralmente condenable que hoy en día tienda cada vez más a privatizarse —como con las patentes por ejemplo, pero también al ocultar muchos desarrollos biotecnológicos que fácilmente son convertidos en armas—, y si queremos en suma justificar la participación pública en las decisiones sobre política científica y tecnológica, entonces requerimos ciertos supuestos de la moderna concepción de “persona” y “sociedad” democrática.
 
Se entiende por persona a aquellos agentes racionales y autónomos que tienen la capacidad de razonar, lo que les permite hacer elecciones, así como decidir el plan de vida que consideran más adecuado para ellos.
 
Con base en la definición anterior, hay dos principios que fundamentan las relaciones humanas éticamente aceptables y que son pertinentes para nuestro propósito. Un principio manda nunca tratar a las personas sólo como medios, mientras el otro indica que siempre se debe permitir actuar a los individuos como agentes racionales autónomos.
 
Sobre la democracia, como ha señalado Luis Villoro, conviene distinguir dos acepciones: una como ideal regulativo, la democracia como proyecto de asociación conforme a valores tales como “la equidad en la pluralidad de los puntos de vista, el derecho a la decisión libre de todos, la igualdad de todos en la decisión del gobierno, la dependencia del gobierno del pueblo que lo eligió”; y otra como “un modo de vida en común en un sistema de poder”. La segunda, se refiere a la democracia como un sistema de gobierno, como “un conjunto de reglas e instituciones que sostienen un sistema de poder, tales como: la igualdad de los ciudadanos ante la ley, derechos civiles, elección de los gobernantes por los ciudadanos, principio de la mayoría para tomar decisiones, división de poderes”.
 
Hablar de una justificación ética de la participación pública en la evaluación y en la toma de decisiones sobre política científica y tecnológica nos remite al primer sentido de democracia; el de un proyecto de asociación conforme a los valores señalados.
 
La forma cómo se han desarrollado las políticas científicas y tecnológicas en las sociedades democráticas actuales —nuestro país incluido, con su incipiente democracia formal—, supone sólo la segunda acepción de democracia; en donde las diferentes partes que participan se rigen por su interés particular y alcanzan acuerdos políticos según sus fines y su poder político y económico real.
 
Bajo esta concepción de la democracia como “un modo de vida en común en un sistema de poder” la evaluación y, sobre todo, la gestión de la política científica y tecnológica quedarían sujetas a la misma competencia y lucha de intereses entre diferentes grupos que se enfrentan en otras esferas de la vida pública. Las razones para defender una amplia participación pública en el diseño y la gestión de las políticas científicas y tecnológicas —desde el punto de vista de las agencias estatales, por ejemplo, o de las industrias que aplican sistemas tecnocientíficos—, serían puramente prudenciales, ya que dicha participación constituiría “la mejor garantía para evitar la resistencia social y la desconfianza hacia las instituciones” y hacia la expansión tecnocientífica. Se trata de una razón pruedencial, pues no estaría fundada en valores y normas morales compartidos, ni en principio ético alguno, sino sólo en la idea de que es conveniente “evitar la resistencia y la desconfianza”.
 
Hay otras razones, sin embargo, para justificar la participación pública, que sólo tienen sentido si se ligan a la noción de democracia asociada al primer grupo de valores señalados con anterioridad; como, por ejemplo, que la tecnocracia es incompatible con esos valores democráticos (la equidad en la pluralidad de los puntos de vista, el derecho a la decisión libre y la igualdad en la elección del gobierno).
 
Pero si enfocáramos tan sólo estos valores tendríamos que librar todavía otro escollo, pues podría surgir la objeción bien conocida de que, en cuestiones de ciencia y tecnología —sobre todo en relación con los riesgos que implica su aplicación—, el conocimiento especializado es necesario para establecer cuestiones de hecho, por ejemplo, acerca de relaciones causales (o por lo menos de correlaciones estadísticamente significativas) entre ciertos fenómenos y ciertos daños.
 
No es posible decir: “el derecho a la decisión libre de todos”, cuando se trata, por ejemplo, de aceptar o rechazar una hipótesis científica, y menos cuando se trata de estimar el riesgo que corren los consumidores de ciertos aditivos alimenticios, o los vecinos de centrales nucleares o de un aeropuerto. En ese sentido el conocimiento científico no es algo que se decida democráticamente.
 
Sin embargo, en ciertas circunstancias, los juicios de los inexpertos también son necesarios y pueden ser tan razonables como los de los expertos. ¿Pero cómo fundamentar esta tesis, sin caer en el absurdo de que el conocimiento científico es algo que se decide democráticamente?
Al defender la participación pública, se sugiere, entonces, que el juicio de los expertos no es el único razonable y válido, ni el único necesario en tomarse en cuenta, como lo vimos en el caso de la evaluación de la eficiencia de un sistema técnico. Pero no sólo eso; en la aplicación de la inmensa mayoría de sistemas técnicos, cuando hay grupos sociales afectados por sus consecuencias, su participación es necesaria, por razones epistemológicas antes que éticas, para complementar la evaluación de los expertos. Hay, como he sugerido antes, un pluralismo epistemológico en la naturaleza de la ciencia y de la tecnología, que fundamenta el argumento de la legitimidad de los diversos puntos de vista.
 
Así, aunque ni el conocimiento científico ni el tecnocientífico se validen democráticamente, en ciertas circunstancias sí pueden equipararse ciertos juicios de expertos y de legos en cuanto a su pertinencia y razonabilidad.
 
Pero todavía queda un aspecto más por recordar; en buena medida la evaluación y gestión de estas políticas implican decisiones no sólo en cuanto a restricciones sobre posibles aplicaciones de sistemas tecnológicos, porque podrían ser perniciosos, sino que también involucra decisiones sobre compensaciones y posibles sanciones. El desarrollo tecnocientífico, hoy en día, afecta en tal grado a la naturaleza y a la sociedad, que su evaluación y gestión implican un debate moral y político sobre la atribución de responsabilidades. Lo que conduce a la discusión de la importancia del debate y las controversias, no sólo entre expertos, sino con la participación de amplios sectores del público.
 
Políticas y participación pública
 
“Ideal de la democracia —escribe Luis Villoro— es conceder a cualquier miembro de la sociedad la capacidad de decidir libremente sobre todos los asuntos que conciernen a su vida”. Pero “la técnica” y el enfoque tecnocrático para abordar los principales problemas de las sociedades contemporáneas, han obligado a los ciudadanos “a atenerse a las decisiones de los especialistas. Y los dominios en que éstas se llevan a cabo son cada vez más amplios. Los ciudadanos acaban reduciendo su actividad a la de obedientes consumidores de ideas y productos, incapaces de decidir por sí mismos en la mayoría de los asuntos comunes”.
 
La justificación ética de la participación pública en la discusión de las responsabilidades de los científicos y tecnológos en la generación de riesgos, así como en la evaluación, aceptación y gestión de las políticas en ciencia y tecnología como en cualquier otra política pública, entonces, se basa en el intento por ofrecer las condiciones adecuadas para ejercer las capacidades más básicas que el pensamiento moderno ha otorgado a las personas; concibiéndolas no como los ciudadanos abstractos de la democracia formal, sino como los racionales e inteligentes miembros de carne y hueso “afiliados a varias entidades sociales, pertenecientes a varios grupos y culturas específicas con características propias y una identidad que los distingue”. Se trata de personas en posición de ejercer su autonomía, lo que significa “decidir sobre su propia vida, en un entorno concreto, participar por lo tanto, en las decisiones colectivas en la medida en que afecten a su situación personal”.
 
“Guerras de las ciencias”
 
Para comprender la estructura y el desarrollo de la ciencia y de la tecnología, así como los desafíos que presentan a las sociedades modernas y para dar respuestas a los dilemas éticos y, en general, valorativos, que plantean a los científicos, a los gobernantes y a los ciudadanos de la calle, no es suficiente la imagen que proyectan los científicos y tecnólogos de sus propias actividades y de sus resultados, como tampoco bastan las concepciones de los economistas que toman decisiones de gobierno o de apoyo a la investigación científica y tecnológica.
 
Esto exige una reflexión desde otras disciplinas como la filosofía, la historia, la sociología, la economía y la psicología, sobre todo cuando la ciencia y la tecnología son su objeto de estudio.
 
Por esto es lamentable que, mientras hay guerras en el mundo, en las cuales se mata y se sojuzga a gente y hasta pueblos enteros, en el medio académico se hayan librado, y sigan todavía, otras guerras que, con consecuencias inmediatas aparentemente menos desastrosas, en nada ayudan a las sociedades modernas para comprenderse a sí mismas, y para entender el fenómeno científico-tecnológico.
 
Me refiero a lo que en otras latitudes se le ha llamado “la guerra de las ciencias” (entre las ciencias y las humanidades), y que en México, sin ser abiertamente reconocida, se da de manera más o menos oculta. Un ejemplo de esto, en nuestro medio, lo constituyen algunos artículos escritos por el matemático José Antonio de la Peña quien, por ejemplo, escribía hace no mucho en la revista de la Academia Mexicana de Ciencias —de la cual es presidente en este momento— que muchas “posiciones de los filósofos contemporáneos debilitan a la ciencia” y que “los filósofos de la ciencia” —dicho así, en general—, eran los responsables de fomentar o por lo menos de contribuir notablemente a afianzar una creencia popular en que la ciencia no tiene nada de racional ni logra, por lo general, conocimiento objetivo.
 
Lo lamentable de este tipo de afirmaciones por parte de hombres de ciencia es que contribuyen a la mala comprensión de la filosofía, porque parten de la incomprensión de ésta, cuando no de la ignorancia, y por tanto también a una mala comprensión de la ciencia. En el caso de la Peña, queda claro que desconoce que si algo ha logrado en las últimas décadas la filosofía de la ciencia es comprender mejor y explicar en qué consiste la objetividad y la racionalidad científica. Esto ha sido el resultado de un largo proceso de discusión a lo largo del siglo xx, a partir de trabajos de autores que de la Peña acusa de “irracionalistas”, como Kuhn y Feyerabend.
 
La visión filosófica de la ciencia permite entender mejor, no sólo la naturaleza de la ciencia y de la tecnología, sino también cuál es la relación éticamente justificable entre las comunidades científicas y tecnocientíficas, los políticos y la sociedad. Podemos concluir, pues, que es realmente necesaria la intensificación del diálogo entre la filosofía y las ciencias, así como su amplia proyección al público no especialista.
 
La sociedad, que es finalmente la que sostiene la investigación y la enseñanza de la ciencia y la tecnología, merece que la información esté a su alcance para poder tomar parte en las decisiones que afectarán su vida en un futuro.
 
La unam tiene las condiciones para desarrollar un amplio y ambicioso programa que ofrezca al público, a los funcionarios del Estado y a los empresarios, una buena comprensión del fenómeno científico-tecnológico, de su importancia social, cultural y económica, y de su impacto en las sociedades modernas. Para ello tan sólo se requiere que la unam coordine e impulse —bajo una perspectiva humanística— los muy diversos esfuerzos que se hacen en la investigación, la enseñanza y la difusión de la ciencia y la tecnología, así como en la filosofía de la ciencia y en los estudios de ciencia, tecnología y sociedad.
 
La unam no sólo tiene las condiciones ideales para terminar —al menos en México— con las “guerras de las ciencias”, sino que además es responsable de promover una cultura en el país, que tienda a fomentar la participación pública en la evaluación y gestión de la ciencia y de la tecnociencia, para ayudar a evitar que éstas se involucren en otras guerras en el planeta. Pero esto dependerá de que, en la unam también, haya participación pública y plural en el diseño y realización de las transformaciones de su estructura, de sus funciones y en el cumplimiento de su misión.Chivi66
Referencias bibliográficas
 
Dascal, Marcelo. 1997. “Observaciones sobre la dinámica de las controversias”, en Racionalidad y Cambio Científico, Ambrosio Velasco (compilador). Paidós-unam, México.
Echeverría, Javier. 1995. Filosofía de la Ciencia.  Ediciones Akal, Madrid.
. 2001. “Tecnociencia y sistemas de valores”, en López Cerezo y Sánchez Ron (editores).
El País, España, 28 de octubre de 2001.
López Cerezo, José A. y José Luis Luján. 2000. Ciencia y Política del Riesgo. Alianza Editorial, Madrid.
López Cerezo, José A. y José M. Sánchez Ron. (editores). 2001. Ciencia, Tecnología, Sociedad y Cultura. Biblioteca Nueva, Organización de Estados Iberoamericanos, Madrid.
Olivé, León. 1999. Multiculturalismo y Pluralismo. Paidós/unam, México.
. 2000. El Bien. El  Mal y la Razón. Facetas de la ciencia y la tecnología. Paidós/unam, México.
Peña de la, José Antonio. 1999. “El fin de la ciencia: ¿sueño o pesadilla?”, en Ciencia, vol. 50, núm. 1. México.
Pérez Ransanz, Ana Rosa. 1999. Kuhn y el cambio científico.  FCE, México.
Quintanilla, Miguel Ángel. 1989. Tecnología: un enfoque filosófico. Fundesco, Madrid.
. 1996. “Educación moral y tecnológica”, en L. Olivé y L. Villoro (eds.), Educación, Moral e Historia, Homenaje a Fernando Salmerón. unam, México.
Villoro, Luis. 1997.  El Poder y el Valor. fce, México.
León Olivé
Instituto de Investigaciones Filosóficas,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Olivé, León. (2002). Políticas científicas y tecnológicas: guerras, ética y participación pública. Ciencias 66, abril-junio, 36-45. [En línea]
    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
¿Popularización de la ciencia o alfabetización científica?
 
Manuel Calvo
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En primer lugar habría que tratar una cuestión de terminología; periodistas, científicos y estudiosos europeos creen que la expresión “popularización de la ciencia” debe cambiarse, ya que el concepto ha evolucionado a lo largo de los últimos años. En la actualidad se prefiere utilizar “alfabetización científica”, “entendimiento o conocimiento público de la ciencia” o “cultura científica”. En cualquiera de los casos, la idea principal es acercar la ciencia al público en general para atender el requerimiento social de información científica. Por lo que la presencia de científicos, docentes, periodistas y escritores que ayuden a la sociedad a superar sus temores en relación con la ciencia, es fundamental para este proceso.
 
El miedo a lo desconocido, a lo incomprensible y a lo extraño o misterioso, son los temores a los que se enfrenta el hombre. La mayoría de las personas en nuestras sociedades encuentra en la ciencia algunas de estas características, generadas por la falta de conocimiento, así como por los cambios revolucionarios y para muchos inquietantes, que la ciencia y la tecnología introdujeron desde la Revolución Industrial y sobre todo desde la segunda mitad del siglo xx —con la bomba atómica y posteriormente con los avances en las telecomunicaciones y la informática, así como con los descubrimientos, grandiosos y aterradores, de la biología y especialmente de la genética.
Actualmente, el mayor problema en cuanto a la divulgación científica es el retraso que sufre en comparación con los avances gigantescos de la ciencia y la tecnología, y con su influencia, creciente y decisiva, tanto en el individuo y en los grupos sociales de nuestra época como en su futuro inmediato.
 
Sin embargo, no hemos sido capaces de establecer un diálogo entre ciencia y sociedad. En los cincuentas ya se advertía la importancia de la divulgación científica en los medios informativos para la formación o enriquecimiento —de acuerdo a los países y las sociedades— de una cultura integral que se adaptara a las necesidades de nuestro tiempo. Desde entonces se percibía la necesidad, para el desarrollo cultural de un pueblo, de que cierto tipo de investigaciones, hallazgos, descubrimientos y experimentos científicos fueran transmitidos al público, el cual, paradójicamente, forma parte de una sociedad caracterizada por el ideal científico, pero con pocos conocimientos sobre la ciencia y la tecnología que están cambiando y trastornando radicalmente la vida cotidiana.
 
En 1954, el Imperial College of Science and Technology de Londres, se lamentaba el que la prensa británica dedicara tan poco espacio a la divulgación de la ciencia. También la British Asociation for Progress in Science reclamó públicamente una mayor atención hacia los temas científicos. Hoy en día se han logrado algunos avances, aunque todavía falta mucho por hacer.
 
Desfase entre sociedad y comunidad científica
 
El profesor Baudoin Jurdant, de la Universidad Louis Pasteur de Estrasburgo, cree que la divulgación científica no ha sido capaz de reducir el desfase entre la sociedad y la comunidad científica, provocado por el desarrollo del conocimiento. Según Jurdant, esto se debe a que en realidad la divulgación no debe entenderse como una transmisión de información al público, sino más bien como un elemento esencial del desarrollo del conocimiento científico.
 
Lo cual es así, pero debe complementarse e instrumentarse a través de los medios informativos, que constituyen la única vía para llegar a la mayoría de nuestras poblaciones. Si realmente creemos en la necesidad de la divulgación de la ciencia como instrumento para hacer equitativo el acceso a la cultura y al conocimiento, debemos dedicar un mayor interés a la formación de divulgadores científicos. En una era de creciente exigencia de calidad y de especialización, la educación es el motor de toda actividad profesional.
 
En los últimos decenios en la comunidad científica se registra una sensibilidad creciente hacia la comunicación de la ciencia. Los investigadores piensan que cuanto se sabe puede hacerse inteligible a la mayoría de los seres humanos.
 
La divulgación, hoy día, se empieza a considerar como parte del quehacer científico. “¿Por qué sabemos? —se pregunta Barbara McClintock, ganadora del Premio Nobel—, ¿por qué se puede estar tan seguro de algo cuando no se es capaz de comunicárselo a nadie”? A su vez, James Watson escribe: “Si me preguntaran cuál es la tarea más importante que incumbe a la unesco en el momento actual, diría que es la siguiente: difundir por doquier la información, ponerla al alcance de todos los pueblos”. Nuestras sociedades están inmersas con frecuencia en algunos círculos viciosos que no parecen tener solución. Uno de ellos es que la ciencia “vende” poco en los medios informativos por falta de un clima científico en el país, pero este clima han de crearlo, básicamente, los propios medios.
 
Evolución de la comunicación científica
 
El análisis de las estructuras narrativas realizado por el profesor Daniel Jacobi, trata de las dificultades principalmente lingüísticas, pero no sólo lingüísticas, sino también antropológicas, matemáticas, éticas, etcétera, de la conversión de la información científica o técnica en un material que resulte apto para su difusión en medios informativos; la problemática se centra entonces en la transcodificación.
 
Un ejemplo lo tenemos en Armand y Michèle Mattelart, para quienes la propia noción de “comunicación” y de “información” remite a una multiplicidad de teorías, rara vez explicitadas y coherentes entre sí.
 
Con la aplicación de esta lectura a la divulgación de la ciencia se podrían mencionar dos puntos importantes: a) los estudiosos de la teoría de la comunicación deben tomar en cuenta las peculiaridades y exigencias específicas de la comunicación científica y tecnológica; b) el trabajo de investigación debe continuar hasta encontrar una teoría de la información que sirva para todas las disciplinas actuales, como el periodismo científico, que se apoya en buena medida en la comunicación y la información.
 
El discurso de la divulgación
 
Si bien es cierto que el discurso de la divulgación científica es menos preciso y está peor estructurado que el científico, también puede afirmarse que la información transmitida no es falsa, aunque no deba ser comparada con la estrictamente científica. Asimismo, y contrariamente a lo que podría creerse, la terminología científica tampoco es homogénea y da muestras de una gran elasticidad.
 
Un análisis exclusivamente lexicológico del discurso de divulgación no basta para dar cuenta de los problemas planteados por la producción y la difusión de conocimientos científicos. La retórica y el análisis semiótico de los códigos que están presentes, tanto en los discursos científicos como en los divulgativos, contribuirían a comprender los mecanismos de la transmisión de la ciencia y la tecnología.
 
En la segunda mitad del siglo xx, ha habido una creciente consideración por la divulgación como una disciplina universitaria y profesional, tanto por parte de periodistas y escritores como de investigadores y docentes. Lógicamente, los países industrializados se encuentran en un estadio más avanzado, y en Estados Unidos forma parte de planes de estudio y programas de investigación.
 
La mayor parte de los científicos están conscientes de que su lenguaje los limita, por lo que requieren contar con mediadores. Como ha observado Roger Bartra, son muy raros los científicos que logran directamente lo que un novelista, sin bajar el nivel de su discurso: ser entendidos por amplias masas. Se necesita, añade Bartra, toda una cadena de intérpretes, profetas, predicadores, intermediarios, divulgadores y periodistas más o menos especializados.
Los discursos de divulgación se apoyan en un dispositivo de mediación: como la comunicación entre especialistas y legos es imposible, un tercer hombre (el divulgador) traduce la jerga del investigador para suscitar interés, curiosidad y emoción. El mediador también puede plantear dudas de orden ético que involucren a científicos, dirigentes políticos y sociales y a la sociedad en general.
 
Funciones atribuidas a la difusión
 
Creación de una conciencia científica colectiva. Frente al riesgo de ver a la ciencia subyugada por el poder, o viceversa, es necesario subordinarlo a los ciudadanos, para lo cual es preciso “desarrollar una cultura científica y técnica de masas”, en la que jugarán un papel esencial los medios de comunicación impresos y audiovisuales.
 
La creación de una conciencia científica colectiva reforzaría necesariamente —según Fabius— a la sociedad democrática. Si los periodistas y comunicadores se han de esforzar en ofrecer información verídica y sugestiva sobre ciencia y tecnología, entonces los científicos también tienen la obligación moral de dedicar una parte de su trabajo y de su tiempo a la interacción —a través de los medios— con el público.
 
Cohesión entre los grupos sociales. La divulgación científica y técnica cumple, o debe cumplir, una función de cohesión y de refuerzo dentro de los grupos sociales que permita participar a los individuos de alguna manera en las aspiraciones y tareas del poder científico y tecnológico. Es a lo que Albertini y Bélisle llaman función de integración social.
 
Un factor para el desarrollo cultural. Los primeros que escribieron sobre la necesidad y los problemas de la divulgación de la ciencia, como Pradal, advirtieron que divulgar es una necesidad cultural. Hoy creemos de manera casi unánime que en una sociedad presidida por el ideal científico, como la sociedad contemporánea, la divulgación de la ciencia y la tecnología es necesaria para el desarrollo cultural de un pueblo, y que es importante que avances, hallazgos, experimentos, investigaciones y preocupaciones científicas se presenten al público. Algunos llegan a entrever una antropología de la difusión cultural, de la que la divulgación sólo sería uno de los componentes.
 
Incremento en la calidad de vida. La divulgación de la ciencia no es sólo un factor de crecimiento del propio quehacer científico, sino una aportación al mejoramiento de la calidad de vida y una forma de poner a la disposición de todos tanto el gozo por el conocimiento como los sistemas de aprovechamiento de los recursos de la naturaleza y el mejor uso de los progresos de la ciencia y tecnología.
 
Políticas científicas y comunicación. Estudios como el de Dorothy Nelkin reflejan la convicción de que en una sociedad cada vez más dependiente del conocimiento tecnológico es extremadamente importante contar con información honrada, crítica y exhaustiva sobre ciencia y tecnología.
 
Esta idea se va extendiendo en las sociedades desarrolladas, al punto en que estudiosos tan relevantes como Bernard Schiele asumen la convicción de que una política científica debe basarse, ante todo, en una política de comunicación científica.
 
Si se tiene en cuenta que son los políticos quienes deciden sobre el gasto público en investigación y desarrollo, y que éste está vinculado directamente a la economía nacional y regional, la información sobre ciencia debería tener mayor relevancia en las sociedades contemporáneas.
 
La comunicación de los riesgos. En el “Encuentro de periodistas científicos europeos, Vincenzo Ardente” la definió como aquélla que provee información de distintos tipos sobre los riesgos a los que estamos expuestos: problemas derivados del medio ambiente, del consumo de drogas o tabaco, seguridad aérea, etcétera.
 
Complemento a la enseñanza. La divulgación científica no sustituye a la educación actual, pero puede llenar vacíos en la enseñanza moderna, contribuir al desarrollo de la educación permanente, y ayudar al público a adoptar una determinada actitud ante la ciencia.
 
En su estudio, El reparto del saber, Roqueplo establece cuatro tipos de relaciones entre los divulgadores y la enseñanza primaria y secundaria: una relación de complementariedad y otras de dependencia directa, negativa e inversa.
 
La relación de dependencia inversa ha sido postulada por algunos de nosotros desde hace casi medio siglo, basada en los siguientes fundamentos: cooperación entre el investigador y el escritor, con la adopción mutua de aquello que caracteriza a uno y otro estamento, rigor en el trabajo del científico, y sencillez y atractivo en el del periodista.
 
En su obra clásica, Roqueplo califica también como “dependencia inversa” a la creciente presencia de profesores de enseñanza secundaria entre los visitantes de los museos y exposiciones científicas y entre los lectores de las grandes revistas de divulgación. Por mi parte, tengo esta misma experiencia personal y constantemente compruebo el interés de los docentes por el periodismo científico y, en general, por la comunicación científica pública.
 
Combatir la falta de interés. La gente entiende muy bien aspectos de la política relacionada con la guerra, el orden público, la sanidad o la educación, e incluso ahora con el medio ambiente, pero la base de muchas de estas políticas sectoriales es la investigación y el desarrollo, que es lo que permite la innovación.
 
Aprender a comunicar
 
Después de tener en cuenta estos requisitos, el paso siguiente debería ser el aprendizaje por parte de los científicos, no sólo a comunicarse entre ellos, lo cual en la actualidad resulta imprescindible, sino a informar a sus conciudadanos sobre los resultados de sus trabajos e incluso sobre el proceso que les lleva, en cada caso, a un mejor conocimiento del hombre y del universo.
 
Estos objetivos de la difusión científica pueden condensarse en dos. El primero vinculado al conocimiento, esto es, comunicar al público los avances de las grandes ciencias de nuestro tiempo —astronomía, cosmología, origen de la vida, biología, conocimiento del universo (el micromundo y el macromundo) y del propio ser humano—; en otras palabras, ayudar a la gente a entenderse mejor y a comprender su entorno, tanto el visible como el invisible.
 
El segundo, tras el estudio de las consecuencias del progreso científico, debería estar centrado en la acción; esta exigiría un plan conjunto de centros de investigación, universidades, museos de la ciencia y, por supuesto, periodistas, escritores, investigadores y docentes.Chivi66
Referencias bibliográficas
 
Conseil de l’Europe. 1970. “Les mecanismes textuels de la vulgarisation de la science au public”. Colloque Europeen sur la presentation de la science au public. Document de travail Nº 7. Strasbourg.
Jacobi, Daniel. 1984. Recherches sociolinguistiques et discursives sur la diffusion et la vulgarisation des connaissances scientifiques. Thèse d’état. Université de Besançon.
__________. 1988. “Notes sur les structures narratives dans un document destiné à populariser una découverte scientifique”, en Protée, núm. 3. vol. 16. Université de Québec à Chiccoutimi.
__________. 1991. “King Clone: Notas sobre la poco resistible ascensión de las ciencias de la vida en los medios de comunicación”. En número monográfico de Arbor, Madrid.
Jurdant, Baudoin. “Colloque europée sur la Présentation de la Science au Public”. Rapport introductif. Conseil de l’ Europe.
Mattelart, Armand et Michéle. 1986. Penser les medias. Pensar sobre los medios. Fundesco, Madrid. 1987.
Nelkin, Dorothy. 1990. La ciencia en el escaparate. Fundesco, Madrid.
Popper, Karl. 1994. En busca de un mundo mejor. Paidós, Barcelona.
Pradal, Jean. 1968. “La vulgarisation des sciences par l`écrit”. Conseil de l’Europe, Estrasburgo.
Roqueplo, Philippe. 1974. El reparto del saber. Gedisa. 1983.
Schiele, Bernard. 1985. “Les enjeux cachés de la vulgarisation scientifique”, en Vulgariser, un défi ou un mythe, Chronique Sociale, Lyon.
Zamarrón, Guadalupe. 1983. “Entrevista con Roger Bartra”, en Naturaleza, núm. 5. unam.
Manuel Calvo
Presidente de la Asociación Española de Periodismo Científico.
_______________________________________________________________
 

como citar este artículo

Calvo, Manuel. (2002). ¿Popularización de la ciencia o alfabetización científica? Ciencias 66, abril-junio, 100-105. [En línea]
  Regresar al índice artículo siguiente
  P01 P02  
 
 
     
Redescubriendo a Alexander von Humboldt
 
Exequiel Ezcurra
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Como ciencia, la teoría ecológica es producto de una larga y colorida historia, forjada a lo largo de siglos con el trabajo laborioso de naturalistas en el campo, en las selvas y en los desiertos. Es una historia larga, llena de hitos maravillosos y sobrecogedores. En el trabajo de expedicionarios excéntricos, naturalistas hoscos y antisociales, observadores obsesivos, y colectores compulsivos, yacen los orígenes y fundamentos de las teorías científicas que hoy rigen la protección de nuestros recursos naturales. Entender esta historia y honrar su legado, es una deuda con los singulares personajes que construyeron el camino de la ciencia a la que hoy llamamos ecología.
 
Uno de los muchos comienzos de esta historia ocurrió en 1798, cuando dos jóvenes científicos, de escasos 25 y 27 años, recorrían los prostíbulos y los bares de París en busca de algún contacto con oficiales del ejército napoleónico, que les permitiera colarse a las filas de la expedición imperial a Egipto. La nacionalidad alemana del primero —un tímido geólogo de minas— y el carácter festivo y mujeriego del segundo —un médico con radicales tendencias socialistas— les impidieron lograr su objetivo; el adusto ejército del Emperador no fue capaz de aceptar a personajes tan singulares. Sin embargo, en su búsqueda, nuestros protagonistas conocieron a un apasionado adolescente de 16 años, que era asiduo visitante de las casas de citas, lleno de pláticas encendidas y fervorosas, quien les describió con entusiasmo las riquezas naturales de su país, la Nueva Granada, hoy Venezuela. Así, ambos científicos, cuyos nombres eran Alexander von Humboldt y Aimé Bonpland, partieron para la tierra del joven estudiante, que se llamaba Simón Bolívar. En sus periplos por la América colonial llegaron finalmente a México, entonces eje cultural de la América española.
 
Así, nació el Ensayo político sobre el Reino de la Nueva España y el Viaje a las regiones equinocciales, el primero era una especie de versión decimoctávica de un informe de país —infinitamente más perceptivo que los aburridos reportes que hacen los expertos del Banco Mundial— y el segundo era un intento de lo que ahora llamaríamos una base de datos florísticos y un modelo ecológico de la América tropical. En estos ensayos se plantearon, por primera vez, algunos de los nuevos paradigmas de las ciencias del ambiente global. Éstos tardaron dos siglos en consolidarse, y se fueron apropiando lentamente de nuestra percepción de la realidad. Hoy, muchas de las ideas de Humboldt, acerca de cómo funciona nuestro planeta, son parte del conjunto de disciplinas de lo que llamamos “ecología global”, y forman parte del discurso cotidiano. Su genialidad radica en que fue capaz de intuir estas teorías sólo a partir de la observación descriptiva de la naturaleza, y de sus conversaciones con brillantes colegas de la América colonial.
 
“Un celo que distingue a México”
 
Humboldt y Bonpland nunca llegaron a conocer a un excéntrico naturalista mexicano —aunque sí lo leyeron con gran interés—, nacido en 1737 en Ozumba y fallecido en 1799, mientras ellos exploraban el Orinoco. Médico de formación, sacerdote, y erudito en mil temas, este naturalista graduado de la Real y Pontificia Universidad de México —hoy nuestra querida unam— investigó el movimiento de los planetas; hizo el primer mapa detallado de América del Norte, fue ardiente defensor de los pueblos indígenas; habló de la necesidad de controlar las inundaciones en la Cuenca de México, protegiendo su área lacustre; escribió una larga y curiosa memoria en favor del uso medicinal de las semillas de mariguana o pipiltzintzintlis; estudió el nopal y la grana cochinilla; elaboró preciosas ilustraciones científicas, que, hasta el día de hoy, son un testimonio de incalculable valor, y teorizó sobre la importancia de las plantas nativas —despreciadas en ese entonces por los criollos— como valiosos alimentos. Es una pena que no pudieran encontrarse, porque el carácter enciclopedista y la insaciable curiosidad de José Antonio de Alzate (ese era su nombre) habría impresionado mucho a los exploradores europeos. De cualquier manera, las ideas y los textos de Alzate fueron para ellos de gran importancia.
 
En cambio, el que sí pudo entrevistarse con Humboldt y Bonpland fue José Mariano Mociño, contemporáneo de Alzate, médico y botánico por la Universidad de México, quien pocos años antes había encabezado junto con el español Martín de Sessé —fundador de la cátedra de botánica en la misma universidad—, una serie de expediciones científicas desde Nicaragua hasta el Canadá. Éstas fueron financiadas por la Corona española y representaron un esfuerzo algo tardío —después de tres siglos de saqueo— por entender y describir la inmensa riqueza natural de la Nueva España. Sin embargo, la decadencia del imperio español a principios del siglo xix y la independencia de México pulverizaron cualquier expectativa de utilizar esos recursos botánicos y el conocimiento desarrollado en estas expediciones en beneficio de la metrópoli europea.
 
Pero Sessé y Mociño no habían sido los primeros; unos doscientos cincuenta años antes, a principios de la Colonia, la Corona había financiado trabajos similares antes de que la codicia por el oro y la plata, así como la Inquisición, hiciera desaparecer las prioridades más académicas. En 1552 dos indígenas, el médico Martín de la Cruz y el traductor Juan Badiano, habían publicado una luminosa obra describiendo las plantas medicinales autóctonas de México. El Códice de la Cruz-Badiano se escribió en náhuatl y latín, ya que eran fieles seguidores de la tradición de los códices prehispánicos, es decir, de su propia y rica tradición indígena. Pronto les siguieron muchos otros brillantes trabajos; en 1559 el fraile franciscano Bernardino Sahagún produjo una de las más grandes obras etnográficas del inicio de la Colonia, en la que describió con detalle importantes aspectos de la historia natural de México. En 1571, por órdenes del rey Felipe II, se inició la expedición de Francisco Hernández, con el objetivo de describir la historia natural de la Nueva España, y estudiar la medicina herbolaria indígena. La obra de Hernández aunque fue destruida en gran parte en el incendio de la biblioteca del Escorial en 1671, es un texto fundamental sobre la riqueza natural de México.
 
La fascinación por la naturaleza que mostraron Badiano, de la Cruz, Hernández, Mociño y Alzate forma parte de una tradición antigua en México, la cual fue reconocida con admiración y respeto por Humboldt, quien la describió como “el celo por las ciencias naturales en que con tanto honor se distingue México”. La síntesis de conocimientos teóricos que forman el cuerpo del Ensayo político y del Viaje a las regiones equinocciales se debe, en gran medida, a las discusiones con colegas mexicanos y a la lectura de trabajos que hizo Humboldt en la Nueva España. La investigación biológica de campo, y la descripción sistemática de la naturaleza son parte de esa admirable tradición intelectual, de ese “celo” mexicano, que tanto admiraba Alexander von Humboldt y que tanto contribuyó a su obra.
 
El rompecabezas planetario
 
Su mérito fundamental no radicó solamente en su capacidad para leer, entender y admirar el trabajo de sus colegas. Como muy pocos naturalistas de su época, llegó a comprender y deducir complejos fenómenos de la naturaleza, basado simplemente en sus observaciones. Es asombrosa la capacidad que tuvo para inferir, sin experimentar, el funcionamiento de complejos mecanismos naturales a partir de observaciones meramente descriptivas y basado tan sólo en sus experiencias como viajero y explorador. Humboldt pudo adelantarse a la aventura del descubrimiento científico, solamente con un libro de notas y sencillos instrumentos de navegación. Así recorrió la América tropical, armando con paciencia las piezas del rompecabezas planetario, e intuyendo fenómenos que hemos alcanzado a entender bien dos siglos más tarde.
 
Una de las preguntas científicas más relevantes que se hizo, fue acerca de las causas de la riqueza y la variación biológica sobre la Tierra. Esta pregunta fundamental corresponde al campo general de lo que en la actualidad llamamos “diversidad biológica”. En la época en que escribió el Viaje a las regiones equinocciales, que contiene el visionario Ensayo sobre la geografía de las plantas, no se conocía aún la teoría de la evolución ni la historia geológica y climática del planeta.
 
Medio siglo antes de Darwin, Humboldt esbozó algunas ideas que se vinculan con los conocimientos más modernos sobre la evolución biológica y geológica del planeta. En todos los casos sus esbozos fueron planteados como reflexiones sin mayor trascendencia. Sin embargo, muchas de estas ideas estaban anticipando grandes revoluciones científicas, que ocurrirían uno o dos siglos más tarde. Curiosamente, Humboldt tuvo la capacidad de anticipar las ideas de varios notables precursores de la ciencia, investigadores desconocidos en su momento que no fueron reconocidos, sino hasta después de su propia muerte.
 
Agassiz, el enamorado del hielo
 
En 1807, el mismo año en que Humboldt publicaba su Ensayo sobre la geografía de las plantas, nacía en Suiza Louis Agassiz, quien sería educado primero en Alemania y después en París, bajo la dirección de Cuvier (uno de los naturalistas más famosos de Europa) y quien se convertiría unos años más tarde en un joven y brillante médico y biólogo. En 1834 mientras que Humboldt empezaba a escribir su obra cumbre Cosmos, Agassiz regresaba a Suiza como profesor del Liceo y empezaba a estudiar los glaciares de los valles alpinos. En 1847, después de trece años de andar en los hielos, los valles y las morrenas —cuando se imprimía el segundo volumen de Cosmos—, Agassiz publicaba un libro, con poco impacto al principio, en el que arriesgaba la audaz hipótesis de que Europa había estado ocupada miles de años antes por inmensos glaciares que cubrían la mayor parte del continente. La Tierra, según Agassiz, había sufrido periodos de enfriamiento, a los que llamó “glaciaciones”, seguidos por periodos de calentamiento o “interglaciares” en los que la vegetación tropical había llegado hasta las latitudes boreales.
 
En un principio la idea fue tratada con desdén por la comunidad científica europea, cegada por la aparente evidencia de que los ciclos climáticos de invierno y verano se repetían con la precisión de un reloj. Fueron necesarios muchos años de evidencias fosilizadas, de descubrimientos geológicos, así como la teoría de le evolución de Darwin para que el público empezara a tomar en serio la teoría de Agassiz sobre las Edades Glaciales (quien, paradójicamente, se dedicó a combatir con celo religioso las ideas evolucionistas que sus propios descubrimientos habían ayudado a desarrollar).
 
Para Humboldt, sin embargo, era obvio que el ambiente global había pasado por sucesivos periodos de calentamiento y enfriamiento durante los últimos siglos, y planteó el problema con toda claridad en el Ensayo sobre la geografía de las plantas, casi cincuenta años antes que Agassiz: “Para decidir el problema de la migración de los vegetales, la geografía de las plantas desciende al interior del globo terráqueo y consulta ahí los antiguos monumentos que la naturaleza ha dejado en las petrificaciones, los bosques fósiles y las capas de hulla que constituyen la primera vegetación de nuestro planeta. Descubre los frutos petrificados de las Indias, las palmeras, los helechos arbóreos, las escitamíneas y el bambú de los trópicos, sepultados en las heladas tierras del norte; considera si estas producciones equinocciales, lo mismo que los huesos de los elefantes, tapires, cocodrilos y didelfos, recientemente encontrados en Europa, han sido transportados a las regiones templadas por la fuerza de las corrientes en un mundo sumergido bajo el agua, o si estas mismas regiones alimentaron en la antigüedad las palmeras y el tapir, el cocodrilo y el bambú. Uno se inclina hacia esta opinión, cuando se consideran las circunstancias locales que acompañan estas petrificaciones de las Indias”.
 
Sin conocer los valle glaciares que llevaron a Agassiz a elaborar su teoría, simplemente viajando por Venezuela, Ecuador y México, Humboldt había llegado ya —medio siglo antes— a la conclusión de que el clima en la Tierra no era constante.
 
Wegener, el gran menospreciado
 
En 1880, pocos años después de la muerte de Agassiz —en los Estados Unidos—, otro gran precursor nacía en Alemania; su nombre era Alfred Lothar Wegener. Después de obtener un doctorado en la Universidad de Berlín en 1905, Wegener tuvo oportunidad de integrarse a una expedición danesa a Groenlandia de 1906 a 1908. Allí empezó a interesarse en el movimiento de los continentes a escala global, y elaboró una teoría que en su tiempo casi nadie quiso aceptar.
Como otros científicos que lo precedieron, Wegener había notado la similitud del perfil de las costas de África y América, y especuló que estas tierras habían estado alguna vez unidas —posiblemente en el Paleozoico tardío, unos doscientos cincuenta millones de años atrás— formando un supercontinente ancestral al cual llamó Pangea. Basado en evidencias biológicas y geológicas, Wegener pudo demostrar que rocas y fósiles similares se encontraban en las costas de continentes separados, como América y África, y que grupos biológicos emparentados poblaban áreas ahora distantes. En apoyo a su teoría, además, esgrimió el argumento de la presencia de organismos fósiles tropicales en ambientes actualmente árticos.
 
Basado en estas evidencias, Wegener postuló la teoría de la deriva continental, en la que aseguraba que los continentes se desplazaban lentamente sobre la corteza terrestre. Sin embargo, la falta de un mecanismo que explicara la causa de esto, y el rechazo enérgico y fundamentalista del establishment geológico, llevaron a los investigadores de su época a desechar las hipótesis del movimiento continental, a pesar de los incuestionables argumentos de Wegener. Amargado por la falta de reconocimiento, Wegener murió heroicamente en 1930, en el rescate de un grupo de colegas que se había extraviado en el hielo, durante su tercera expedición a Groenlandia. Nunca llegó a enterarse de que, en los sesentas, su teoría sería retomada con el nombre de “tectónica de placas”, y que sus ideas dieron a la geología una teoría unificadora, que lo explica todo; desde los volcanes y los terremotos, hasta la formación de cordones de montañas y cuencas oceánicas.
 
Humboldt había concluido, sorprendentemente, que los continentes se movían de alguna manera, y había llegado a esta deducción unos ciento veinte años antes que Wegener. Nuevamente, sus razonamientos se basaban en la simple observación de campo sobre la distribución geográfica de las plantas: “Para decidir acerca del antiguo enlace de continentes vecinos, la geología se funda sobre la análoga estructura de las costas, los bajíos del océano y la identidad de los animales que los habitan. La geografía de las plantas proporciona materiales preciosos para este género de investigaciones: desde cierto punto de vista, puede hacernos reconocer las islas que, antiguamente unidas, se han separado; muestra que la separación de África y América meridional se hizo antes del desarrollo de los seres organizados. Todavía más, esta ciencia nos muestra cuáles plantas son comunes al Asia oriental y a las costas de México y California [...] Con la ayuda de la geografía de las plantas puede uno remontar con cierta certeza hasta el primer estado físico del globo”.
 
Milankovich, o las desventajas de publicar en serbio
 
Nacido en 1878 —unos pocos meses antes que Wegener—, el tercer gran precursor de esta historia es un matemático serbio, profesor de mecánica en la Universidad de Belgrado, de nombre Milutin Milankovich; quien demostró que la cantidad promedio de radiación proveniente del Sol que llega a la Tierra no es constante, como se creía, sino que varía de acuerdo a tres factores que inducen cambios en la trayectoria del planeta. En primer lugar, la excentricidad de la órbita terrestre experimenta variaciones periódicas, que tienen como consecuencia la modificación de la distancia media entre la Tierra y el Sol; cuando ésta aumenta en la elipse orbital, disminuye el flujo anual de energía solar incidente. En segundo lugar, la inclinación del eje de la Tierra —el ángulo entre el eje de rotación y el plano de la órbita, que en la actualidad es de 23° 27’—, sufre fluctuaciones a lo largo del tiempo causadas por la influencia gravitatoria de los demás planetas. Finalmente, el eje de rotación terrestre cambia la dirección hacia la cual se inclina, igual que un trompo al girar, y describe un cono perpendicular al plano que contiene la órbita terrestre, lo cual, a su vez, ocasiona que el equinoccio se ubique en distintas partes de la órbita terrestre según la orientación del eje. A este fenómeno se le denomina precesión de los equinoccios. Milankovich pudo calcular que los periodos característicos de los efectos producidos por cada uno de los tres factores anteriores —excentricidad de la órbita, inclinación del eje, y precesión de los equinoccios— son de cien mil, cuarenta y un mil, y veintidós mil años, respectivamente. Sus estudios demostraron que el efecto combinado de los tres ciclos es suficiente como para que la Tierra pueda calentarse y enfriarse significativamente, produciendo las glaciaciones de los últimos dos millones de años.
 
Durante casi cincuenta años, desde su publicación en varias revistas serbias en la década de los veintes, su teoría fue ignorada por la comunidad científica. Sorpresivamente, en 1976, un trabajo escrito por J. D. Hays, J. Imbrie y N. J. Shackleton, aparecido en la prestigiosa revista Science, demostró que las temperaturas globales inferidas a partir de núcleos del sedimento marino correspondían con los cambios en la órbita y la inclinación de la Tierra predichos por Milankovich. En efecto, los datos mostraban que los cambios en la excentricidad, inclinación y precesión de la Tierra eran los motores del cambio climático global.
 
Desafortunadamente, Milankovich no pudo verse reivindicado, ya que había fallecido dieciocho años antes.
 
Sin desarrollar la elegante y compleja teoría del matemático serbio, Humboldt había intuido la razón profunda de los cambios que habían operado —para él de manera obvia y transparente— sobre el clima de la Tierra en el pasado: “Pero ¿pueden admitirse estos enormes cambios en la temperatura de la atmósfera, sin recurrir a un desplazamiento de los astros o a un cambio en el eje de la Tierra? […] Un aumento en la intensidad de los rayos solares, ¿habría expandido, en ciertas épocas, el calor de los trópicos sobre las zonas vecinas del polo? Estas variaciones, que habrían hecho a Laponia habitable para las plantas equinocciales, los elefantes y los tapires, ¿son periódicas? ¿O son el efecto de algunas causas pasajeras y perturbadoras de nuestro sistema planetario”?
 
Del conocimiento a la acción
 
De manera prodigiosa, Humboldt pudo anticipar —a partir de sus exploraciones en México y Sudamérica— las grandes teorías biológicas que surgirían y se consolidarían en los siguientes doscientos años. Si bien, quizás, esa no es su grandeza fundamental, su capacidad de inferir el funcionamiento de sistemas tan complejos no deja de ser un motivo de asombro, que para México legó una de las más lúcidas descripciones de nuestra naturaleza y cultura durante el siglo xviii. En referencia a la Ciudad de México Humboldt escribió en el Ensayo político sobre el Reino de la Nueva España, publicado en 1822: “La construcción de la nueva ciudad, comenzada en 1524, consumió una inmensa cantidad de maderas de armazón y pilotaje. Entonces se destruyeron, y hoy se continúa destruyendo diariamente, sin plantar nada de nuevo, si se exceptúan los paseos y alamedas que los últimos virreyes han hecho alrededor de la ciudad y que llevan sus nombres. La falta de vegetación deja el suelo descubierto a la fuerza directa de los rayos del sol, y la humedad que no se había ya perdido en las filtraciones de la roca amigdaloide basáltica y esponjosa, se evapora rápidamente y se disuelve en el aire, cuando ni las hojas de los árboles ni lo frondoso de la yerba defienden el suelo de la influencia del sol y vientos secos del mediodía [...] Como en todo el valle existe la misma causa, han disminuido visiblemente en él la abundancia y circulación de las aguas. El lago de Texcoco, que es el más hermoso de los cinco, y que Cortés en sus cartas llama mar interior, recibe actualmente mucha menos agua por infiltración que en el siglo xvi, porque en todas partes tienen unas mismas consecuencias los descuajos y la destrucción de los bosques”.
 
Dos siglos antes de que la Ciudad de México enfrentara la crisis ambiental que hoy vive, Alexander von Humboldt pudo prever las dificultades hidrológicas que sobrevendrían y pudo atribuirlas, correctamente, a las consecuencias de “los descuajos y la destrucción de los bosques.” La devastación forestal, profetizó, traería graves consecuencias para el ciclo del agua.
Hoy, gracias a las teorías modernas de la diversidad biológica sabemos que los bosques, y en particular los bosques tropicales, son también inmensos reservorios de riqueza biológica, en donde sobrevive una gran parte de las especies del planeta. Un concepto que, por supuesto, tampoco fue ajeno a Humboldt, quien realizó en el Ensayo sobre la geografía de las plantas el primer análisis serio de la importancia de la diversidad biológica en los bosques tropicales de montaña: “De tal estado de cosas resulta que cada altura bajo los trópicos, al presentar condiciones particulares, ofrece también productos variados según la naturaleza de las circunstancias, y que en los Andes de Quito, en una zona de mil toesas (dos mil metros) de anchura horizontal, se descubrirá una mayor variedad de formas que en una zona de la misma extensión en la pendiente de los Pirineos”.
 
Del conocimiento de un fenómeno surge la apreciación del mismo, y de ésta la necesidad de protegerlo. Así, en las notas precursoras tomadas por dos botánicos —Humboldt y Bonpland—, sin más elementos que un teodolito, una brújula, una prensa de herbario y una desbordada pasión por la observación minuciosa del mundo natural, está también contenido el embrión de la biología de la conservación, la semilla de la protección de la diversidad natural.
La conservación de la riqueza biológica es un imperativo de la coyuntura global del siglo xxi, y es uno de los problemas centrales de la ciencia y de las sociedades modernas que debemos enfrentar y resolver todos los seres humanos de manera colectiva. Es una cuestión esencial para la sobrevivencia del planeta, y para nuestra propia sobrevivencia. Pero también es parte de nuestra herencia cultural, de ese “celo por las ciencias naturales en que con tanto honor se distingue México”, como tan bien lo describió Alexander von Humboldt. Muchas veces hemos repetido que debemos conservar la naturaleza por nuestros hijos y por los hijos de nuestros hijos. Es cierto, pero quizás también debemos cuidar la naturaleza por la naturaleza misma, sin más recompensa que sentirnos parte de la continuidad de la evolución biológica sobre la Tierra. Si Humboldt estuviera hoy vivo, creo que estaría de acuerdo.Chivi66
Referencias bibliográficas
 
Humboldt, Alejandro de. 1811. Ensayo político sobre el Reino de la Nueva España. Porrúa, México, 1978.
Humboldt, Alexander von. 1805. Ensayo sobre la geografía de las plantas. Siglo xxi/unam, México, 1997.
Alejandro de Humboldt. 1834. Viaje a las Regiones Equinocciales del Nuevo Continente. Monte Ávila, Caracas, 1991.
Exequiel Ezcurra
Instituto Nacional de Ecología.
_______________________________________________________________

como citar este artículo

Ezcurra, Exequiel. (2002). Redescubriendo a Alexander von Humboldt. Ciencias 66, abril-junio, 4-11. [En línea]
    Regresar al índice artículo siguiente
You are here: Inicio Búsqueda Titulo revistas revista ciencias 66