revista de cultura científica FACULTAD DE CIENCIAS, UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
Busca ampliar la cultura científica de la población, difundir información y hacer de la ciencia
un instrumento para el análisis de la realidad, con diversos puntos de vista desde la ciencia.
  P01    
 
 
     
Ciencia y etnociencias
 
César Carrillo Trueba
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
¿Qué tipo de saber se quiere descalificar
cuando se pregunta si esto es una ciencia?
¿Qué sujetos hablantes y pensantes,
con experiencia y saber,
se quiere reducir a un estatuto de minoría
cuando se dice: ‘Yo hago este discurso,
hago un discurso científico
y soy un científico’?
 
Michel Foucault
   
En un principio todo era oscuridad y tinieblas; el hombre no se distinguía de la naturaleza y dependía totalmente de ella, sometido a sus designios. No se distinguía la verdad de la superstición, la moral de la razón ni el arte del artefacto. El hombre se hallaba sumido en la comunidad, atado a la tradición y a la religión, incapaz de innovar, de elevar su espíritu. Fue entonces cuando apareció la ciencia y separó a la naturaleza de la sociedad, emancipando al hombre de ella y permitiéndole su dominio y control; alejó la superstición de la verdad, puso en un lado a la moral y en otro a la razón, y facilitó el florecimiento del arte —distanciándolo de la técnica—, así como la aparición de leyes universales para regir la vida del hombre en el mundo entero. Lo objetivo ya se podía distinguir de lo subjetivo. Fue así como emergió el individuo, libremente asociado, sin las ataduras de la religión y la tradición, capaz de dedicarse plenamente a innovar en el ámbito de la técnica y a profundizar en el conocimiento del mundo en beneficio de la humanidad, elevando su espíritu en cada acción, en cada descubrimiento, en cada paso de la inexorable marcha del progreso y la felicidad de la humanidad entera.
 
Esta imagen del progreso, estructurada a manera de mito, es la que, bajo distintas formas, aún perdura cuando se habla de la ciencia y su papel en la sociedad contemporánea, y ha sido asimismo, durante varios siglos, el motor de la colonización del mundo por Europa occidental y después por Estados Unidos. Se denomina actualmente a este proceso “Occidentalización”, pero al mirar de cerca su origen —el Renacimiento— se aprecia que, en realidad, es un término que proporciona una idea muy sesgada de lo que era en ese entonces la cultura del Viejo Mundo. Parafraseando a Guillermo Bonfil, podemos decir que en ese entonces en Europa existía un “Occidente profundo” —bastante diverso— y un “Occidente imaginario”; el primero esencialmente rural, con rasgos fuertemente comunitarios, una economía cerrada y un saber inmerso en una cosmovisión en la cual aún convivían mitos y ritos paganos, religión y tradiciones de diversa índole (médica, agrícola, etcétera) y en la que existía una veneración por la naturaleza; el segundo, urbano, individualista, mercantil y con un saber que aspiraba a la racionalidad, la cuantificación y la dominación de los seres humanos y de la naturaleza. El proceso de imposición del segundo sobre el primero es lo que se ha denominado como “occidentalización”, lo cual quiere decir que Occidente comenzó por occidentalizarse a sí mismo.
 
Se trata de un imaginario con raíces profundas, principalmente en la cultura clerical y secular de la Edad Media, en la que se consideraba como casi de otra naturaleza a los habitantes de las comunidades rurales. “Libre o no libre, el campesino de la alta Edad Media es profundamente despreciado —señala Jacques Le Goff. El servus no puede ser ordenado como eclesiástico, incluso cuando es libre; tan sólo por su incultura tiene pocas oportunidades de entrar a la Iglesia, y hasta en el orden monacal, todavía laxo y un poco anárquico, el reclutamiento campesino parece ínfimo”.
 
Ocupada en controlar la vida material y espiritual del mundo rural, la Iglesia mantuvo durante siglos una lucha contra los paganos, una empresa de evangelización que pretendía eliminar todas las supersticiones y ritos ajenos al cristianismo. Desde esta perspectiva, los campesinos eran considerados, por definición, paganus, practicantes de cultos antiguos —anteriores a los impuestos por los romanos— o propios de los bárbaros, celtas y demás pueblos del norte de Europa. Eran seres “ruines, cabezones, con los ojos separados y la mirada bestial”, que frecuentaban los oscuros bosques —la silva—, en donde se aparecían a los caballeros que se atrevían a adentrarse en ellos, como el célebre Lancelot. Incluso ya evangelizados, no pierden su carácter de pecadores (peccati), “lujuriosos y borrachos”, y son señalados con enfermedades visibles y “degradantes” como la lepra. Son además, pobres (pauper), tanto que carecen de nombre en los textos de la época, son ignorantes e iletrados (rustici) y, por no tener temor de Dios, son peligrosos, apareciendo bajo distintas facetas, ya sea como bandoleros, falsos profetas, curanderos o encarnando al mismo Anticristo. Así, el campesino, “vicioso, peligroso e iletrado, quedará más cerca del animal que del hombre”.
 
Ante este desprecio y los intentos de la Iglesia por controlar y modificar su manera de vivir y pensar, el campesino resiste de mil y una maneras, obligando a los clérigos a adaptar sus métodos para evangelizarlo, a emplear lenguas ajenas, a adoptar incluso elementos rurales en la cultura eclesiástica, a construir iglesias sobre antiguos adoratorios, y a apropiarse y cristianizar mitos, relatos y ritos de la cultura campesina. En el fondo, se trata de un conflicto al cual subyace un “foso cultural” que, como lo explica el mismo Jacques Le Goff, reside en “la oposición entre el carácter fundamentalmente ambiguo y equívoco de la cultura folclórica (la creencia en fuerzas que son a la vez buenas y malas y la utilización de herramientas culturales de doble filo) y el ‘racionalismo’ de la cultura eclesiástica, heredera de la cultura aristocrática grecorromana: la separación del bien y el mal, de lo verdadero y lo falso, de la magia negra y la magia blanca —el maniqueísmo propiamente dicho sólo era evitado por la omnipotencia de Dios”.
 
Los esfuerzos realizados por la elite secular para recuperar parte del imaginario rural, lo tradicional, no logran salvar el foso, sobre todo porque ésta es derrotada en su lucha contra la elite clerical. Así, en la idea de historia humana que se construye a lo largo de la Edad Media, se traza una línea que va de la Antigüedad al reino de la cristiandad, dejando de lado a los campesinos, como inmóviles en el tiempo. “Sólo los cristianos tienen derecho a la historia —señala Jacques Le Goff— y los paganos son excluidos. Paganos, es decir, los paganos propiamente dichos, pero también los ‘infieles’ y, al menos en un principio, los campesinos. Cierto, la idea que reinará durante largo tiempo no será la del progreso, sino al contrario, la de un declinamiento. Mundus senescit, el mundo envejece. La humanidad entró en la sexta y última edad de la vida: la vejez. Pero ese progreso al revés es también un proceso unilineal que privilegia a las sociedades que se transforman, aunque fuera en el sentido equivocado, y cuando el cristianismo medieval recupera la Antigüedad pagana, es para señalar los méritos excepcionales del Imperio Romano y definir una nueva línea de progreso: de Roma a Jerusalén”. Es éste el esquema unilineal retomado en el Renacimiento —definido como el resurgimiento de las artes y el pensamiento de la Antigüedad, salvo que ahora se deja también de lado a los clérigos, quienes terminarán junto a los campesinos excluidos antes por ellos, conformando el mundo de oscuridad, irreversiblemente vencido por la luz de la ciencia.
 
La ciencia contemporánea
 
“El reloj, no la máquina de vapor, es la máquina clave de la moderna edad industrial —afirma Lewis Mumford. En cada fase de su desarrollo, el reloj es a la vez el hecho sobresaliente y el símbolo típico de la máquina; incluso hoy ninguna máquina es tan omnipresente”. Es asimismo el emblema de la ciudad desde sus orígenes, el instrumento distintivo que regula sus actividades, alejándola de las fluctuaciones estacionales del mundo rural, y que, al dividir el paso del tiempo en horas y minutos, genera “la creencia en un mundo independiente de secuencias matemáticamente mensurables: el mundo especial de la ciencia”.
 
Durante la misma época, en el Renacimiento, la medición del espacio va a dar origen a una nueva representación de éste, la perspectiva, conformando así, junto con la nueva idea de tiempo, las bases de la ciencia contemporánea. Este afán de medir, de cuantificar y de regular la vida social, es resultado de las transformaciones que tienen lugar en las nacientes ciudades, en donde, el comercio, la manufactura, la usura, la arquitectura y demás actividades, constituían una nueva economía, una nueva sociedad, con una cultura que se distanciaba de la de los señores feudales y de la elite clerical.
 
Los conocimientos que posee la clase docta medieval muy pronto resultan insuficientes para las aspiraciones de las nuevas clases sociales, en donde ya se destacan los individuos y cada vez menos las colectividades, generando un clima de innovación tanto en el ámbito de las artes aplicadas como de las especulativas que, en realidad, se encontraban fuertemente unidas. La mentalidad mercantil predominante entonces es ilustrativa al respecto. “Todos esos hombres de negocios —afirma Yves Renouard— tienen en común el deseo de saber, de comprender, de ver claro para estar, con seguridad, bien informados. Pero al suscitar continuamente esta necesidad, su oficio desarrolla en ellos una curiosidad de espíritu esencial. Sienten constantemente el deseo de conocer los hechos y los acontecimientos para prever otros y obtener un beneficio. La experiencia suscita en ellos la certeza de que todo tiene una causa, que para prever primero hay que saber y que, en cualquier circunstancia, es necesario tener datos precisos, exactos y completos. Esta conciencia profunda de que una buena información permitirá una acción fructífera por medio de previsiones atinadas es el proceder mismo del pensamiento racional”.
 
No hay duda de que la ciencia contemporánea surge de esta nueva mentalidad, de la concepción del mundo que las clases emergentes van conformando en su desarrollo, de las necesidades materiales y conceptuales —incluso metafísicas—, de su afán por apropiarse del mundo y de la nueva imagen de éste que de ello resulta, de su deseo de controlar y dominar el mundo natural y social y, sobre todo, de la ruptura total que desean efectuar con la cosmovisión medieval. “Ese gusto de racionalismo cuantificador —explica Pierre Thuillier— contribuye ampliamente al nacimiento de una nueva concepción de ‘la naturaleza’. En la perspectiva anterior ‘la naturaleza’ era percibida como un conjunto de fuerzas actuando de manera un tanto arbitraria. Visión de campesino, se podría decir. Un día hay Sol y al otro llueve. Es así y hay que acomodarse. Qué bueno si este año ‘la naturaleza’ se muestra generosa y produce buenas cosechas y qué malo si es lo contrario. Mas, para los representantes del pensamiento calculador, la idea de una ‘naturaleza’ que obedece a sus propios caprichos se volvió cada vez menos creíble. Preocupados por el ‘orden’ y la ‘racionalidad’, trasladaron esas exigencias al mundo físico: la naturaleza, al igual que el mundo social, debía con seguridad obedecer a un orden ‘racional’ [...] Por lo tanto, la ‘realidad’ debería plegarse a las normas de los nuevos actores”.
 
Esta idea de orden racional encontró en la máquina la metáfora ideal. El Universo se perfila poco a poco como una gran maquinaria cuyos mecanismos se mueven en ese vasto escenario que constituyen el tiempo y el espacio, y se encuentran determinados hasta en sus más mínimos detalles. Si cada una de sus partes es estudiada de manera cuantitativa, para lo cual se pueden aislar, es posible lograr una acertada y fina predicción, así como un control y dominio de cada una de ellas y, si se conocen todas, de la totalidad del sistema. Los humanos mismos son vistos como una máquina —dotada de alma por Descartes—, como partes de una maquinaria social, que también es preciso controlar y regular. Así, la naturaleza es percibida de manera totalmente instrumental, con fines de explotación, control y dominación —tal y como lo dijo el mismo Descartes, quien pensaba que los hombres deberían convertirse en “amos y poseedores de la naturaleza”.
 
Finalmente, aquello que no era medible fue decretado subjetivo o inexistente, como lo señala Lewis Mumford. “Los instrumentos de la ciencia eran inútiles en el reino de las cualidades. Lo cualitativo se redujo a lo subjetivo: lo subjetivo fue desechado como irreal, y lo no visto y no medible como inexistente”. Esta separación culmina en el siglo xviii, el siglo de la razón, de la mecánica y del individuo, cuando la ciencia alcanza su grado “total” de objetividad y es reconocida como fuente de liberación y bienestar, como lo explica Jürgen Habermas. “El proyecto de modernidad formulado en el siglo xviii por los filósofos de la Ilustración consistió en sus esfuerzos para desarrollar una ciencia objetiva, una moralidad y leyes universales y un arte autónomo acorde con su lógica interna. Al mismo tiempo, este proyecto pretendía liberar los potenciales cognoscitivos de cada uno de estos dominios de sus formas esotéricas. Los filósofos de la Ilustración querían utilizar esta acumulación de cultura especializada para el enriquecimiento de la vida cotidiana, es decir, para la organización de la vida social cotidiana”. Toda una revolución en la inexorable marcha del progreso de la humanidad.
 
Progreso y revolución
 
Sin embargo, la separación de las tinieblas y la luz no resultó tan sencilla. Por vivir en sociedad, el individuo contamina una esfera de la vida con otra, creando un sinnúmero de relaciones entre naturaleza, sociedad, moral, ciencia, religión, ideología, política y demás. La ciencia es así “mancillada” por los prejuicios sociales —como el caso del cambio gradual en la teoría de la evolución de Darwin—, por la religión —la idea de infinito de Cantor—, por el poder —las teorías acerca de la desigualdad de las razas que prevalecieron largo tiempo en la academia—, por la guerra, la filosofía y un largo etcétera, profusamente documentado por las disciplinas dedicadas al estudio de la ciencia. De esta manera, el cambio total, el rompimiento absoluto con lo anterior, con el pasado, que subyace a la idea de revolución en la perspectiva del progreso, resultó más aparente que real. Galileo hacía horóscopos, a Newton le daba por la alquimia y a Wallace por el espiritismo, y la Revolución Francesa terminó encontrando “útil” la permanencia de la religión. Estas contaminaciones o “híbridos”, como los llama Bruno Latour —que nada tienen que ver con las propuestas de “hibridación cultural” y sus multitemporalidades—, más que excepciones, constituyen la norma en la sociedad occidental, en la llamada modernidad, y son muestra de que la imagen del mundo que construyen los humanos es inseparable de las formas sociales en que éstos se encuentran organizados.
 
Aun así, esta visión se ha logrado mantener desde entonces, elaborando constantemente justificaciones para cada crítica —hipótesis ad hoc, diría Paul K. Feyerabend—, purificando estos híbridos, una labor fundamental para que la sociedad occidental y la modernidad que preconiza mantengan su lugar en la cúspide del progreso —en donde se ha ubicado a sí misma, considerándose como su más acabado producto, al que todos los demás deben aspirar—, desde donde ha establecido su relación con las culturas del resto del mundo, al igual que con sus propias zonas rurales. Como lo explica Bruno Latour, “nosotros somos los únicos que hacemos una diferencia absoluta entre la naturaleza y la cultura, entre la ciencia y la sociedad, mientras todos los demás —sean chinos, amerindios, azandés o baruyas— no pueden separar verdaderamente lo que es conocimiento de lo que es sociedad, lo que es signo de lo que es cosa, lo que viene de la naturaleza tal y como es de lo que requieren sus culturas. Hagan lo que hagan, y por muy adaptados, ordenados y funcionales que puedan ser, permanecerán siempre ciegos debido a esta confusión, prisioneros de lo social y del lenguaje. Mientras que nosotros, hagamos lo que hagamos, por muy criminales, por muy imperialistas que seamos, escapamos de la prisión de lo social o del lenguaje, ya que accedemos a las cosas mismas por una puerta de salida providencial, la del conocimiento científico. La división interior entre los no humanos y los humanos define una segunda división, externa ésta, por medio de la cual los modernos son colocados aparte de los premodernos. En ellos, la naturaleza y la sociedad, los signos y las cosas, son casi coextensivos. En nosotros, nadie debe ya poder mezclar las preocupaciones sociales y el acceso a las cosas mismas”.
 
Por ello el saber occidental es ciencia, mientras que el de las demás culturas del mundo es, en el mejor de los casos, etnociencia, cuando no superstición; que uno es contemporáneo y los otros forman parte de un pasado que se niega a desaparecer, de la multitemporalidad que tanto gusta a los posmodernos; y que los occidentales no pueden más que avanzar, nunca retroceder, mientras los demás no desean hacerlo, petrificados en lo tradicional, inmóviles, reticentes a abrazar el progreso, negándose a recibir los beneficios de la humanidad, a salir de la oscuridad en que aún viven.
 
Esta diferencia radica en la capacidad que tiene Occidente de innovar y efectuar cambios drásticos e irreversibles, esto es, procesos revolucionarios que le permiten dar grandes pasos para avanzar. La llamada Revolución Neolítica es buen ejemplo de ello. El Bosquejo de un cuadro histórico de los progresos del espíritu humano, escrito en plena Revolución Francesa por Condorcet, nos remonta justo al momento de la integración de progreso y revolución. “La observación debió hacer notar que ciertas plantas ofrecían a los rebaños una subsistencia mejor o más abundante: se comprendió la necesidad de favorecer su producción, de separarlas de otras plantas que no proporcionan sino un alimento débil, malsano y aun dañino, y se llegó a encontrar los medios para efectuar esta separación.
 
“Del mismo modo, en los países en donde las plantas, los granos, los frutos, espontáneamente ofrecidos por el suelo, contribuían, con los productos de los rebaños, a la alimentación del hombre, se debió observar también cómo estos vegetales se multiplicaban y se procuraría entonces reunirlos en los terrenos más próximos a las viviendas, separarlos de los vegetales inútiles, para que estos terrenos les perteneciesen por entero y ponerlos al abrigo de los animales salvajes y de los rebaños y aun de la rapacidad de los demás hombres [...] En un país fértil, en un clima dichoso, el mismo espacio de terreno producía, en granos, en frutos, en raíces, más alimentos para los hombres que si se le consagrase a pastos. Así, cuando la naturaleza del suelo no hacía este cultivo demasiado penoso; cuando se hubo descubierto el método de emplear en ella los mismos animales que servían a los pueblos pastores para los viajes o para los transportes; cuando los instrumentos de labor hubieron adquirido alguna perfección, la agricultura llegó a ser la fuente más abundante de subsistencia, la primera ocupación de los pueblos; y el género humano alcanzó su tercera época.
 
“Algunos pueblos han permanecido, desde tiempo inmemorial, en uno de los dos estados que acabamos de recorrer [cazadores y agricultores] No solamente no se han elevado ellos a nuevos progresos, sino que las relaciones que han sostenido con los pueblos llegados a un alto grado de civilización, y el comercio que han entablado con ellos, no han podido producir esta revolución. Estas relaciones y este comercio les han proporcionado algunos conocimientos, alguna industria, y sobre todo muchos vicios; pero no han podido sacarles de esta especie de inmovilidad”.
 
En el imaginario occidental, la agricultura y la domesticación de animales son sinónimos de civilización, y al interior de la idea de progreso constituyen el primer gran paso en la emancipación del hombre de la naturaleza, en su intento por dominarla; con la Revolución Neolítica se acaban las “penurias” que deben sufrir los pueblos cazadores y recolectores, siempre “a expensas de lo que encontraran”. En pocas palabras, es el inicio de la civilización misma, y se ha erigido como punto de referencia para juzgar a la demás culturas del planeta, para determinar su grado de avance o desarrollo. Así, a pesar de que la domesticación de plantas ocurrió hace ocho o diez mil años, casi de manera simultánea en diferentes regiones de Asia, América, Europa, Medio Oriente y África, y que en las zonas tropicales los procesos que intervinieron y siguen haciéndolo hoy día, son muy variados, la idea de agricultura que ha predominado es la que se desarrolló en las zonas templadas, principalmente en Europa. Si a esto añadimos la domesticación de animales que, por razones muy precisas, fue de mayor magnitud en Europa que en el resto del mundo, es inevitable que Occidente se encuentre en la cúspide del progreso.
 
La historia es otra en las zonas tropicales y templadas de los demás continentes, en donde el clima y la abundancia de recursos marcaron un camino distinto. El mismo proceso de domesticación de las plantas sucedió de diferente manera. La relación de los humanos con las plantas silvestres suele ser más intensa en los trópicos, de tal forma que existe una gama de interacciones que va de la planta que depende casi por completo del ser humano, hasta la manipulación de la vegetación misma.
 
De hecho, como recientemente lo han propuesto Alejandro Casas y Javier Caballero, la domesticación de las plantas en estas latitudes tendría su origen en tales prácticas, que en su mayoría se realizan en donde crece naturalmente la planta, esto es, in situ, y no “separa[dos] de los vegetales inútiles”, como dijera Condorcet. Estas prácticas, similares a las que actualmente se llevan a cabo en las zonas tropicales, se pueden agrupar en tres grandes rubros: el fomento o la inducción de las especies deseadas y su protección de plantas que compiten con ellas, y la selección de ciertos ejemplares al interior de las poblaciones, de acuerdo a criterios como el sabor, el tamaño u otra característica apreciada. Tales manipulaciones dan como resultado un gradiente de transformaciones en el genotipo y el fenotipo de las poblaciones de una especie, así como en la abundancia de las especies que constituyen las comunidades vegetales. A la larga, estas modificaciones pueden llevar a la domesticación de las especies, cuyo cultivo se realiza en un ambiente totalmente modificado por los humanos —ex situ—, aunque su persistencia y amplia difusión en comunidades agrícolas de gran parte de los países del llamado Tercer Mundo parece indicar que muchas de ellas son mantenidas en este gradiente, sabiendo que proporcionan diversidad y abundancia de recursos a lo largo del año y no significan una gran carga de trabajo.
 
Así, la idea de Revolución Neolítica, en donde se llega a la agricultura y supuestamente todas las prácticas anteriores son eliminadas, resulta poco adecuada para dar cuenta de la cantidad de relaciones intermedias —híbridos, diría Bruno Latour— que caracterizan a las culturas indígenas mesoamericanas. Incluso es muy probable que esta visión impida otorgarles el valor que merecen tales interacciones en las sociedades de cazadores y recolectores de la prehistoria europea, pues se sabe que abrían caminos, desmontaban para construir sus aldeas, quemaban para permitir la aparición de plantas propias de los diferentes estados del proceso de maduración de la vegetación, e incluso se ha visto que en los alrededores de los campamentos llega a haber cierta abundancia de plantas cuya parte comestible es de mayor tamaño que lo normal; se ha encontrado también que algunos tenían una suerte de huerto alrededor de sus casas, en donde disponían de ciertas plantas.
 
La falta de atención a este tipo de manipulaciones, basadas en el conocimiento de los procesos que operan en la naturaleza más que en el empleo de herramientas o máquinas, se debe a que desde la perspectiva del progreso y sus revoluciones, las herramientas son el factor central, prácticamente el motor de ellas —como lo dijera el mismo Condorcet, “cuando los instrumentos de labor hubieron adquirido alguna perfección, la agricultura llegó a ser la fuente más grande de subsistencia”. Así la innovación tecnológica ha sido vista como algo que se desarrolla de manera autónoma, neutra, al margen de todo aquello que la contamina —política, ideología, etcétera—, con el fin de proporcionar beneficios a la humanidad, tales como el aumento en la producción agrícola. La Revolución Industrial llevó esta idea a su máximo, creando un culto a la máquina, al punto que el obrero, privado de conocimiento debido a la organización científica del trabajo, se transforma en su apéndice.
 
Es por estas razones que la Revolución Neolítica resulta ser una piedra angular de la idea de progreso, un elemento fundamental de este mito, como lo explica Marshal Sahlins. “Al exagerar tanto la importancia de la herramienta y al minimizar la del saber y la habilidad, nos vemos llevados correlativamente a concebir el progreso del hombre —desde los simios antropoides hasta los imperios de la Antigüedad— como una serie de pequeñas revoluciones industriales iniciadas, cada una de ellas, por el descubrimiento de nuevas herramientas o de nuevas fuentes de energía. Durante la mayor parte de la historia de la humanidad, el trabajo ha significado más que la herramienta, los esfuerzos inteligentes del productor han sido más determinantes que sus herramientas rudimentarias [...] Y las principales ‘revoluciones’ primitivas —en especial la que, en el neolítico, llevó a la domesticación de los recursos alimenticios—, todas esas revoluciones han representado puras victorias de la técnica humana: nuevas relaciones con las fuentes de energía existentes (plantas y animales), más que nuevas herramientas o nuevas fuentes de energía [...] Hasta la llegada de la revolución industrial propiamente dicha, el producto del trabajo humano aumentó mucho más gracias al saber y la habilidad del operario que a la perfección de sus herramientas”.
 
Desde esta perspectiva, no es de extrañar que se considere que las antiguas culturas mesoamericanas nunca lograron pasar de la edad de piedra —lo más avanzado de ésta, of course— o que algunas prácticas agrícolas de los pueblos indígenas sean vistas como primitivas por requerir, por toda herramienta, un simple palo con punta para hacer el hoyo en donde se va a sembrar. Tampoco es raro que los pueblos que estaban convencidos de poseer la clave del progreso hayan considerado que su labor consistía en llevar las luces al mundo entero, dedicándose a colonizar otros territorios, a “civilizar” a los pueblos “bárbaros” y a extender su dominio a la naturaleza indómita de otras latitudes.
 
En esta expansión, el encuentro con la naturaleza de otras tierras —clima, flora, fauna, microorganismos, etcétera—, muy distinta a la que acostumbraban y conocían, va a constituir un problema para su empresa de colonización. El orden racional establecido en la naturaleza templada de sus regiones —no exento de una severa destrucción ambiental— fue trasladado a las demás zonas del planeta —sin importar que estuvieran en una región del trópico húmedo, en una porción semiáridas o en una isla— con la seguridad que les proporcionaba la idea de universalidad e inmutabilidad de las leyes de la naturaleza, de lo que ya habían emprendido en sus propios países y, por supuesto, con la intención de recrear un modo de vida similar al que tenían en su terruño.
 
Mientras predicaban la palabra de Dios o la idea de progreso, buscando modificar la forma de vida y de pensar de los pueblos del resto del mundo, los colonizadores se daban a la tarea de transformar la naturaleza de acuerdo con sus propios fines, alterando así, desde dos frentes, la relación que habían establecido a lo largo de siglos las culturas nativas con su entorno, gracias a un saber y una habilidad transmitidos y enriquecidos generación tras generación —de larga duración, a decir de Fernando Braudel— que constituía la base de su sustento y el soporte de la conservación de los recursos que la naturaleza les prodigaba. Semejante empresa de destrucción, a pesar de la devastación que ha provocado, lamentablemente, no ha cesado hasta ahora.
 
Naturaleza y cultura
 
Es un hecho que la cultura occidental, al igual que las del resto del mundo, no es capaz de lograr una separación total  entre la imagen del mundo que construye y las diversas esferas de la vida social, no puede purificar la actividad cognoscitiva, es decir, eliminar la contaminación que ésta sufre por parte de la ideología, la moral, la política, etcétera. Esto ubica a la ciencia entre los demás saberes que las diferentes sociedades han producido a lo largo de la historia y los que existen actualmente. Como lo explica Louis Dumont, empleando una analogía, “al igual que las regularidades simples de la física clásica aparecen como casos particulares de una perspectiva más amplia, de igual manera lo abstracto universal de la ciencia puede aparecer como un caso particular de lo concreto universal”. Esto significaría que las diferencias entre una y otra forma de conocer no son cualitativas, sino meramente cuantitativas. Nadie negaría la inmensa cantidad de conocimientos que ha producido la ciencia en los últimos siglos, pero es igualmente claro que este magno desarrollo obedece principalmente a los imperativos de un sistema económico dedicado a la incesante producción de nuevos objetos de consumo y a la creación de nuevas necesidades. El apoyo que tienen las ramas con mayores aplicaciones y la escasa atención que reciben aquéllas dedicadas a cuestiones estrictamente teóricas, es muestra de ello.
 
 
Las categorías que cada cultura emplea para explicar los fenómenos naturales —lo frío y lo caliente, el ying y el yang o la presencia de metabolitos secundarios— tienen el mismo valor al interior de la cosmovisión en donde fueron generadas, por lo que no se puede operar la reducción de una a otra. Es preciso aceptar que, como lo señala Bruno Latour, “ya no hay culturas —diferentes o universales— ni naturaleza universal. Sólo hay naturalezas-culturas, y son éstas las que proporcionan la única base de comparación posible”. Sólo aceptando esta realidad será posible romper con la idea de que es necesario civilizar, integrar u occidentalizar a las demás culturas del mundo, de otra manera, se seguirá pensando que se les debe llevar las luces, que se debe remplazar su cosmovisión por “la verdadera”, respetando su folclor, por supuesto, y recuperando aquello que resulte verdadero a ojos de la ciencia —las plantas que sí tengan algún metabolito activo, por seguir con el mismo ejemplo. Es ésta la idea que subyace a la empresa de bioprospección que tanto se cuestiona actualmente y que pone en serias dificultades al trabajo que realizamos quienes nos dedicamos al estudio del conocimiento y uso de plantas en los pueblos indígenas sin perseguir ese fin.
 
La única manera de poder establecer una relación intercultural equitativa y justa, es aceptando la equivalencia de cada cultura, incluyendo su saber, la ciencia en nuestro caso. Esto no quiere decir que se regrese a la idea de que el mundo es una mera ilusión, ni que se tome una posición de relativismo absoluto, en donde no hay posibilidad de equivalencia alguna entre una y otra cultura, o que se caiga en la tentación posmoderna, desvaneciendo por completo la idea de verdad. Al contrario, se trata de establecer una correspondencia entre las categorías de cada cultura, crear equivalencias que permitan designar a las categorías o conceptos de cada una; en suma, de un trabajo de relación intercultural, en el cual la tensión provocada por la validez del saber al interior de cada cultura puede llegar hasta el conflicto, por lo que es imprescindible entablarlo bajo la forma de un diálogo entre iguales.
 
La investigación acerca de la relación que mantienen los pueblos indígenas con la naturaleza se vuelve así un campo en donde el conocimiento y el uso de una planta, por ejemplo, debe ser investigado en el contexto cultural, con el fin de entender el significado de ésta al interior de su cosmovisión y poder proporcionarle el valor que allí posee. Asimismo, nos libera de la preocupación cuando las clasificaciones, categorías y conceptos de las otras culturas no coinciden con los nuestros, o de que sean validados por la ciencia; es decir, que el hecho de que sean comprobables o no por nuestro saber resulta irrelevante, como lo es también pensar que tal vez, posteriormente, cuando se desarrollen nuevas técnicas, sea posible explicarlos —aunque, es cierto que esta expectativa ha resultado fructífera al abrir nuevas áreas de investigación, como es el caso de los fitofármacos, elaborados al emplear la hoja completa, por ejemplo, en lugar de sólo aislar el principio activo.
 
Desde esta perspectiva, la ciencia, lejos de ser reducida o relativizada por completo, queda ubicada en un mundo que es innegablemente multicultural, y sus alcances y limitaciones resultan más fácilmente discernibles. Además, al entender que se trata de una actividad más en la sociedad, que en su realización los científicos no dejan fuera su ideología, sus concepciones filosóficas, sus aspiraciones políticas, sus prejuicios, su afectividad, su estética, su moral, y todo lo que constituye a cualquier persona, la ciencia se humaniza en el sentido más amplio y se hace evidente lo que la modernidad ha tratado de esconder durante siglos, que se trata de una construcción humana. Esto nos permite ver que no hay fatalidad alguna en su desarrollo y que, como científicos, podemos incidir en la orientación que ésta tiene. Así, al igual que los antropólogos deben tener una visión introspectiva de su propia cultura, quienes nos dedicamos a las llamadas etnociencias deberíamos tener una visión similar de nuestro saber, de la ciencia.
 
Biodiversidad y multiculturalidad
 
México es uno de los países de mayor diversidad biológica del planeta, así como de mayor diversidad cultural —la población indígena se estima en aproximadamente quince millones de personas, repartidos en más de cincuenta culturas distintas. La coincidencia en el espacio de ambas, es decir, el hecho de que muchas de las regiones con mayor biodiversidad se encuentran habitadas por pueblos indígenas —algo que ha mostrado Víctor M. Toledo—, es más que un simple azar o el resultado de una condición de marginalidad y aislamiento. Los pueblos indígenas del país poseen un conocimiento milenario de su entorno y una forma de vida que les ha permitido habitar estas regiones sin destruirlas. Han creado, al mismo tiempo, un patrimonio de plantas cultivadas o con cierto grado de modificación, que constituye un elemento central de su sustento y que ahora lo es también de otros pueblos del planeta. Pero también han incorporado nuevas plantas y animales domésticos de otras partes del mundo, adaptándolas a su entorno e integrándolos en su propia vida. Son pueblos que, conservando en diferente grado sus raíces mesoamericanas, han sabido resistir a las imposiciones y ser abiertos a la innovación.
 
Sin embargo, al igual que en el resto del mundo, en muchos de ellos, los efectos del proceso de occidentalización han sido de mayor impacto, ya sea por la destrucción directa de su cultura o, de manera indirecta, por el deterioro de su entorno ocasionado por agentes externos —lo cual torna vulnerable a una cultura y la empobrece incluso materialmente. En aquéllos que han mantenido hasta ahora una coherencia cultural y su entorno en un estado aceptable, la presión externa no ha cedido, por el contrario, sigue aumentando conforme se van estableciendo nuevas vías de comunicación entre sus regiones y el resto del país, con cada nueva iniciativa gubernamental que no considera sus expectativas y particularidades, como las que pretenden transformar el régimen de propiedad de ejidos y comunidades o incrementar su rendimiento agrícola con semillas mejoradas —y muy pronto quizá hasta transgénicas; o por la presión de las agroindustrias, en pos de mercados para sus productos, y ahora tal vez hasta de las maquiladoras, con el Plan Puebla-Panamá; sin olvidar la televisión y sus estereotipos, el racismo recalcitrante que perdura en buena parte de la sociedad y la culpabilización de que son objeto los indios por la destrucción de áreas naturales protegidas —ignorando las causas subyacentes—, entre una serie de factores que sería muy largo de enumerar. La erosión cultural que todo esto provoca, sólo puede tener efectos negativos en la conservación de los recursos naturales y, obviamente, en la calidad de vida de los pueblos indígenas del país.
 
En este contexto, quienes nos dedicamos a las llamadas etnociencias debemos pugnar por la revalorización del conocimiento que los pueblos indios tienen de su entorno y del uso adecuado que pueden hacer de éste, así como por establecer un principio de igualdad de culturas y saberes en cualquier trato que se efectúe entre un agente externo y los pueblos indios, principalmente en los asuntos que atañen a la conservación de la diversidad biológica de estas regiones. Sólo así será posible entablar un diálogo intercultural que permita elaborar proyectos para lograr el buen uso y la conservación de la naturaleza en estas zonas del país, y una mejor calidad de vida para los pueblos indios que habitan en ellas.Chivi66
Referencias bibliográficas
 
 
Gruzinski, Serge. 1999. La pensée métisse. Fayard, París.
Bonfil Batalla, Guillermo. 1987. México Profundo. Una civilización negada. cnca/Grijalbo, México, 1990.
Le Goff, Jacques. 1977. Pour un autre Moyen Age. Gallimard, París.
Morazé, Charles. 1979. La science et les facteurs de l’inégalité. unesco, Paris.
Mumford, Lewis. 1934. Técnica y civilización. Alianza Universidad, Madrid, 1982.
Renouard, Yves. 1968. Les hommes d’affaires italiens du Moyen Age. Armand Colin, París.
Thuillier, Pierre. 1980. Le petit savant illustré. Seuil, París.
Simmel, Georg. 1903-1923. Philosophie de la modernité. Payot, París, 1989.
Habermas, Jürgen. 1988. Pensamiento postmetafísico. Taurus Humanidades, México, 1990.
Thuillier, Pierre. 1988. De Arquímedes a Einstein. Alianza/cnca, México, 1990.
Latour, Bruno. 1991. Nous n’avons jamais été modernes. Essai d’anthropologie symétrique. La Découverte, París.
García Canclini, Néstor. 1989. Culturas híbridas. Estrategias para entrar y salir de la modernidad. cnca/ Grijalvo, México.
Feyerabend, Paul K. 1975. Contre la méthode. Seuil, París, 1978.
Bury, John. s/f. La idea del progreso. Alianza, Madrid, 1971.
Condorcet. 1795. Bosquejo de un cuadro histórico de los progresos del espíritu humano. Calpe, 2 vol. Madrid, 1921.
Casas, Alejandro y Javier Caballero. 1995. “Domesticación de plantas y origen de la agricultura en Mesoamérica”, en Ciencias 40, pp. 36-45.
Bailloud, Gerard. 1975. “Avant l’histoire”, en  Histoire de la France rurale. Des origines à 1340, George Duby y Armand Wallon (eds.). Seuil, París. 4 vols.
Sahlins, Marshall. 1972. Age de pierre, âge d’abondance. Gallimard, París, 1976.
Lozoya, Xavier y Enrique Gómez (eds.). 1997. Fitofármacos. imss/farmasa/schwabe, México.
Louis Dumont. 1983. Essais sur l’individualisme. Seuil, París.
Luz María Valdés. 2001. “Los indios en el tercer milenio”, en Ciencias 60-61, pp. 128-132, unam, México.
 
 
César Carrillo Trueba
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Carrillo Trueba, César. (2002). Ciencia y etnociencias. Ciencias 66, abril-junio, 106-117. [En línea]

      Regresar al índice artículo siguiente
  portada articulo 1 portada articulo 1  
 
 
     
Cosas del corazón
 
Jorge Humberto Arce Rincón
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
A las 00:59 el corazón estaba latiendo con aparente normalidad; diecisiete pulsos transcurrieron antes de que apareciera una señal ajena al ritmo. Después de esta anomalía, el pulso vuelve a mostrarse normal. Sin embargo, se desarrolla inmediatamente una actividad de alta frecuencia que presenta alguna regularidad, que corresponde a una taquicardia. El holter que registró estos cambios en el ritmo cardiaco del señor R., se le había colocado unas horas antes de que fuera encontrado muerto, a las cuatro de la mañana, frente a su casa.
 
El señor R. había acudido a la clínica después de haber sufrido algunos episodios de palpitaciones. Durante el examen que le hicieron encontraron ciertos pulsos que se intercalaban entre los pulsos del ritmo normal. Para realizar un diagnóstico más certero y darle mejor seguimiento se le colocó entonces un holter (algo así como un electrocardiógrafo portátil que el paciente trae permanentemente consigo y que graba la actividad del corazón). Desgraciadamente la señal grabada (figura 1) ya no pudo ser útil para diseñar algún tipo de terapia.
 
 

Arcefigura1
Figura 1
Electrocardiograma correspondiente a un accidente cardiovascular. Se observa una primera sección correspondiente a 17 grupos de señales que reflejan una actividad relativamente normal del corazón del paciente. Un pulso o señal fuera del ritmo desencadena una actividad de alta frecuencia y gran amplitud que corresponde a una taquicardia. Esta actividad es inestable dando lugar después de aproximadamente tres minutos a un registro de frecuencia y amplitud irregular, correspondiente a la fibrilación, después de la cual sobreviene la asístole y el fallecimiento del paciente.
 
 
 
 
 

Este no es un caso extremadamente raro. Mas, en ocasiones, la oportuna intervención con un “desfibrilador”, (dispositivo que libera sobre el pecho del paciente un repentino choque de alto voltaje) puede regresar el corazón a su ritmo original y salvar la vida del paciente. ¿Cómo explicar los hechos antes descritos? ¿Bajo qué circunstancias puede una pequeña descarga eléctrica sacar al corazón de su ritmo de trabajo? ¿Por qué el desfibrilador regresa al corazón a su ritmo normal, sacándolo de la mortal fibrilación? Habría que confesar que no se conocen completamente las respuestas a estas preguntas. Sin embargo, se ha conseguido construir una imagen que explica tentativamente varios de los fenómenos descritos.
 
El obrero incansable
 
El corazón comienza a trabajar antes de nuestro nacimiento y no deja de hacerlo hasta nuestra muerte. Durante ese lapso late aproximadamente 2 500 millones de veces y su ritmo va cambiando en el transcurso de nuestra vida: cuando nacemos, su frecuencia es de cerca de ciento sesenta contracciones por minuto; en nuestra niñez, más o menos de cien, y en la vida adulta, alrededor de los setenta latidos. Existen diversos sistemas en nuestro cuerpo que funcionan sin pausa, pero el corazón es el arquetipo del “trabajador” incansable. Estudiar su funcionamiento es vislumbrar una serie de rasgos fascinantes que permiten comprender que el corazón es un órgano extraordinariamente robusto, preparado para enfrentar diversas demandas y dificultades, y que con mínimos cuidados nos puede permitir un larga vida.
 
 
Su enorme capacidad de respuesta radica en mecanismos situados a muy diversos niveles: muscular, nervioso, bioquímico, molecular, etcétera. Así el flujo continuo de sangre hacia las células depende de las propiedades elásticas de la aorta y las grandes arterias, que “transforman” su actividad pulsátil en un flujo estable a nivel capilar. Los cambios de presión son detectados en los barorreceptores situados en aorta y carótidas, que permiten ajustarla a demandas aparentemente tan simples como ponerse de pie en las mañanas. La composición química de la sangre es verificada por distintos quimiorreceptores, que pueden disparar la liberación de hormonas y neurotransmisores con efectos múltiples: cambiar el volumen circulante, regular la tensión en los vasos sanguíneos, ajustar la frecuencia cardiaca, etcétera.
 
 
Hay múltiples mecanismos en el sistema cardiovascular para mantenernos con vida. Siendo el corazón un músculo que trabaja intensa e incesantemente, requiere un adecuado aporte de oxígeno y nutrientes, así como un permanente lavado de los desechos, producto de su actividad, para lo cual cuenta con el sistema coronario —conjunto de vasos que irrigan, a manera de las ramas de un árbol, todo el músculo cardiaco. Distintas circunstancias pueden provocar la reducción del flujo de sangre en alguna de las “ramas principales”, lo cual afecta a la porción de músculo alimentado por los vasos conectados a esa rama. Algunos experimentos han mostrado que esta condición, llamada isquemia local, puede tener consecuencias fatales. No obstante, nuestro corazón tiene una estrategia para enfrentar esta situación con cierto éxito, ya que promueve el crecimiento de vasos que hacen el papel de puentes entre el sistema de irrigación bloqueado y los sistemas próximos que no lo estén. Algo así como usar un alambre a manera de “diablito” que vaya de una casa en donde la Compañía de Luz ha cortado la corriente eléctrica, a otra que cuenta con el servicio. A este mecanismo, en el corazón, se le llama anastomosis.
 
Algo de anatomía y fisiología
 
El corazón es un músculo hueco, que en los mamíferos consta de cuatro cavidades: dos aurículas y dos ventrículos (figura 2). Estas cavidades están organizadas en dos circuitos, el correspondiente al lado derecho recibe la sangre que ha dejado su oxígeno y nutrientes en los tejidos corporales, y que viene cargada de dióxido de carbono, el cual debe ser expulsado del cuerpo. Esa sangre es llevada a los pulmones para su oxigenación y regresa al circuito izquierdo del corazón desde donde es enviada a todo el organismo por medio de la aorta. Este proceso es posible gracias a que el corazón se contrae enérgicamente en dos tiempos; primero las aurículas y luego los ventrículos. La contracción se lleva a cabo por una señal eléctrica que recorre de manera precisa el músculo cardiaco, organizando todas sus fibras para que se contraigan en el instante adecuado. Esta coordinación entre las distintas fibras resulta vital, ya que es necesario que el corazón trabaje como un todo, sin lo cual, el funcionamiento de la bomba cardiaca es imposible. La fibrilación no es más que la pérdida de coordinación entre las distintas fibras, que se contraen irregularmente y no consiguen bombear la sangre dentro de las cavidades. Uno de los teóricos de este fenómeno dice que “tener en las manos un corazón fibrilando, es como sostener un pájaro que aletea tembloroso y no consigue levantar el vuelo”.
 
 
Arcfigura2 Figura 2
Diagrama del corazón. Al lado derecho le corresponde la circulación pulmonar y al izquierdo la sistémica, esto es el impulso de la sangre hacia todo el cuerpo. La señal eléctrica que controla la contracción del músculo cardiaco se inicia en el nodo senoatrial (1), el cual se encuentra en la aurícula derecha. La señal iniciada en el nodo senoatrial invade las aurículas provocando su contracción (2), y para pasar los ventrículos debe moverse por el nodo atrioventricular (3) que es una vía muy lenta. Después de este nodo, la señal viaja rápidamente por la fibras de Purkinje (4) pra provocar la contracción de los ventrículos (5).

 
La señal eléctrica que contrae al corazón se inicia en el nodo senoatrial —una pequeña estructura, de poco menos de un centímetro de largo, que se encuentra en la esquina superior de la aurícula derecha—, el cual envía rítmicamente señales eléctricas, por lo que el corazón, aun separado de sus entradas, seguirá contrayéndose. La señal generada en el nodo atraviesa las aurículas, provocando su contracción. Sin embargo, al terminar esa parte de su recorrido no puede pasar a los ventrículos, pues el tejido que conecta ambos tipos de cavidades es en su mayoría no conductor. La única área con tejido conductor entre aurículas y ventrículos es el nodo atrioventricular, un pequeño puente donde la señal eléctrica viaja lentamente y sufre un retraso. Éste permite que las aurículas vacíen su contenido a los ventrículos, sin enfrentar su contracción. Una vez atravesado el nodo atrioventricular, la señal llega a unas estructuras con una característica exactamente opuesta al nodo: conducen la señal muy rápidamente a las paredes interiores de los ventrículos para garantizar que éstos se contraigan coordinadamente.
 
¿Un oscilador?
 
Este ciclo se repite una y otra vez, y distintas patologías dan lugar a diversas perturbaciones en su curso. En particular el tipo de taquicardia y fibrilación mencionadas con anterioridad, que ocurren como anomalías en la propagación eléctrica en aurículas y ventrículos, y que pueden ser disparadas por un solo pulso fuera de ritmo. Una estrategia de estudio de estos fenómenos ha sido observar el efecto que produce una perturbación liberada en distintos momentos de su curso sobre el ritmo de un corazón.
 
Si perturbamos un péndulo, propinándole un golpe en el momento en que inicia el descenso, veremos que su extremo se balancea con mayor amplitud. Así, nuestra “perturbación” hace pasar al péndulo de una amplitud de oscilación a otra. Si recibimos una “perturbación”, como un beso sorpresivo y repentino, sentiremos cómo nuestro corazón cambia su ritmo de trabajo durante algunos segundos (o minutos si nuestra sensibilidad a los besos es muy alta), después de lo cual regresará a su ritmo normal. Desde el punto de vista matemático nuestro corazón es un oscilador no lineal que tiene un ciclo límite estable. Éstos resultan difíciles de estudiar desde un punto de vista analítico, es decir, resolviendo las ecuaciones diferenciales que los describen. Sin embargo, pueden hacerse teorías de su comportamiento ante perturbaciones de manera muy elegante. Para ello se modela el ciclo de la manera más simple: como un círculo, cada uno de cuyos puntos podemos representar mediante una distancia r y un ángulo q (figura 3). El movimiento en una circunferencia de radio constante, corresponde a la oscilación en el ciclo límite estable.
 
 
 
Arcefigura3 Figura 3
Modelo de perturbación en un oscilador no lineal. La circunferencia de radio constante representa el ciclo límite al cual regresa el oscilador cada que es perturbado. La pertubación se representa como una traslación horizontal, después  de lo cual el sistema regresa instantáneamente a la circunferencia, moviéndose para ello a lo largo a la línea que conecta su nueva posición con el centro del círculo.

 
Una perturbación puede ser conceptualizada como una traslación horizontal, que al regresar “instantáneamente” a la trayectoria original, atrasa o adelanta al oscilador. En la figura 3, éste se regresa desde el ángulo q al ángulo a por donde ya había pasado.
 
La construcción del diagrama de los efectos de todas las posibles perturbaciones permite predecir el efecto de perturbaciones periódicas, las cuales se pueden representar asimismo con diagramas (figura 4). En éste cada punto representa el tipo de acoplamiento que se puede dar entre el oscilador no lineal y una perturbación externa —que se da a intervalos t con intensidad A.
 
 
 
Arcefigura4 Figura 4
Diagrama que respresenta el efecto de perturbaciones periódicas sobre agregados de células cardiacas que se comportan como el oscilador no lineal de la figura anterior. En el eje horizontal se representa el periodo de perturbación y en el vertical la intensidad de la misma. Se está mostrando que los agregados se acoplan a la perturbación, indicándose con una pareja de números la forma del acoplamiento. El dígito de la izquierda indica el número de perturbaciones que provoca el número de ciclos indicado a la derecha. Las inserciones muestran a manera de barras verticales las perturbaciones, y se pueden ver los potenciales de acción de los agregados de células.
 
Este tipo de herramienta puede ser útil cuando se estudia el efecto de un marcapaso sobre el ritmo cardiaco, pero no podemos entender cómo es que el oscilador podría llegar a detenerse.
 
¿Un generador de iteraciones?
 
Un modelo que se construye más ligado a las propiedades del tejido cardiaco es el de “mapeos unidimensionales a través de la curva de restitución”. Uno de sus éxitos es la descripción de las alternancias que, en muchos casos, ocurren antes de un infarto. Las teorías de mapeos unidimensionales son descripciones matemáticas que reposan sobre una idea muy sencilla: el valor de la variable X en el tiempo t depende del valor de esa variable en el tiempo anterior t-1. Así podemos pensar que la población de mariposas que nació esta primavera (Xt) depende de la cantidad de mariposas que había la primavera anterior: (Xt-1). Esta dependencia se puede representar como: Xt = f (Xt-1). Desde luego además de la cantidad de mariposas existentes la primavera anterior (de la cual depende la cantidad de huevecillos puestos que dieron lugar a la población actual), otros factores son importantes, como el clima, los predadores, la cantidad de alimento disponible, etcétera. Pero no cabe duda que la población anterior es uno de los más importantes.
 
De la misma manera, podemos pensar que en el corazón un latido depende del anterior.
Esta propuesta no es descabellada, de hecho es bastante plausible una vez entendidos algunos detalles de la señal eléctrica a nivel celular. La señal que dispara la contracción del músculo cardiaco, llamada potencial de acción, está constituida por minúsculas corrientes en distintos iones, las cuales atraviesan repentinamente la membrana de las células cuando en alguno de sus alrededores se produce una descarga eléctrica suficientemente fuerte. Como en una reacción en cadena, este flujo de iones, por medio de la membrana de una célula, se convierte en una fuente de perturbación para las células vecinas que, a su vez, reaccionan disparando potenciales de acción. Este proceso, que va avanzando a todo lo largo y ancho del músculo cardiaco, tiene grandes semejanzas con el que ocurre en una llanura seca, cuando en uno de los arbustos cae un rayo o algún otro tipo de chispa; como bien sabemos bastará una leve brisa para que el fuego se propague a los arbustos cercanos, y de éstos a más y más arbustos hasta convertirse en un incendio que puede consumir grandes cantidades de vegetación. El fuego, al ir avanzando, deja tras de sí cenizas y madera carbonizada, de tal manera que el “frente ardiente” no puede regresar por el camino que ya ha recorrido, puesto que allí no queda material para consumir. De hecho, deben pasar meses o incluso años para que la vegetación haya crecido lo suficiente y pueda soportar un nuevo incendio. En el tejido cardiaco ocurre algo muy semejante; los potenciales de acción forman un frente de onda que va “consumiendo los recursos” que encuentra a su paso, de manera que durante un tiempo —en este caso fracciones de segundo— no se puede disparar en esas regiones un nuevo potencial de acción. A ese periodo de tiempo se le llama periodo refractario.
 
El desarrollo de tres potenciales de acción consecutivos en un punto del tejido cardiaco, visto en un osciloscopio, representa en la figura 5, en donde el eje vertical indica el cambio de voltaje en milivoltios y el horizontal el desarrollo temporal en milisegundos. Las pequeñas líneas verticales indican los instantes precisos en que se estimula el tejido, lo cual provoca un incremento en el voltaje transmembranal (120 mV) indicado con la línea vertical en la gráfica. Después de este “aumento” del voltaje sigue un periodo durante el cual no podemos disparar un potencial de acción, denominado ancho del potencial de acción. Al intervalo de tiempo en el cual el tejido no recibe ningún estímulo, ya que se encuentra descansando, se le ha nombrado tiempo de descanso.
 
 
 
Arcefigura5 Figura 5
Gráfica de tres potenciales de acción cardiacos consecutivos. Las pequeñas flechas verticales indican el momento de la estimulación. Se indica con la letra P l intervalo de tiempo entre la estimulación y otra. Se indica con las acrónimos TD y APA el tiempo de descanso y el ancho del potencial de acción. Cada uno de los tiempos de descanso y anchos de potencial se numeran, lo cual se indica con un índice i. El descubrimiento importante hecho con este tipo de experimento de estimulación periódica es que el ancho de cada potencial de acción depende del tiempo de descanso que le antecede.
 
 
Lo interesante surge al advertir que el ancho de un potencial de acción depende del tiempo de descanso que le antecede. Por lo que mientras menor sea el tiempo de descanso, menor será el ancho del potencial de acción que pueda dispararse; esto es, que el ancho de potencial de acción está en función del tiempo de descanso, lo cual puede representarse simbólicamente como APAi = f (TDi ). Como puede verse (figura 4) la duración del tiempo de descanso es en la que el periodo deja el ancho del potencial de acción precedente APAi-1; del tal manera que cada ancho del potencial de acción depende del ancho del potencial de acción que le precedió APAi = f (P-APAi-1).
 
Una vez conocida, con algún experimento, la forma de la dependencia del ancho del potencial de acción con el tiempo de descanso, es fácil encontrar la secuencia de anchos de los potenciales de acción que siguen a una perturbación (figura 6a y 6b).
 
 
Arcefigura6a Arcefigura6b
Figura 6a Figura 6b
Comportamiento asintótico de un modelo de células cardiacas; en a las células regresan a su ritmo normal después de una perturbación. En b se quedan alternando entre un potencial grande y uno pequeño. En este tipo de gráfica se representa el comportamiento iterativo del ancho de las respuestas de ciertas células cardiacas a estímulas periódicos. La línea curva se obtiene experimentalmente. La línea 45° permite calcular del comportamiento sin realizar cálculos algebraicos. Para conocer cuál sería el comportamiento de las células después de una condición inicial cualquiera, se pinta la posición inicial en la línea curva, se traza una línea horizontal de ese punto a la línea de 45°, de este cruce se traza una línea vertical a la curva experimental, obteniéndose así el primer ancho de potencial de acción que le sigue a la condición inicial. Para conocer el ancho del segundo potencial de acción se repite el procedimiento antes descrito, tomando como condición inicial el dato obtenido gráficamente; este procedimiento se repite cuantas veces sea necesario. En la mayoría de los casos con pocas iteraciones se puede inferir cuál será el comportamiento asintótico del sistema.
 
Realizando iterativamente este procedimiento se pueden inferir las tendencias generales de los pulsos a partir de alguna condición inicial. Después de una perturbación (figura 5) los anchos de potencial de acción convergen en un solo valor, al igual que después de un susto, cuando nuestro corazón recupera su ritmo inicial. Sin embargo, en el caso del lado izquierdo, los potenciales se quedan alternando entre dos valores: uno ancho y uno estrecho, de la misma manera que algunos registros de corazones antes de un infarto. La ocurrencia de alternancias precedentes a la trilogía “taquicardia, fibrilación y muerte súbita”, se ha convertido en una fuente de esperanza para algunos clínicos y fisiólogos, que buscan detectarlas oportunamente. Pero ninguno de los modelos matemáticos que hemos descrito permiten darles una explicación. Esto se debe a que no hemos incorporado a nuestro análisis el carácter extenso del corazón, es decir, no hemos tomado en cuenta su distribución espacial. La importancia de este hecho resalta cuando notamos que la fibrilación no aparece en el corazón de mamíferos pequeños como ratones o topos.
 
Huracanes eléctricos
 
Dilucidar las características espaciales de la fibrilación y de la taquicardia es un esfuerzo que ha tomado un largo tiempo y que se encuentra bastante lejos de finalizarse. Para ello han sido de gran utilidad tres técnicas: la utilización de decenas e incluso centenas de electrodos para seguir la distribución espacial y el curso temporal de los frentes de onda eléctricos cuando viajan en el corazón; el uso de computadoras y supercomputadoras para construir animaciones de la actividad eléctrica deducida al resolver numéricamente las ecuaciones diferenciales que describen al tejido cardiaco; y la observación de otros sistemas excitables (básicamente físico-químicos) que presentan características análogas a los tejidos que estamos estudiando.
Cada una de estas técnicas ha aportado información complementaria, que proporciona la imagen de algunas taquicardias como las espirales o rotores de actividad eléctrica en el tejido cardiaco. Algo así como un intenso huracán, cuyos vientos serían las corrientes eléctricas que se propagarían en los ventrículos. La ruptura de este huracán, en miríadas de pequeños torbellinos, desorganizaría por completo el accionar de los ventrículos, lo que correspondería a la fibrilación.
 
Rasgos de esta fenomenología pueden inferirse en un electrocardiograma, como el de la figura 1, en donde se observan diecisiete pulsos antes de que la perturbación saque al corazón de su ritmo normal. Si se observa la sección del registro que corresponde a cada uno de estos pulsos, puede notarse que cada uno de ellos consta de un pico muy agudo asociado a la contracción del ventrículo, precedido por uno más suave relacionado con la de la aurícula. Si la impresión de la figura fuera de mejor calidad, podríamos notar una señal posterior al pico agudo que corresponde a la repolarización de los ventrículos. Al estudiar la señal correspondiente a la taquicardia veremos que hay señales de altura equivalente a los picos agudos del ritmo normal que, por tanto, deben estar asociados a contracciones en la masa ventricular, y que no están precedidos por pulsos de menor tamaño, de manera que en la señal que estamos observando no se distingue la actividad auricular. Otro rasgo llamativo de ese segundo grupo de oscilaciones es su rapidez, tienen tres o cuatro veces la frecuencia de la señal anterior. Esta es una característica importante para deducir el tipo de actividad.
 
Aunque es posible que el marcapaso natural del corazón alcance esas frecuencias, lo hace acelerando paulatinamente, circunstancia que no advertimos en este registro. No existiendo otro marcapaso más rápido que el nodo senoatrial, tenemos que buscar una explicación alternativa para entender esta actividad de alta frecuencia. Lo que se ha propuesto desde hace unos cien años es que esta actividad no está controlada por un marcapaso, sino por el propio frente de onda eléctrico, el cual, en lugar de extinguirse, permanece atrapado en el corazón “dando vueltas” con mucha rapidez. La primera propuesta que se hizo decía que la señal giraba alrededor de alguno de los orificios de los grandes vasos. Es posible que éstos no sean el centro inerte de ese giro o entrada, sino que sea una cicatriz que haya dejado un infarto anterior.
 
Se ha realizado una gran cantidad de experimentos y simulaciones de cómputo para estudiar el origen y desarrollo de este tipo de comportamiento. Analizando la propagación del frente de onda en un anillo delgado de tejido cardiaco, se ha podido entender que las reentradas son inestables ante el decrecimiento del tamaño del centro alrededor del cual giran, y que la administración de fármacos que aumenten la duración del periodo refractario puede eliminar la actividad reentrante. Sin embargo, en el conjunto del músculo no es posible que exista esta actividad alrededor de una cicatriz, sin que se vea afectado el resto del músculo. El frente de onda que se está moviendo perpendicularmente al centro inerte, se extiende lejos de él, por lo que la señal tiene que moverse a mayor velocidad a medida que está más lejos del centro. Es posible estudiar esta situación matemáticamente, obteniendo como resultado un patrón de actividad en forma de espiral.
 
Ha podido comprobarse la ocurrencia de actividad espiral en otro tipo de sistemas excitables, como en las reacciones físico-químicas de Belousov-Zhabotinsky. También se han encontrado espirales en las simulaciones numéricas hechas con las ecuaciones diferenciales que describen al tejido cardiaco y en los que se obtiene este tipo de actividad sin ningún centro inerte. Estas espirales tienen algunas características especiales; la punta de los frentes curvos de las espirales se mueven de manera muy complicada en el tejido cardiaco, como si viajaran. Además son en general muy inestables, rompiéndose con facilidad, y dando lugar, en el sitio de la rotura, a nuevas espirales, las cuales van llenando toda la región donde se realiza la simulación. De esta manera ocurriría la fibrilación, que es la contracción desordenada de las distintas fibras cardiacas.
 
Esta actividad desordenada puede suprimirse usando un desfibrilador, que es un aparato que produce descargas eléctricas de aproximadamente cinco mil voltios sobre el pecho del paciente. Esta maniobra, junto con el uso intensivo de trombolíticos en los hospitales y la creación de las “unidades coronarias”, ha reducido la mortalidad de los pacientes que consiguen llegar a los hospitales.
 
Además de los desfibriladores y los trombolíticos, los médicos cuentan con un amplio arsenal de recursos para manejar las dolencias cardiacas. La mayor dificultad se encuentra en que muchos de los accidentes cardiovasculares ocurren en personas que no habían presentado ningún síntoma y, por tanto, no cuentan con ningún tipo de control o apoyo cuando ocurre la fibrilación. Esta es una de las líneas en las que se trabaja muy activamente: encontrar algún tipo de examen que permita descubrir a aquellas personas que presentan algún tipo de riesgo, y que una vez determinado podría servir para proponerles alguna forma de control o prevención.
 
Una recomendación final
 
Las enfermedades cardiovasculares son la primera causa de muerte en nuestro país, y en muchos otros, principalmente en los llamados primer mundistas. En 1998 en Estados Unidos hubo 949 619 decesos ligados a padecimientos cardiacos, esto es 40.6% del total de fallecimientos de ese año, muy por encima del cáncer, la segunda causa de muerte, que ocupó poco más de 23%.
 
¿Cómo resolver esta aparente paradoja? Nuestro sistema cardiovascular cuenta con maravillosos mecanismos de protección, pero los padecimientos cardiacos son la primera causa de muerte en amplias regiones del mundo. Dar respuesta a esta pregunta y, más específicamente, buscar soluciones a los distintos padecimientos cardiacos, es el tema de trabajo de muchos investigadores.
 
Paradójicamente, las causas de esta especie de “epidemia” de enfermedades cardiovasculares que ocurre desde hace unos cien años en los “países ricos”, y que en los últimos decenios se ha extendido a otros países, son relativamente claras. Las estadísticas muestran que esta forma de muerte está asociada al sedentarismo, al consumo de alimentos industrializados (con altos niveles de grasas y azúcares), al intenso consumo de tabaco y, sobre todo, a un alto nivel de tensión nerviosa que ocurre en la persecución del llamado “éxito personal”. Por tanto, una forma simple de ayudar a nuestro corazón a mantenernos vivos, es realizar alguna actividad física, mejorar nuestra dieta, reducir o eliminar el consumo de tabaco y, sobre todo, tomarse estos y otros consejos con toda la calma del mundo.Chivi66
Agradecimientos
A la Dra. Hortensia González sus valiosos comentarios y sugerencias.
Jorge Humberto Arce Rincón
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Arce Rincón, Jorge Humberto. (2002). Cosas del corazón. Ciencias 66, abril-junio, 90-98. [En línea]

    Regresar al índice artículo siguiente
       
 
 
     
Cuasares
 
Deborah Dultzin
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Los cuasares son objetos celestes que por más de treinta años han cautivado e intrigado a los astrónomos. El primero se descubrió en 1960, pero no fue sino hasta 1963 cuando los astrónomos comprendieron (o creyeron comprender) lo que estaban viendo. Aunque el objeto tenía la apariencia de una débil estrellita azul, desde un principio se sospechó que no se trataba de ninguna estrella ordinaria, pues fue detectada por su emisión de radiofrecuencia. Sólo después pudo ser identificada como un objeto visible, ya que las estrellas no emiten con esa intensidad.
 
Una de las técnicas más usadas en astronomía para analizar la luz de los objetos es la espectroscopia, mediante la cual podemos descomponer la luz blanca y analizar por separado los diferentes colores (longitudes de onda o frecuencias) que la componen. Pues bien, al analizar el espectro de este primer cuasar quedó de inmediato claro que, a pesar de su apariencia de “estrellita azul”, no se parecía a ninguna estrella en sus características espectrales (que reflejan básicamente la temperatura). De hecho, no era similar a ningún cuerpo celeste conocido hasta entonces. Marten Schmidt resolvió este enigma cuando logró identificar, en el espectro de uno de estos objetos, el patrón de emisión producido por el hidrógeno, el elemento más abundante en el Universo. Sin embargo, las longitudes de onda que aparecían en este patrón habían sido desplazadas sistemáticamente hacia el lado rojo del espectro (aparecían con longitudes de onda mayores que en el laboratorio). El desplazamiento era tan grande, que los astrónomos tardaron tres años en encontrar un patrón reconocible, el cual, al poco tiempo, fue utilizado para identificar otros objetos similares.
 
Después de haber descartado otras posibles causas de este desplazamiento al rojo, vino la interpretación aceptada, hasta el día de hoy, por la gran mayoría de los astrónomos; que es la expansión del Universo lo que causa el alejmiento entre las galaxias. Ésta es una de las predicciones más importantes que se desprende de la teoría de la relatividad general, formulada por Albert Einstein alrededor de 1915, y que fue comprobada por Edwin Hubble unos años más tarde, quien logró establecer una relación entre la distancia a la que se encuentra una galaxia de nosotros y su aparente velocidad de alejamiento causada por la expansión del Universo.
 
Esta correlación se conoce como la Ley de Hubble, que dice que la velocidad de recesión (o alejamiento) es mayor, cuanto más lejos se encuentra una galaxia en proporción directa a su distancia. El corrimiento al rojo de los patrones espectrales ya se había detectado en muchas galaxias (aunque nunca en forma tan drástica como apareció en los cuasares), y mediante la Ley de Hubble se medía la velocidad de recesión que se usaba para determinar la distancia a galaxias lejanas. El desplazamiento al rojo se designa con la letra z.
 
Aplicando esta ley se obtiene una distancia tal, que la luz debe viajar dos billones y medio de años para llegar a nosotros desde este objeto (esto se expresa al decir que el objeto se encuentra a dos billones de años luz de distancia). Entonces quedaba claro que no se trataba de una estrella, sino de un objeto fuera de nuestra galaxia, siendo el más lejano conocidos hasta entonces.
 
El nombre cuasar es una castellanización del vocablo inglés quasar, formado por las siglas: quasi-stellar radio source. Hoy día se conocen más de siete mil cuasares, quince de los cuales llevan el nombre del observatorio mexicano de Tonantzintla. 3C273 es el más cercano con un el valor es z = 0.158, esto es 15,8 %. Mientras que el más lejano detectado hasta ahora, tiene su espectro corrido al rojo en casi 500% (z = 4.897), lo que implica una velocidad de recesión muy cercana a la de la luz (trecientos mil kilómetros por segundo) —que es la velocidad límite en la naturaleza para el movimiento de la materia y la energía— y que lo sitúa en los confines del Universo observable. La variabilidad en el brillo de algunos cuasares fue el siguiente hallazgo. Se encontró que existían algunos que duplicaban su emisión de luz en un día, lo cual indica que la región que produce esta luz no puede ser mayor que “un día luz” o veinticinco millones de kilómetros (dos veces el tamaño del Sistema Solar). Es decir, que algunos cuasares producen mucho más energía que una galaxia normal —con sus cientos de miles de millones de estrellas— como el Sistema Solar.
 
Mientras que, por un lado, en los últimos veinte años se ha realizado un intenso trabajo por observarlos en todas las frecuencias posibles, desde las radiofrecuencias (radiación de baja energía) hasta los rayos gamma (la radiación más energética) —lo que ha sido posible gracias al gran avance de la tecnología astronómica de los observatorios espaciales—, por el otro se han intentado formular teorías que puedan explicar los fenómenos físicos que ocurren en los cuasares y, muy especialmente, que puedan dar cuenta de la fuente de tan colosal energía. Hay una serie de fenómenos asociados a los cuasares que son imposibles de explicar mediante algún tipo de radiación estelar conocida, como los chorros de plasma colimados que son emitidos por los objetos radiofuentes, la emisión de rayos gamma y la actividad de los “primos hermanos” más cercanos a los cuasares, llamados blazares, de los que hablaremos más adelante. Además, los datos de variabilidad en las frecuencias de rayos x ponen límites aún más estrictos al tamaño de donde proviene la emisión de esta energía.
 
De “lagartos” y otros bichos
 
Algo que ha ido quedando claro a lo largo de todos estos años es que los cuasares no representan un fenómeno tan insólito en el Universo, como se pensó en un principio. Al ir juntando pacientemente las piezas del gran rompecabezas, ha surgido el hecho de que fenómenos muy similares ocurren en los núcleos de algunos tipos de galaxias; por ejemplo, en las radiogalaxias y en las conocidas como galaxias Seyfert (en honor a su descubridor). Los núcleos de todos estos objetos son muy parecidos a los cuasares, aunque varía la potencia emitida de un tipo a otro, y también algunas otras características como la morfología de la galaxia circundante al núcleo. Se sabe, por ejemplo, que los núcleos de las radiogalaxias “viven” en galaxias de forma elíptica, mientras que los núcleos de las galaxias Seyfert “viven” en galaxias de tipo espiral. Los cuasares son tan brillantes que no ha sido fácil detectar la galaxia circundante. El problema se debe al contraste, ya que mientras el núcleo es brillantísimo, la nebulosidad circundante es muy tenue (recordemos que se trata de objetos muy lejanos). Esto ha sido posible gracias a las técnicas digitales modernas con las cuales se pueden obtener y manipular imágenes astronómicas, y al aumento en el tamaño de los telescopios de nueva tecnología. Sin embargo, se han logrado detectar varias de las nebulosidades alrededor de los cuasares. Desde luego, resulta imposible reconocer estrellas en esas nebulosidades para asegurar que son galaxias como las conocidas; también es difícil hablar de su morfología, aunque lo que sí parece ser una característica común es que todas presentan morfologías sumamente perturbadas.
 
Todos estos objetos se agrupan bajo el nombre común de “núcleos activos de galaxias”, y el encuentro energético de este fenómeno lo constituyen unos objetos conocidos como tipo bl Lac. En los setentas se descubrió una serie de objetivos que presentaban características semejantes a los cuasares, pero mucho más extremas; además de la potencia, presentan una diferencia importante que es la dificultad por detectar sus líneas espectrales. Cuando finalmente se logró encontrar líneas débiles en el objeto prototipo, conocido hasta entonces como la “estrella variable” bl Lacérate (estrella bl en la constelación del Lagarto), se descubrió que ésta tampoco era una estrella, sino un objeto situado fuera de nuestra Galaxia y sumamente lejano. El conjunto de los objetos tipo bl Lac —o lagartos— y los cuasares, cuya luminosidad varía más violentamente en el óptico (ovv, Optically Violently Variable), constituye la clase de objetos conocidos como blazares.
 
Las tres propiedades en común más importantes de todos los núcleos activos de galaxias es que son de altísima luminosidad, poseen radiación de electrones ultrarrelativistas —es decir, que están acelerados a velocidades cercanas a la de la luz en fuertes campos magnéticos (esta radiación se llama sincrotrónica)— y tienen una estructura muy compacta. Para explicar la generación de energía equivalente a decenas y hasta cientos de veces la emitida por toda una galaxia (desde una región del tamaño del Sistema Solar e incluso menor), se han propuesto varias teorías. Entre las que ha predominado la propuesta hecha hace treinta años por un astrónomo ruso y uno estadounidense. En 1964, Yakov Zeldovich y Edwin Salpeter propusieron, independientemente, que la fuente de energía de los núcleos activos de galaxias podría ser la caída de material (gas y estrellas) a un agujero negro, cuyo centro del núcleo sería de entre uno y varios millones de veces la masa del Sol. Lo que entonces pareció la idea más descabellada, ha resultado ser, a lo largo de estos últimos treinta años, la más probable y aceptada por la comunidad astronómica.
 
Brotes intensos de formación estelar
 
Por otro lado, recientemente, algunos astrónomos han retomado y desarrollado otra de las primeras teorías que surgieron para explicar los cuasares: la de explosiones casi simultáneas de estrellas muy masivas (supernovas) que funcionan como fuente de energía, provocando la aceleración de electrones. En la versión moderna de esta teoría se estudia la posibilidad de tener una gran cantidad de explosiones de este tipo, así como la evolución de los remanentes de dichas explosiones en un medio sumamente denso y un volumen muy reducido. Esta alternativa, cuyo atractivo principal es no recurrir a objetos de existencia hipotética —los agujeros negros—, no ha resultado, sin embargo, atractiva para la mayoría de la comunidad de astrónomos, por varias razones.
 
Una de ellas es que, con base en lo que podemos observar en nuestra Galaxia, las explosiones de supernovas ocurren, en promedio, cada trescientos años, y lo que esta teoría requiere es, aproximadamente, una explosión diaria. Es también hipotético suponer que lo anterior puede ocurrir en el núcleo de las galaxias. Otra razón importante es que, aunque esto sucediera, la teoría excluye la posibilidad de explicar los objetos más energéticos: las radiogalaxias, los objetos bl Lac y los cuasares emisores de rayos gamma, y no puede ofrecer, por tanto, el esquema unificador del modelo del agujero negro. Particularmente, el modelo de las explosiones de supernovas no puede explicar la emisión de chorros de plasma extremadamente colimados y energéticos que se observan en muchos de los objetos mencionados; los más espectaculares son los de las radiogalaxias que se extienden a distancias de hasta miles de años luz. Los descubrimientos más recientes, al respecto, creen que es muy posible que ambas teorías, en lugar de excluyentes, sean complementarias.
 
Agujeros negros supermasivos
 
La teoría de la relatividad general describe, en términos de la geometría del espacio-tiempo, la fuerza fundamental a gran escala en el Universo: la gravitación. La presencia de objetos masivos le da curvatura a este espacio-tiempo que se manifiesta como una “fuerza” de atracción hacia estos objetos. Esta teoría amplía la concepción newtoniana de la gravedad y muchas de las predicciones adicionales que ya han sido corroboradas; aunque no todas, como la predicción de la existencia de regiones del espacio, cuya curvatura es tan intensa que las cierra en sí mismas, desconectándolas (desde el punto de vista de intercambio de información) del resto del Universo, y formando así un “agujero negro” en el espacio-tiempo. Como ejemplo, pensemos en los cohetes que impulsan las naves espaciales, a los cuales les deben imprimir una velocidad mínima de once kilómetros por segundo. Pero si la masa de la Tierra fuese la misma y su radio de aproximadamente medio centímetro —en lugar de poco más de seis mil kilómetros—, la velocidad de escape sería mayor a trescientos mil kilómetros por segundo, es decir, mayor que la velocidad de la luz. En ese caso, nada, ni siquiera la luz, podría escapar de la gravedad de un cuerpo con esas características, y ésta es, precisamente, la definición de un agujero negro. El término “agujero” resulta un tanto impreciso, pues no se trata de un hoyo en el espacio, sino más bien de una enorme condensación de materia.
 
Existen fuertes argumentos, tanto teóricos como resultados de la observación, que apoyan la idea de que este tipo de objetos puede existir en el núcleo de los cuasares y otras galaxias, generando así la energía a su alrededor. El núcleo de las galaxias está conformado por cúmulos sumamente densos de estrellas que muestran —se han hecho cálculos— que pueden colapsarse por su propia atracción gravitacional hasta convertirse en un agujero negro. De manera análoga, se piensa que las estrellas con mayor masa, al final de sus vidas —cuando no soportan su propio peso por la presión de la radiación, ya que toda su fuente de energía se ha agotado (además de que hasta ahora se desconoce alguna de materia con la suficiente “rigidez” para soportar pesos de más de cuatro masas solares)— se colapsan hasta formar agujeros negros. Sólo que, en el caso del núcleo de las galaxias, la masa del agujero negro, como resultado del colapso gravitacional de un cúmulo, sería de varios millones de masas solares. Otra teoría dice que estos agujeros negros pueden ser de origen “primordial”, es decir, que son algo así como pedazos de la singularidad original, a partir de la cual se inició la expansión del Universo, que se quedaron sin expandir. Estos agujeros negros primordiales, al condensarse la materia alrededor de ellos, podrían servir como “semillas” para la formación posterior de galaxias, lo que ayudaría a resolver uno de los problemas más difíciles de la astrofísica: el del origen de las galaxias. En todo caso, la confirmación de la existencia de éstos es, tal vez, el tema más candente en la astrofísica moderna.
 
Se piensa que la generación de energía tiene lugar cuando la enorme fuerza gravitacional del agujero negro atrae material de la galaxia circundante, gas y estrellas, que por su momento angular (o cantidad de rotación) forma una especie de remolino alrededor de éste. Las estrellas se destruyen previamente, por fuertes fuerzas de marea, al orbitar en las cercanías del agujero negro. El remolino de gas así formado se calienta por la gravedad y la fricción, radiando tanta energía como un billón de soles, cuando sus dimensiones son apenas mayores a las del Sistema Solar. La mayor parte del material atraído acaba cayendo y desapareciendo en el agujero negro, de modo que, para que se manifieste la actividad, el remolino (o disco de acreción) debe tener una fuente de suministro de gas. Así, mientras tenga suministro, el fenómeno durará (se emite energía mientras “el monstruo tenga qué comer”). Sin embargo, parte del gas, —el más lejano al plano ecuatorial del disco (que parece una llanta, ya que no es realmente plano), logra ser acelerado en el borde interno del remolino y emitido al plano del disco en forma de chorros perpendiculares de plasma. Esto puede explicar los chorros de plasma de alta colimación, observados en cuasares y otros núcleos activos de galaxias, y en particular en las radiogalaxias.
 
Interacciones y colisiones de galaxias
 
Al preguntarse los astrónomos de dónde puede el agujero negro central obtener tanto material para “engullir” —una vez agotado el gas normal del núcleo galáctico—, varios han afirmado que un cuasar sólo puede formarse cuando hay una colisión entre dos galaxias con una masa similar. Cada una de éstas puede poseer un agujero negro central (en cuyo caso se “funden” en uno solo y se suman sus masas), o éste se puede formar al colisionarse. En cualquiera de los casos, la colisión causa que una gran cantidad de gas fluya hacia el núcleo de la nueva galaxia, “encendiendo” un cuasar. La idea de las colisiones de galaxias no es nueva; en los setentas ya se podían explicar varias morfologías peculiares de las galaxias, como las “colas”, “puentes” y “plumas”, provocadas por fenómenos de interacción, ya sea de manera directa (fusión de galaxias) o indirecta (fuerzas de marea por encuentros cercanos). Un ejemplo típico es el sistema conocido como “la antena” en la constelación del Cuervo. En aquella época, las simulaciones que se podían hacer de la interacción de galaxias por computadora sólo tomaban en cuenta a las estrellas, pero no al gas, lo que era una gran limitante. Cuando dos galaxias, cada una con cien billones de estrellas, chocan y se fusionan, no sucede gran cosa con las estrellas, pues las distancias interestelares son tan grandes, que la mayoría de ellas ni siquiera se tocan. Para hacer simulaciones que incluyan el gas se requieren supercomputadoras (como la Cray que adquirió recientemente la unam) y que han dado resultados sumamente interesantes. El gas que llena los enormes volúmenes del espacio interestelar, debido a la colisión, se aglutina en el centro de la galaxia remanente de la fusión.
 
Recientemente se ha descubierto que los cuasares no sólo tienen gran cantidad de gas, sino que éste se encuentra en forma molecular, es decir, a alta densidad, por lo que cuando se logra detectar la galaxia subyacente, ésta siempre presenta morfología perturbada. En este esquema, no cualquier colisión de galaxias crea un cuasar, sino sólo cuando ambas progenitoras tienen mucho gas, preferentemente molecular. La evidencia clave para confirmar esta idea vino de los descubrimientos hechos con el satélite iras (Infrared Astronomical Satellite), que en 1983 detectó una serie de galaxias, cuya luminosidad en infrarrojo puede ser incluso mayor que la luminosidad visual de los cuasares (estamos hablando de longitudes de onda de doce a cien micras). Cuando dos galaxias colisionan, detonando un cuasar, éste quedará inicialmente oculto por una gran cantidad de gas y polvo que rodea al núcleo. Este polvo absorbe la enorme radiación del cuasar —por lo que es indetectable en longitudes de onda de luz visible— y se calienta e irradia gran cantidad de energía justamente en las longitudes de onda de infrarrojo. El satélite iras descubrió galaxias que emiten hasta 90% de su energía en infrarrojo, y varias de ellas tienen luminosidades en estas longitudes de onda de miles de millones de soles como los cuasares. El prototipo de estos objetos es la galaxia conocida como Arp 220.
 
Al producirse la colisión, el enorme flujo de gas genera ondas de comprensión y choque que producen enormes brotes de formación estelar. Las estrellas de mayor masa pierden gran cantidad de ésta en forma de fuertes vientos y evolucionan rápidamente hasta estallar como supernovas. Después de algunos millones de años estos acontecimientos despejan el entorno del cuasar “enterrado” y su luz empieza a verse. Incluso se cree haber encontrado objetos en esta fase transitoria, como la galaxia Mkn 231 que se encuentra entre el “cuasar infrarrojo” y el visible, y a pesar de emitir 90% de su energía en el infrarrojo, tiene las características claras de cuasar visible, su morfología refleja indudablemente una colisión de galaxias, y además se le ha detectado una enorme cantidad de gas molecular, requisito indispensable para detonar un cuasar.
 
Hay que decir que, como siempre, no todos los astrónomos que trabajan en este tema están de acuerdo con tales ideas. Algunos piensan que la interacción de galaxias puede ser una condición suficiente, pero no obligatoria. Recientemente se han logrado obtener imágenes de varios cuasares con los telescopios óptico-infrarrojos Keck y el franco-canadiense, en Hawai. En alrededor de 90% de los casos se ha detectado una galaxia subyacente con morfología de interacción. Sin embargo, estas observaciones sólo han sido posibles de los cuasares más brillantes. Aunque algunos astrónomos piensan que las galaxias superluminosas detectadas en el infrarrojo por el iras son “protocuasares”, se argumenta que la colisión puede generar solamente un gigantesco brote de formación estelar en el centro, para lo cual existe una prueba crucial que determina si las galaxias infrarrojas son cuasares disfrazados (o protocuasares) que en ese caso tienen la misma distribución en su desplazamiento al rojo que los cuasares.
 
Se sabe que la enorme mayoría de los cuasares tiene corrimientos al rojo entre z = 2 y z = 3. Cuando la luz de esos objetos fue emitida hace miles de millones de años —que es lo que ha tardado su viaje por el espacio hasta llegar a nosotros—, el Universo era mucho más joven y estaba menos extendido, por tanto, la densidad de galaxias, así como la posibilidad de colisión entre ellas era mucho mayor. Esto explicaría el que ya no se formen cuasares (no hay cuasares cercanos) y que las galaxias actualmente no tengan tanto gas como cuando acababan de formarse, pues fue “usado” para formar estrellas.
 
Lo principal, entonces, es averiguar si la distribución de los corrimientos al rojo de las galaxias infrarrojas es la misma que la de los cuasares, para lo cual tendremos que esperar un mejor telescopio que nos permita ver galaxias infrarrojas más lejanas. Quizá será posible con el telescopio sirtf (Space Infrared Telescope Facility) que se espera a principios de este siglo.
 
La curiosidad por saber qué tipo de procesos físicos dominan la emisión observada en distintas frecuencias de los diversos núcleos activos de galaxias (incluidos los cuasares) sigue presente. La hipótesis más aceptada es que la energía de este proceso (de origen gravitacional) dominará la emisión, dependiendo de cuánto material tenga el agujero negro a su disposición “para engullir”. Si el “alimento del monstruo” es menor, la emisión de origen gravitacional puede ser comparable a la emisión de estrellas masivas y supernovas de un brote de formación estelar circumnuclear, e incluso, a los núcleos menos energéticos, las estrellas, gas y polvo de toda la galaxia circundante. Uno de los grandes retos de este campo es poder desentrañar el origen de todas las contribuciones a la emisión de estos objetos. Hay quienes piensan que todas las galaxias tienen un agujero negro en su núcleo, incluida la nuestra, la Vía Láctea. El “monstruo” puede, por tanto, haber estado activo en el pasado y estar muerto o moribundo por “inanición” en el presente. En el centro de nuestra Galaxia existen ciertas evidencias de actividad nuclear, aunque son sólo indirectas y no hay pruebas, por lo que es muy difícil detectar esta actividad. En los objetos más activos, lo difícil es detectar la galaxia circundante, aunque recientemente logramos ver, por primera vez, el objeto tipo bl Lac: “el Lagarto” oj287 (esta imagen se obtuvo en el observatorio Astronómico Nacional de San Pedro Mártir, Baja California). En este caso se estudió también su velocidad y se encontró evidencia de interacción de galaxias, como en los cuasares.
 
Faros que alumbran el pasado
 
Por último, hay que decir que los cuasares son una especie de faros que iluminan el pasado. Recordemos el ejemplo con el que iniciamos este texto: el cuasar 3C273, cuya luz tarda 2 500 000 000 de años en llegar a la Tierra (la mitad de la edad del Sol), es el más cercano de todos los cuasares. Tal vez algunos de esos objetos sean ahora galaxias con soles y planetas en los que hay astrónomos que ven la Vía Láctea como fue hace cientos de miles de años, quizá como cuasar. En todo caso, el estudio de estos objetos es esencial para la cosmología, para el estudio del origen y la evolución del Universo.Chivi66
Deborah Dultzin
Instituto de Astronomía,
Universidad Nacional Autónoma de Mexico.
_______________________________________________________________
 

como citar este artículo

Dultzin, Deborah. (2002). Cuasares. Ciencias 66, abril-junio, 66-73. [En línea]
    Regresar al índice artículo siguiente
Cultivos y alimentos transgénicos
P01
Jorge Riechmann
 
Argumentos recombinantes sobre cultivos y
alimentos transgénicos.
Fundación Primero de Mayo, Madrid.
Los Libros de la Catarata, 1999.
   
HTML ↓ PDF ← Regresar al índice
     
Este libro, editado por las Comisiones Obreras de España, es más que un manifiesto de este sindicato. Se trata de una reflexión en torno a las biotecnologías, en la que se hace especial énfasis en el caso de los cultivos y los alimentos transgénicos. Dos temas centrales, el riesgo y la democracia, guían el texto y están íntimamente ligados a la convicción del autor de que las decisiones en torno a la manipulación genética deben estar guiadas por una crítica diferenciada, según las aplicaciones que se le den a cada una de las nuevas tecnologías, y que debe existir la posibilidad de un control social mucho más severo al que se ha tenido hasta ahora.
 
 
Uno de los principales objetivos de esta obra es darle a los lectores inexpertos, argumentos a partir de los cuales puedan formarse una opinión acerca de los organismos genéticamente modificados en el ámbito de la agricultura. Se trata de una exposición clara de los riesgos asociados al cultivo y al consumo de las plantas transgénicas, sobre todo en el ámbito de la ecología y de la salud pública, y también se discuten las posibles implicaciones político-económicas; como la oligopolización de la agricultura y el desplazamiento de la agricultura de subsistencia, entre otros.
 
 
El otro objetivo del libro es ampliar el debate en torno a los cultivos y alimentos transgénicos, y reflexionar acerca de los mecanismos de adopción de las biotecnologías en general. Para el autor la evaluación y la toma de decisiones corresponde a la sociedad en general, ya que la introducción de las nuevas tecnologías le afecta directamente, y porque los mecanismos existentes actualmente no han podido contrarrestar el poder de la industria. Aquí, el ejemplo de la aceptación de la comercialización del maíz transgénico por la Comisión Europea resulta muy ilustrativo. En 1997 la Comisión Europea aprobó la comercialización de maíz transgénico contra la opinión de trece de quince de los países miembros. A pesar de las quejas del Parlamento Europeo por la toma de decisiones hecha de manera unilateral, sin respeto por las posiciones negativas de la mayoría de los estados miembros y del Parlamento Europeo, la Comisión Europea anunció que no daría marcha atrás en su decisión. Para contrarrestar esos abusos de poder, el autor analiza distintas herramientas de participación democrática como los son los referendos, el veto mayoritario por iniciativa popular, los comités ciudadanos y las conferencias de consenso.
 
 
Para el autor un elemento indispensable para la toma de decisiones de manera democrática es el tiempo; para evaluar todas las implicaciones que se desprenden de una tecnología, y para poder decidir. En ese sentido, el autor aboga por el principio de precaución y por una moratoria. Es necesario que antes de que se acepte una tecnología se realicen estudios que permitan demostrar su inocuidad o su necesidad a largo plazo. El tiempo de evaluación y de reflexión es una condición fundamental para la apropiación de la tecnociencia por parte de la sociedad.
 
 
Este libro proporciona al lector argumentos sobre los cultivos y los alimentos transgénicos para que cada ciudadano pueda participar en la reflexión que se lleva a cabo en torno a ellos, y provee alternativas frente a la resignación de un futuro diseñado y dominado por los intereses de las grandes transnacionales.
 
 
En el caso de México nos parece importante destacar dos aspectos con relación a los riesgos esbozados por el autor. El primero es la transferencia de genes de las variedades transgénicas cultivadas a las variedades silvestres.
 
 
El segundo aspecto concierne al modelo agrícola que se quiera implantar en el país, donde una gran parte de la agricultura es de subsistencia. El modelo que subyace al de los organismos genéticamente modificados se parece y adolece de los mismos grandes defectos que el de la “revolución verde”, cuyos efectos ecológicos, pero primordialmente socio-económicos, han sido ampliamente criticados.
 
 
Este tipo de cultivos necesita una agricultura de altos insumos y grandes extensiones de tierra industrializadas. Hasta ahora no se han creado semillas capaces de crecer en suelos pobres o salinizados, o cultivos con más proteínas y nutrientes que no necesiten de un uso generalizado de fertilizantes, herbicidas, etcétera, ni tampoco cultivos dirigidos a los agricultores de subsistencia.Chivi66
 
Nina Hinke
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Hinke, Nina. (2002). Cultivos y alimentos transgénicos. Ciencias 66, abril-junio, 118-119. [En línea]
 
← Regresar al índice
  P01 P02  
 
 
     
Del ojo, ciencia y representación  
J. Rafael Martínez Enríquez
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
La pintura, la mecánica y la anatomía, son tres grandes temas que permean la obra escrita de Leonardo. Esta tríada de intereses lo llevó al estudio de los sentidos, en particular al de la visión, por ser éstos los canales utilizados por el hombre para obtener el conocimiento del mundo. Si se pudiera decir que Leonardo apuntaba hacia la presentación de una teoría del conocimiento, un aspecto central de ésta sería que la lógica interna —la de la mente— funcionaría de manera muy similar a la lógica de los fenómenos naturales. Gracias a ello, la mente del observador podría penetrar en la “mente” de la naturaleza para actuar como su intérprete, y exponer las causas y manifestaciones de sus leyes.
 
Según Leonardo, las leyes, razones y necesidades de lo acontecido en el mundo se definen a partir de las matemáticas, lo que en su mente visual se refería a las formas y figuras utilizadas por la naturaleza para conformar sus estructuras y dirigir sus fuerzas.
 
 
Se ha vuelto un lugar común señalar que las disciplinas teóricas como la ciencia escolástica y la óptica, al ocuparse de la visión, eran las que más interesaban a los artistas; por lo que éstos en sus aspiraciones a hacer de la pintura una disciplina liberal, recurrieron a la óptica como sustento de la perspectiva lineal o artificial, y a las bases geométricas que hacían de la pintura una ciencia. Sin embargo, para poder justificar estas técnicas se requería una teoría que explicara la naturaleza del proceso visual, y en particular la del papel desempeñado por el ojo.
 
 
La ciencia griega reconoció, casi desde sus orígenes, la necesidad de que el ojo actuara como mensurator, es decir, como una especie de instrumento que diera cuenta de las relaciones espaciales con los objetos contemplados. Identificar los mecanismos y procesos que lo permiten se convirtió en una tarea, por demás compleja, la cual tomaría más de dieciocho siglos llevar a cabo —desde Euclides hasta la transmisión del pensamiento árabe a Occidente, pasando por Al-Kindi y Alhazen.
 
 
 
Nuestro tiempo ha hecho inseparable el nombre de Euclides de su opus magnum, los Elementos, considerado como el tratado de geometría más influyente de la historia. Esto ha oscurecido la existencia de otras obras del mismo autor, algunas ya perdidas, que apuntaban hacia una preocupación por presentar el conocimiento de lo natural bajo los moldes de su geometría. Tal es el caso de la Óptica, obra en la que pretende usar rayos visuales rectilíneos para dar cuenta de formas, tamaños relativos y posiciones de objetos situados en el campo visual.
 
 
Uno de los elementos centrales en la Óptica de Euclides es la noción de transmisión rectilínea de la luz, la cual ya aparece como principio en el Parménides de Platón y en los Problemata del texto atribuido a Aristóteles. La percepción de este hecho parte de observaciones como la del “perfil del cono de luz”, en particular de las aristas que se forman al hacer un agujero en la pared de un cuarto a oscuras bañado por luz exterior
.
 
Euclides se sitúa del lado de los estoicos y su doctrina extromisionista al suponer que el proceso de visión inicia con rayos emitidos por el ojo que se dirigen al objeto observado. Estos rayos forman un cono visual cuyo vértice se localiza en el ojo y su base sobre la superficie del objeto (figura 1). Esta aseveración aparece repartida entre las “Suposiciones” I y II de la Óptica: 1) Supóngase que los rayos que salen del ojo van por líneas rectas y que entre sí se apartan a distancias cada vez mayores; y 2) que las figuras comprendidas entre los rayos visuales es un cono cuya punta está en el ojo y la base en las extremidades de las cosas vistas.
 
 
Martifigura1
Figura 1. Representación del
cono visual según Leonardo.
 
Al medir la distancia recorrida por los rayos antes de incidir sobre el objeto, Euclides era capaz de determinar la posición que ocupaba en el campo visual. En particular, el ángulo subtendido por el cono podía ser medido y utilizado para calcular, en principio, el tamaño y la forma de objetos situados a distancia. El teorema cuatro de la Óptica establece este hecho en forma cualitativa: “Entre las distancias iguales puestas sobre una misma línea recta, las que se mirasen de más lejos parecerán menores”.
 
 
La óptica geométrica desarrollada por Euclides resultó tan exitosa en su descripción de las características espaciales de la realidad, que aun quienes mantenían opiniones encontradas respecto a la dirección del proceso visual —es decir, tanto extromisionistas como intromisionistas— emplearon el esquema de los rayos visuales para analizar los fenómenos ópticos. El mismo Aristóteles recurrió, cuando la situación lo ameritaba, a rayos que emanaban del ojo, aunque por lo general se presentaba como defensor de la teoría intromisionista, en particular en el De caelo y los Metereológicos.
 
 
Sin lugar a dudas, fue Ptolomeo quien llevó a la cúspide la propuesta euclidiana de la visión, convirtiéndola en el punto de partida de las versiones árabes que constituyen la base de la óptica, desarrollada a partir de Roger Bacon en el mundo occidental.
 
La ciencia de la visión
 
Durante la Antigüedad, en el periodo helenístico, el conocimiento de los fenómenos ópticos se distribuía, a grosso modo, en cinco ámbitos: a) la óptica propiamente dicha, que se ocupaba del estudio geométrico de la percepción del espacio, y de las ilusiones provocadas por la perspectiva, es decir, por el conjunto de elementos que determinaban la forma concreta de lo que el observador percibiría como imagen del objeto visto; b) la catóptrica, el estudio geométrico de las reflexiones de rayos visuales que inciden sobre espejos; c) el estudio de espejos que queman —speculis comburentibus—, es decir, las superficies reflejantes que mediante reflexiones hacían converger los rayos solares; d) los fenómenos atmosféricos como el arco iris y las auroras boreales; e) el estudio de la visión como parte de la filosofía y de una medicina que podríamos calificar como teórica.
 
 
Dentro de los temas de la propagación de la luz y del proceso visual, la doctrina dominante era la del “rayo visual”; según la cual, la acción de ver se lleva a cabo mediante un haz divergente de rayos emitidos por el ojo que dan lugar a un cono, cuyo vértice se localiza sobre el ojo, en donde las “espigas” son los rayos visuales que se propagan en línea recta; recorriendo los objetos que se presentan a su paso. De acuerdo a esta doctrina —llamada extromisionista— ver consiste en “iluminar”, y las condiciones de la propagación de la luz son por consiguiente las de la visión. En esta concepción, que retoma los preceptos estoicos de la constitución y funcionamiento del mundo, la propagación y el acto de visión se remiten el uno al otro, constituyéndose al mismo tiempo en las condiciones de la óptica antigua y en el limitante para su desarrollo ulterior.
 
 
Concebida la visión como un acto de “palpar” lo que se encuentra a distancia, tal y como lo establecen las doctrinas estoico-continuistas, que utilizan la mezcla de pneuma y aire como medio transmisor de la información, la óptica se concibe como una geometría de la percepción. Este problema condujo a la elaboración de una serie de supuestos teóricos abstraídos de los hechos observados —ciertamente bajo la lente de una interpretación ad hoc de los fenómenos— como es el de la variación de la magnitud de los objetos visibles, al haber motivo de cambios en la distancia entre el ojo y el objeto de su atención. Debe quedar claro que en este problema no importa el objeto en cuanto a su aspecto real, sino sólo como apariencia frente a un ojo que lo contempla. El sistema presentado por Euclides puede ser calificado, en este sentido, como geometría de las apariencias.
 
La ciencia de la visión en el Islam
 
Abrevado de esta tradición óptico-geométrica, en el siglo ix, el científico y filósofo árabe Al-Kindi se convierte en el gran renovador de la óptica griega, proponiéndose como tarea “difundir las enseñanzas de los antiguos” y “rectificar los errores cometidos”. El resultado de esta empresa es su Liber de causis diversitatum aspectus, mejor conocido como De aspectibus, en el que una parte considerable del texto se ocupa de demostrar o justificar lo que Euclides, después de haber adoptado el modelo instituido en sus Elementos, sólo había postulado: la propagación rectilínea de los rayos luminosos.
 
Esto lo realizó partiendo de consideraciones geométricas sobre las sombras proyectadas por un obstáculo que interrumpe parcialmente el paso de un haz lumínico, y analizando las trayectorias no alteradas. Sin embargo, acepta la teoría extromisionista de la visión introduciendo una variante en la versión euclidiana del cono visual. Según esta, el cono está constituido por rayos visuales discretos, lo cual no parece aceptable para el científico árabe, pues considera que el cono se forma por un volumen de radiación que es llenado de manera continua.
 
 
En esta interpretación el rayo deja de ser una mera recta geométrica y se convierte en la impresión producida por los cuerpos que llenan el espacio. El rayo ya no es un ente material ni algo con sustancia, sino una transformación del aire que separa al ojo del objeto. Así el poder visual prepara al medio para transmitir aquello que se convertirá en sensación visual en el ojo. En De aspectibus nos dice que “un rayo es una impresión de los cuerpos luminosos sobre los cuerpos opacos”, y su nombre —luz— proviene de la asociación con la alteración de los accidentes (o cualidades secundarias, cuya existencia depende de un ente que las perciba) correspondientes a los cuerpos que reciben la impresión. Por lo cual un rayo es tanto la impresión como aquello sobre lo que se localiza la misma. Sin embargo, el cuerpo que la produce posee tres dimensiones: longitud, anchura y profundidad. Por ende el “rayo” no sigue líneas rectas entre las cuales ocurren intervalos “vacíos de líneas”.
 
Por si esto no fuera suficiente para negar lo unidimensional del rayo visual, Al-Kindi nos recuerda que si consideramos como líneas sin grosor a aquello que emana del ojo y toca al objeto observado, entonces estas líneas terminan en un punto, el cual, por definición, no posee anchura. Por tanto, dichos rayos sólo serían capaces de percibir un punto, pero un punto no es percibido pues no posee longitud ni espesor ni profundidad [...] lo que significaría que estos rayos [los visuales] perciben lo que no es susceptible de ser percibido, [...] lo cual es absurdo. A partir de esto Al-Kindi concluye que el mero hecho de que los rayos visuales perciban puntos (en realidad los puntos deben poseer al menos áreas pequeñas), indica que tienen grosor y longitud. El argumento apela exclusivamente a lo que entendía como rayo visual, pero si se toma en cuenta la naturaleza del ojo y el poder visual —la capacidad del alma de ejercer una acción con el fin de llevar a cabo la percepción visual—, Al-Kindi podía defender su tesis de la unidad constituida por los rayos visuales manifestada como un cono radiante continuo: “si las partes del instrumento de la visión son continuas, es decir, una sola sustancia, entonces el poder visual se localiza en todo el instrumento. ¿Qué es entonces lo que da forma a un cono de líneas, dado que el instrumento que ejecuta la impresión es un ente continuo, sin intervalos, y por ello el poder visual no estaría en ciertos sitios y sí en otros?”
 
Dicho de otra manera, el molde y su producto se deben corresponder uno a otro, y no pueden existir vacíos donde el molde no lo hubiera determinado así. Con plena conciencia de estar ofreciendo un modelo de un fenómeno natural —en oposición a quienes sostendrían que el modelo corresponde a la realidad, es decir, que los elementos del modelo corresponden a entes físicos—, no desecha la posibilidad de una tarea análoga llevada a cabo por Euclides, y se arriesga a sugerir la posibilidad de que para el autor de los Elementos la radiación conforma un continuo, pero que en lo que se refiere a su descripción basta con recurrir a un número infinito de líneas geométricas discretas dado que “las fronteras de la figura cónica impresa en el aire por el poder visual se recorre con la rectitud de líneas rectas separadas por intervalos”.
 
En contraste con Euclides y Ptolomeo —para quienes el cono visual tiene su vértice dentro del ojo, ya que los rayos emanan de la pupila; razón por la cual el cono visual es único—, en Al-Kindi encontramos que cada parte de la córnea en contacto con el exterior es un punto de partida de un cono. Así, todos los puntos que constituyen el campo de visión de un observador son iluminados por los rayos que, al salir de cualquier parte del ojo, tienen una conexión en línea recta con dichos puntos. Este modelo permite a Al-Kindi dar una explicación —aceptada por todos—, de que el rayo axial que va del vértice del cono al centro del círculo que sirve de base al cono, es “el más fuerte” de todos y por ende, lo iluminado es lo que se percibe con mayor claridad.
 
Bajo los supuestos anteriores, el problema que surgía, era establecer qué se entiende por “rayo más fuerte”. La respuesta que se deduce del modelo de Al-Kindi es que la multiplicidad de conos —en contraposición con el cono único de Euclides, que contribuye a la visión y hace que el objeto situado donde incide el rayo axial sea bañado por más rayos— posibilita una mejor o más efectiva transformación del medio que enlaza al objeto con el ojo, y cuyo efecto se traduce en una percepción más clara del objeto (figura 2). Además, esta explicación rebatía dos soluciones que pretendían salvar al cono único de visión como la causa eficiente —aristotélicamente hablando— del acto de observación. Una de ellas sostenía que el ojo emite rayos en todas direcciones y que la perpendicular a la superficie ocular en un punto cualquiera marcaba, para éste, la dirección del rayo que produciría un mayor efecto. La otra afirmaba que la claridad o pureza de la percepción sólo dependía de la distancia entre el ojo y el objeto.
 
 
Figura 2

Martifigura2a
a) Cono visual según Euclides y Ptolomeo. El cono e visión es único y el vértice se localiza dentro del ojo.
Martifugura2b
Figura 2
b) En Al-Kindi el proceso de visión se realiza gracias a los rayos que surgen en todas las direcciones a partir de todos los puntos de la córnea. La sección ABG de ésta ilumina todo lo que aparece entre HEILTZK. La zona IT es la más iluminada, dado que recibe el mayor número de contribuciones de rayos luminosos.
 
Como se puede apreciar, la propuesta de Al-Kindi resultaba más sencilla, pues requería un menor número de hipótesis ad hoc para explicar la claridad de la visión en una dirección privilegiada —la que se encuentra directamente opuesta a la pupila. Por otra parte, esta idea no surge de la nada, simplemente consiste en otorgar a la superficie del ojo las mismas características que posee un cuerpo luminoso, el cual —según el De aspectibus— desde cada una de sus partes ilumina, enviando rayos en todas direcciones, es decir, alumbra todo aquello que puede ser enlazado con sus partes mediante una línea recta. Este es un nuevo principio óptico que permite una explicación alternativa a la vieja teoría intromisionista —situada en términos generales dentro de las corrientes atomistas y aristotélicas— según la cual se desprenden simulacra, una especie de copia del cuerpo observado, que llegan al ojo para dar paso, por contacto, a su percepción visual. Para producir la imagen en el ojo es necesario que los simulacra viajen manteniendo la coherencia entre sus partes y sin interferir en caso de cruzarse en su trayectoria.
 
El ojo pasivo de Alhazen
 
El Kitab Al-manazir (Libro de óptica) de Ibn Al-Haytham, conocido en occidente como Alhazen, inicia con un rechazo hacia todas las variantes de la doctrina del rayo visual y se inclina por quienes sostienen la doctrina intromisionista de las “formas” de los objetos visibles, misma que en tiempos recientes había tenido entre sus más preclaros defensores a Avicena y Averroes. Sin embargo, su postura se limita casi exclusivamente a la cuestión de la dirección en que se mueve el agente que da pie a la percepción: las formas percibidas por el ojo no procedían de “totalidades” que emanaban de un objeto al ser bañado de luz, sino que dichas formas podían ser reducidas a elementos básicos.
 
Según Alhazen, de cada punto del objeto visible emana un rayo que llega al ojo, pero éste carece de alma, de pneuma óptico, y sólo es un instrumento. Esta idea remitió a la vieja doctrina atomista que, con fines opuestos, inspiró a Al-Kindi, sin embargo, su propósito era precisamente reformar la teoría de la visión propuesta por este último. En los dos capítulos que abren su Óptica se establecen, en primer lugar, las condiciones de posibilidad de la visión, y después presenta las correspondientes a la luz y su propagación. En ambos casos las condiciones se presentan como consecuencia de observaciones metódicas del fenómeno luminoso o de experiencias rigurosamente controladas.
 
Las condiciones relativas a la visión propuestas por Alhazen son cinco: 1) lo visible debe ser un ente que despida luz por sí mismo o debe ser iluminado por algún otro objeto; 2) lo visible debe estar presente frente al ojo, es decir, que entre ambos se puede trazar una recta que los conecte; 3) el medio que separa al ojo del objeto visible debe ser transparente y sin que se interponga un obstáculo opaco; 4) el objeto visible debe ser más opaco que el medio; 5) el volumen del objeto debe mantener una cierta relación con la acuosidad visual.
 
Alhazen considera que todo esto es necesario para que tenga lugar el acto de visión, a lo cual se agregan algunos supuestos acerca de la luz: 1) existe independientemente de que la perciba un observador; 2) la luz de una fuente lumínica (sustancial, es decir, que la produce) y la de un objeto iluminado (accidental, que sólo le produce cambios en la dirección de propagación) se desplaza a su alrededor, penetra a través de los cuerpos transparentes e ilumina los opacos, lo cual induce a que parezca que éstos últimos la emiten cuando en realidad sólo la reflejan; 3) la luz se propaga en línea recta a partir de todos los puntos de la fuente o del objeto iluminado. Estas rectas virtuales determinan las trayectorias de propagación de la luz y dan lugar a los “rayos”.
 
Las líneas o rayos pueden ser paralelos o cruzarse, sin impedir la mezcla de luces. Igualmente, las luces reflejadas o refractadas se propagan en líneas rectas en direcciones particulares, determinadas por leyes naturales (la ley de refracción aún no se establecía. Es hasta el siglo xvii que Snell, Descartes y Hariot llegan a ella de manera independiente). Como se puede constatar, estas características de la luz y de su propagación no remiten ni dependen de las condiciones necesarias para la visión. Sin embargo, una teoría completa de ésta debe tomar en cuenta tanto estas características como las mencionadas previamente, y es esto lo que precisamente realiza Alhazen en su Óptica, traducida al latín en el siglo xii —llamada indistintamente De aspectibus, Óptica o Perspectiva— y estudiada durante por lo menos cuatro siglos más; siendo la fuente de inspiración de los tratados de Roger Bacon, Witello, John Pecham y las enciclopedias ópticas medievales, las cuales serían superadas hasta el siglo xvii por Kepler, Descartes, Gregory, Newton y Huygens.
 
El séptimo libro de la Óptica de Alhazen se ocupa de la dióptrica, es decir, de las leyes de propagación de los rayos luminosos que inciden sobre lentes o medios transparentes y los atraviesan. Conforme avanza el texto se hace evidente que Alhazen ha abandonado toda referencia a rayos visuales y procede geométricamente, pero a diferencia de Euclides y Ptolomeo, quienes establecían axiomas acerca de los rayos visuales y deducían resultados geométricos a partir de ellos, Alhazen defiende una teoría intromisionista basada en la observación y la experimentación. Con esto la óptica deja de ser una geometría de la percepción y se convierte en una teoría de la visión ligada a una fisiología del ojo, a una psicología de la percepción y a una teoría de la luz que conjuga una geometría óptica y una óptica física.
 
Es importante enfatizar en este análisis de los cambios en la concepción del ojo como instrumento de visión, que los estudios de imágenes refractadas por superficies planas o esféricas —en particular por las correspondientes a lentes—, recurren exclusivamente a líneas que representan rayos lumínicos y que sufren desviaciones siguiendo leyes geométricas. Son estas mismas leyes y consideraciones las que pone en juego en las secciones de su Óptica, en donde describe lo ocurrido en el ojo durante el acto de visión. Y es por lo menos hasta el momento de la percepción cuando las reglas geométricas valen tanto fuera del ojo como dentro de él. Los elementos incorpóreos, como el alma, sólo intervienen en etapas posteriores a la recepción de los rayos lumínicos en el interior del ojo.
 
Su Óptica se aleja de las obras precedentes, ya que concede mayor importancia —algo inusitado en su tiempo— a la invención y utilización de dispositivos experimentales que pusieran a prueba tanto los principios ópticos relacionados con la visión, como el comportamiento de la luz. Sin embargo, todavía existía cierta reticencia para ir más allá de los aspectos cualitativos, y para tomar en cuenta los valores numéricos obtenidos y su eventual concreción en leyes físicas o geométricas que expresaran relaciones entre cantidades. Esta circunstancia se entiende fácilmente en tanto las descripciones cuantitativas de un fenómeno sólo eran relevantes en el caso de la astronomía y en los cómputos calendáricos, a lo que se sumaba la dificultad de obtener valores precisos en las mediciones.
 
Las prácticas controladas de experimentación y la nueva interpretación del proceso de visión coadyuvaron a que la óptica dejara de ser una disciplina en gran medida psicológica —refiriéndose con ello a la participación en gran escala del alma— y se transformara en una de carácter físico, cuyos elementos de trabajo serían los rayos lumínicos. Las consecuencias de esta revolución en el pensamiento óptico fueron inmensas y prefiguraron un elemento esencial de las ciencias de los siglos xvi y xvii: tomar como un hecho real a lo que previamente se habían considerado cualidades secundarias, aquéllas que sólo tenían razón de ser ante la presencia de un sujeto que las percibiera.
 
Para la vieja óptica de Euclides y Ptolomeo, que gira en torno a rayo visual, la imagen percibida es una especie de espejismo, y por consiguiente la ausencia del observador, al despojarla de su razón de ser, le quita toda existencia objetiva. Con Alhazen la imagen posee otro estatuto, la de un ente real cuya existencia es independiente a la existencia de un observador que la perciba. Ciertamente, si la naturaleza actúa de esta manera, la visión resulta un proceso más complicado y requiere nuevas respuestas a preguntas como ¿qué es la luz?, ¿cómo actúa sobre el ojo?, ¿cuál es el papel de éste en la visión?, y más en particular, ¿existe un sitio privilegiado donde se registra la percepción?, ¿y en qué consiste ésta? Alhazen respondió a todas estas interrogantes en el contexto de una nueva teoría acerca de la naturaleza de la luz, de su propagación y de la manera como afecta al órgano visual. Al hacerlo aporta un maravilloso ejemplo de la adaptación de un órgano, tanto en su estructura —geometría y enlaces entre las partes— como en las características de sus tejidos para el cumplimiento de su función.
 
Para entender lo que está en juego cuando Alhazen reforma la óptica debemos retornar a Aristóteles y sus comentarios sobre los vínculos causa-efecto y del porqué ocurren las cosas. Según el filósofo, las esferas celestes giran por obra y gracia del “primer motor”, y dicho movimiento por un efecto de cascada más o menos complejo que a su vez provoca los cambios en el mundo. Sin embargo, nunca aclara cuál es el mecanismo del cambio ni cuál es su causa eficiente. Para esto Al-Kindi tenía una respuesta: los responsables del cambio son los rayos emitidos por las esferas. Las esferas, estrellas, y todo lo existente emite rayos en todas direcciones, lo cual permite que el universo entero esté causalmente ligado por una red de radiaciones que inunda el espacio.
 
En De radiis Al-Kindi argumenta que los rayos salen no sólo de los ojos, sino también de las palabras. Según lo cual, los rayos visuales conectan nuestros sentidos con el mundo mediante la transformación del aire frente a nosotros, de manera que pueda transmitir las cualidades relacionadas con la “forma” y el “chroma” o color. Los rayos existen como entes físicos, originándose en las sustancias y actuando sobre las formas: las sustancias, compuestas a partir de los cuatro elementos —aire, agua, tierra y fuego—, no se alteran, pero cada cualidad, excepto la composición, se modifica por el efecto de la radiación recibida. Los rayos del sol nos permiten ver y también nos dan calor, y cuando son concentrados por un espejo llegan incluso a quemar; las medicinas irradian sus efectos a través del cuerpo; las piedras magnéticas atraen clavos y las estrellas, según su composición, afectan a los objetos aquí en la Tierra.
 
Estas ideas tuvieron un efecto duradero en el pensamiento científico y explican el que los practicantes de la ciencia en el Medievo otorgaran a la óptica un papel muy especial. Si la acción de la luz se reduce a rayos desplazándose en líneas rectas, entonces la ciencia que se ocupa de estas líneas —la óptica geométrica— podría ser utilizada para explicar la transmisión de las causas en los procesos naturales, por lo que las leyes de la naturaleza serían análogas a las de la óptica. Estas nociones remitían claramente a las ideas de la causa como emanación, propuesta por Plotino y otros neoplatónicos, cuyos textos integrarían una de las corrientes más importantes del Renacimiento. Su efecto se había dejado sentir previamente en hombres de la talla de Roberto Grosseteste, quien entre 1230 y 1240 escribió dos pequeños tratados —De lineis, angulis et figuri y De natura loci— en los cuales defiende que la naturaleza y su telar de líneas de transmisión de las causas se estructuran según patrones geométricos propios de los rayos de luz.
 
Esta propuesta es utilizada sólo de manera parcial por Alhazen, pues como se mencionó previamente, rechazaba que hubiera emanación alguna desde el ojo. Las razones que aducía eran de carácter físico: “Si la visión ocurre gracias a que algo transita desde el ojo hasta el objeto, entonces dicha cosa es un objeto o no lo es. Si lo es [...] entonces al contemplar las estrellas, en ese momento sale de nuestros ojos un cuerpo que llena todo el espacio entre el cielo y la tierra sin que el ojo pierda nada de sí mismo. Pero esto es imposible y a la vez absurdo [...] Si por el contrario, aquello que sale del ojo no es un cuerpo [no posee sustancia], entonces no podrá “sentir” al objeto visible, dado que las sensaciones son propias únicamente de los cuerpos animados. Por consiguiente nada sale del ojo para “sentir” al objeto visible”.
 
Y en defensa de que la visión ocurre gracias a que algo penetra en el ojo, Alhazen argumenta: “Quienquiera que mira hacia una fuente de luz muy intensa experimenta una sensación de dolor [en el ojo] y un posible daño [físico]”. Otra experiencia que menciona es que si se observa un objeto blanco bajo una luz intensa, o si se mira desde una habitación a oscuras hacia una ventana por la que entra luz, al cerrar los ojos, en ambos casos, se mantiene la imagen del objeto o de la ventana, según sea el caso, y los detalles finos se percibirán sólo si la luz no es muy intensa o muy débil. La adopción de esta nueva concepción de la naturaleza de la visión tenía consecuencias con respecto a la adecuación de la anatomía ocular y a la misión de las estructuras hasta entonces identificadas.
 
En el diagrama del ojo que propone Alhazen, y cuya versión ilustrada aparece en la Opticae Thesaurus Alhazenis, se pueden reconocer los principales estratos que integran el ojo. (figura 3). Cabe señalar que él llama humor cristalino a lo que hoy se conoce como lente cristalino. Esta terminología obedece a que no poseía ninguna idea del funcionamiento de una lente y que, además, atribuía a esta estructura una tarea diferente a la realmente desempeñada, la cual, como se verá más adelante, resulta principal en el proceso visivo. También habría que mencionar que la situó en el centro del ojo y no hacia el frente, en donde realmente le corresponde. Esto se debe a que no llevó a cabo ninguna disección —la ley islámica lo prohibía—, por lo que se limitó a retomar lo establecido en los antiguos textos de anatomía, en especial el de Galeno.
 
Martfigura3
Figura 3. Esquema de ojo según Alhazen.
 
La razón para situar al cristalino en el centro obedece más a cuestiones filosóficas que a la observación o a la tradición: al ser el ojo el depositario del más noble de los sentidos, debería poseer la forma esférica —al igual que el universo, según lo argumentó Platón en el Timeo—, y el cristalino, el órgano sensorio de la visión y por ello el más importante, debería entonces ocupar la región central, lo cual además contribuiría a su protección.
 
El mecanismo de visión propuesto por Alhazen dice que: “si el objeto es opaco, entonces posee color. Y si es iluminado por cualquier tipo de luz, ésta se fijará sobre la superficie, y de su color irradiará una luz que partirá como forma que se extiende en todas direcciones [y] al alcanzar el ojo producirá sobre él un efecto [...] y el ojo sentirá el objeto”.
 
Dado que el color es una “forma”, el objeto no emite nada sustancial y, por tanto, no pierde materia. En el caso de la luz es diferente, pues toda fuente de luz al irradiar emite parte de su materia, como se puede verificar con la disminución que sufre una vela encendida. Más adelante Alhazen se inspira en el De usu partium galénico para proponer que la luz y el color después de pasar por el humor acuoso y la pupila, interactúan con el humor cristalino, y de ahí la imagen del objeto pasa al alma. El que la impresión visual tenga lugar en el cristalino lo deduce a partir de su transparencia —como lo registraban las disecciones del globo ocular— haciéndolo partícipe de las características de la luz, además de que al perforar la pupila opaca en las operaciones de cataratas, la visión mejora, lo cual no sucedería si la pupila fuese la responsable de percibir el objeto. Por otra parte, si los rayos atravesaran incólumes el cristalino para ser detectados en la pared posterior del ojo, en la membrana conocida actualmente como retina, aparecería todo invertido (figura 4), pero al no suceder así sólo quedaba el cristalino como detector de los rayos.
 
 
Martifigura4
Figura 4. Con base en lo que defendía Alhazen, si la imagen se percibía en la retina, al fondo del ojo, todo aparecería de cabeza.
 
Falta por establecer la manera en que se identifica la forma o la imagen del objeto observado. Si se acepta —como lo propone Alhazen—, que de cada punto del objeto iluminado salen rayos en todas direcciones, entonces un haz de ellos llegará al ojo; y si todos pasaran por la pupila hasta incidir en el cristalino, se tendría una región iluminada; es decir, cada punto de la fuente de luz daría lugar a una zona iluminada en el cristalino, lo cual ciertamente no produciría una imagen bien definida del objeto, menos aún si tomamos en cuenta la superposición de las contribuciones de los distintos puntos. Este problema lo resuelve Alhazen señalando que de todos los rayos que constituyen el haz proveniente de un punto, sólo uno toca la superficie en dirección perpendicular a la curvatura de dicho órgano, y es este rayo el único percibido por el cristalino.
 
La elección del rayo perpendicular la justifica al recurrir al fenómeno de refracción, o cambio de dirección, conocido desde la Antigüedad, el cual se produce cuando los rayos de luz pasan de un medio a otro que difiere en densidad. Si la cara del ojo situada frente al objeto es esférica, se piensa entonces que sólo el rayo que incide perpendicularmente pasa sin ser refractado. El resto de los rayos sufre una desviación —sin tener una ley cuantitativa que la gobierna— que depende del ángulo de incidencia sobre la pupila; como consecuencia éstos se debilitan de tal manera que sería imposible su detección en el cristalino. Lo mismo ocurría en cada uno de los puntos del objeto observado, y, por tanto, la imagen producida sería la causa exclusiva de las contribuciones de los rayos que inciden perpendicularmente, dando lugar a una correspondencia, punto por punto, del objeto con su imagen.
 
Pero, ¿cómo son percibidas estas impresiones sobre el cristalino por el alma?, es decir, este conjunto de puntos que se acomoda en dicha estructura semitransparente, ¿llega a ella punto por punto o es que el cristalino los une como una “forma” —una unidad— semejante a lo observado? En tiempos de Alhazen era imposible dar una respuesta correcta a esta interrogante. Sin embargo, es digno de elogio el avance alcanzado, pues para entonces ya se tiene la idea de que la luz es una sustancia que viene del Sol, de una fogata, vela o cualquier otro emisor. Algo de ella toca a una flor y gracias a esto desde cualquier punto se desprende un rayo que se hace acompañar del “chroma” —aquello que engloba al color y hasta la textura del objeto—, por lo que no importa cuántos observan, pues cada uno puede recibir esta mezcla y dar cuenta del objeto en términos iguales. A grandes rasgos, el proceso así descrito es correcto y nos lleva a percibir las diferencias entre los enfoques de Al-Kindi y Alhazen: la luz de la que habla éste último es la que nos permite ver, en tanto que la del primero es sólo una más de las múltiples radiaciones que cruzan el universo. La primera desciende de Euclides y Ptolomeo y la segunda de Platón y Plotino, y corresponde a una forma imperfecta del modelo ideal existente en el ámbito de lo eterno. Alhazen habla de leyes ópticas y de cómo la luz alcanza al cristalino obedeciendo a leyes geométricas, de donde se colige que las leyes de la óptica son el modelo de los principios que rigen el orden natural de las cosas.
Epílogo: Leonardo

Las ideas de los tratados ópticos de Al-Kindi y Alhazen alcanzaron Occidente en menos de dos siglos, y su influencia se refleja en los escritos de Roger Bacon, Witelo y John Pecham, quienes trabajaron en sitios lejano entre sí: Bacon en Oxford y Lincoln; Witelo en París, Padua y Viterbo, y Pecham en París y Oxford. Ellos constataron la difusión y aceptación de las nuevas fórmulas del pensamiento científico acerca de la visión y de los entes que participan en ella. Al iniciar el siglo xv el interés por la óptica adquiere una nueva dimensión, al incluir como problema no sólo la percepción, sino la representación del espacio. Esta nueva faceta añadía y, en cierta forma, opacaba el afán por entender el acto visivo y las formas en que la luz se constituía en una mediación entre el mundo material y el mundo divino. Dejando de lado las cuestiones metafísicas, los nuevos tratados poco tenían que añadir a sus fuentes árabes. Al parecer, antes del surgimiento de la perspectiva, se pensaba que los antiguos habían agotado las verdades matemáticas que merecían ser incluidas en los textos y sólo quedaba reproducirlas y, en ciertos casos, presentarlas en forma más transparente.
 
Las palabras poseían un peso inmenso durante la Edad Media. Una nueva forma de decir algo constituía un elemento nuevo del saber, pero el diseño de una técnica no se sumaba a lo que se consideraba el acervo intelectual de la humanidad. El acto de “hacer” formaba parte de las artes, que sin el apellido de “liberales” eran inapropiadas para los hombres cultos que dominaban la lengua de Cicerón. La superficie de un muro o una tela sobre un bastidor eran los medios para representar una escena e ilustrar un asunto religioso o cortés, pero quien creaba la escena no estaba considerado a la altura de los humanistas. En este contexto Leon Battista Alberti escribe Della Pittura y manifiesta su intensión de hacer de la pintura una de las “artes liberales”. El éxito de su empresa queda manifiesto cuando hablamos de la pintura y de otras expresiones del quehacer humano como “artes”.
 
Leonardo, lector de Alberti y consciente de la necesidad de establecer bases metodológicas y conocimientos basados en las propiedades y comportamiento de la luz, la anatomía del ojo y una teoría de la percepción que fuera más allá de las enseñanzas aristotélicas, se convirtió en un destacado representante de los nuevos impulsos del Renacimiento. Su labor forma parte del cambio de actitud ante lo que se consideraba una ocupación digna y que abriría un mar de posibilidades para la búsqueda del conocimiento utilizando nuevas herramientas, empresa en la que los problemas ópticos jugaron un papel determinante. Este nuevo espíritu dio lugar a una nueva civilización, a una sociedad tan diferente que a la vuelta de dos siglos no sintió pesar al bautizar como “época oscura” a la que le dio origen.Chivi66
Referencias bibliográficas
 
Alhazen. 1572. Opticae Thesaurus: Alhazeni arabis libri septem nunc primum editi… Risner Friedrich (ed.). Johnson Reprint, New York.
Euclides. 1996. Ottica. Immagini di una teoria della visione. Traduzione e note di Francesca Incardona. Di Renzo Editore, Roma.
Lindberg, David C. 1981. Theories of Vision from Al-Kindi to Kepler. The University of Chicago Press, Chicago.
Da Vinci, Leonardo. 1995. Libro di Pittura. Codice Vaticano Urbinate lat. 1270. A cura de Carlo Pedretti. Trascrizione critica di Carlo Vecce. 2 vols. Giunti. Firenze.
Ptolomeo, Claudio. 1996. Ptolemy’s Theory of Visual Perception. An English Translation of the Optics with Introduction and Commentary by A. Mark Smith. Transactions of the American Philosophical Society, Philadelphia.
Strong, Donald S. 1979. Leonardo on the Eye. English Translation and Commentary of MS. D in the Bibliothèque Nationale, Paris. Garland Publishing, Inc, New York.
J. Rafael Martínez Enríquez
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Martínez Enríquez, J. Rafael. (2002). Del ojo. Ciencia y representación. Ciencias 66, abril-junio, 46-57. [En línea]

 
    Regresar al índice artículo siguiente
  P01    
  de la red
 
     
e-museo Nobel
 
 
 
Susana Biro
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
Gould es un niño genio de trece años, que va a la universidad y estudia un pos-grado. Desde su graduación, de la licenciatura en física, todos piensan que muy pronto recibirá el Premio Nobel. Gould es el personaje principal de City, el libro más reciente de Alessandro Baricco. Siempre es interesante cuando la ciencia o los científicos aparecen en la literatura, pues nos da una visión de cómo la ciencia es vista por la gente ajena a esta actividad; y esta novela no es la excepción.
 
 
El Premio Nobel —con sus seis categorías— acaba de cumplir el primer centenario y deja mucho que pensar, especialmente en el área de las “ciencias exactas.” Alfred Nobel en su testamento —que tomó tres años descifrar— pidió que se apoyara a quienes hubieran “aportado los mayores servicios a la humanidad” y citó explícitamente a la química, la física y la medicina. Su selección refleja la visión que se tenía sobre la ciencia a finales del siglo xix, y excluye áreas desde entonces existentes, que tuvieron un gran desarrollo en el siglo xx, como la astrofísica, la biología y el estudio de la mente.
 
 
En ciencia los Nobel son premios que se otorgan por un “destello” y no por el desempeño a lo largo de toda una carrera. Bajo este criterio, se han premiado a lo largo de los años todo tipo de cosas: desde la fotografía a color (Lippmann, 1908), el efecto fotoeléctrico (Einstein, 1921), la estructura del sistema nervioso (Golgi y Ramón y Cajal, 1906) hasta la lobotomía (Moniz, 1949).
 
 
Asimismo, las teorías y descubrimientos que no lo han recibido dicen mucho acerca de éste. Freud murió esperando un Nobel que nunca llegó, ya que el psicoanálisis no se considera, hasta la fecha, parte de la medicina. Wegener, de quien tanto se rieron sus colegas, murió sin que su trabajo fuera reconocido; sin embargo, su teoría de la deriva continental es ahora el eje de los estudios en su rama. El descubrimiento de Hubble, del Universo en expansión, cambió radicalmente la cosmología, pero no fue reconocido debido a la estrecha definición de las categorías.
 
 
Entre las múltiples celebraciones con motivo del centésimo aniversario de los premios Nobel, se inauguró un museo electrónico en el sitio oficial de esta fundación http://www.nobel.se/ Como es de esperarse, la página es sobria, pero atractiva, y contiene una cantidad apabullante de información; ésta consta de una sección dedicada a la historia del premio y su fundador, y otra para cada una de las seis categorías a las que se otorga el premio.
 
 
Cada una, a su vez, tiene tres espacios diferentes. En uno se enlista a todos los laureados desde 1901 e incluye, por lo menos, una biografía. También aparecen transcripciones de las conferencias que los laureados dieron en la ceremonia. Además, resulta interesante conocer quiénes, dentro de este círculo, se preocupan por transmitir lo que hacen a un público lego. La ponencia de Alexander Fleming titulada sencillamente Penicillin es un buen ejemplo, ya que explica brevemente, con detalle y claridad, la historia del descubrimiento accidental de la penicilina.
 
 
Otro de los espacios contiene tanto artículos sobre el premio mismo, como sobre los temas de ciencia que han sido premiados a lo largo de un siglo. En el de física, por ejemplo, Eric Karlsson (miembro del Swedish Royal Academy of Sciences y del comité para el Nobel en Física) hace un repaso de los inventos y descubrimientos de los ciento sesenta laureados hasta la fecha, y concluye que “la mayoría de las aspectos esenciales en este fascinante viaje hacia la comprensión del mundo en que vivimos han sido cubiertas por el Premio Nobel en física”.
 
 
Por último, y no podía faltar dada la moda actual, hay un espacio educativo en el que aparecen hipertextos sobre algunos temas de ciencia; los resultados premiados están presentados en forma de cartel y hay un juego para cada categoría de ciencia que ha sido premiada.
 
 
La revista Science del 12 de octubre de 2001 dedica su sección “News Focus” al centenario y hace un análisis del efecto que tiene el premio sobre las vidas de los laureados. Hay desde los que se regresan tranquilamente a su laboratorio a seguir haciendo lo mismo, hasta los que se lanzan de lleno a una vida pública, ya sea de negocios, política o divulgación.
 
 
Decirles que Gould escoge un camino que no lleva al Nobel, sino a la felicidad, no arruina la lectura del libro recomendado, pero en cambio, dice mucho acerca de la visión de lo que éste implica.Chivi66
 
Susana Biro
Dirección General de Divulgación de la Ciencia,
Universidad Nacional Autónoma de México.
_______________________________________________________________

como citar este artículo

Biro, Susana. (2002). e-museo Nobel. Ciencias 66, abril-junio, 74-75. [En línea]

 
  P01 P02  
  del archivo
 
     
Industria animalium
 
 
 
Ramón Aureliano Alarcón
conoce más del autor
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
¿Cuántos volúmenes harían falta para incluir únicamente los términos con los cuales designaríamos las colecciones distintas de fenómenos, si estos fueran conocidos? ¿Cuándo estará completa, la lengua filosófica? Y aunque estuviera completa, ¿quién, de entre los hombres, podría conocerla?DiderotEs conocida la opinión que atribuye a las plantas sentimientos, conocimiento y apetito, al igual que a los animales, siendo éstos sensitivos, como los cuatro elementos de que constan.Acaso el temperamento sea la verdadera alma, quizás haya un principio de todas nuestras acciones en el acuerdo armónico de los órganos corpóreos. Ya algunos sabios antiguos se inclinaban por negarles sentimientos a los animales o brutos, otros les concedieron discurso, y varios más los niegan y les otorgan sólo sentimiento.Tengo referidos varios casos de los cuales mencionaré algunos. Remito a quien esto leyere a la Carta anterior donde se describen varias de las virtudes de los animales como el elefante; y en los comentarios que siguen me acojo como siempre a la benevo-lencia del amable lector.Si mencionamos nuevamente al elefante, es porque el ilustre Feijóo en su Teatro Crítico Universal, al verter su opinión sobre la sagacidad e industria de este animal nos dice: “Los Elefantes hacen en esta representación el primer papel, con noticias de Plinio, Eliano, Mayolo, Alberto Magno, Nieremberg, Acosta, [Pedro Mexía], y otros antiguos, y modernos, que nos los muestran capaces, casi sin excepción, de todo género de disciplina. Unos aprendiendo el idioma humano, y aun el uso de la Escritura; como aquel que con la trompa formó sobre la arena en caracteres Griegos esta sentencia: Yo mismo escribí estas cosas [...] Otros [son] dotados de pericia militar, gobernando en toda forma los escuadrones de su especie. Llégase a esto la imitación de los efectos humanos, la venganza, el agradecimiento, la vergüenza, y el apetito de gloria [...] Tras de los Elefantes vienen los Perros, los Zorros, los Monos, los Cercopitecos, los Ca-ballos, las Abejas, las Hormigas, etcétera”.Sin que nos detengamos a juzgar más sobre el asunto y abandonando la tesis de Descartes, que les niega sentimiento —y para quien los animales son sólo “estatuas inanimadas”, cuyos movimientos dependen únicamente de su figura y la disposición orgánica de sus partes, según la variada determinación que les da la unión de los objetos que los circundan— Feijóo dirige sus disputas en contra de aquellos que les dan sólo cualidades sensitivas, o niegan lo discursivo a los brutos.Reproducimos un ejemplo más: “¿Quién pensaría que aquel menudo, y aborrecido insecto llamado Polilla tiene un mérito sobresaliente para ocupar un lugar distinguido entre los brutos más racionales? Ello es así. Este despreciado animalejo da acaso más motivo a la admiración que otros que se hallan celebrados por su sagacidad, y providencia. Todos los brutos tienen industria para procurarse el alimento necesario; todos cuidan, y todos aciertan con la conservación de la especie, muchos con más o menos arte se fabrican domicilio; muchos saben defenderse, y ofender a sus enemigos. Pero quien tenga arte para abrigar su cuerpo contra las injurias del aire, fabricando, y ajustándose vestido acomodado, no hay otros sino la Polilla, y solo la Polilla imita al hombre en esto. Pondérase en la Araña la fábrica de sus telas: la Polilla es tejedor, y Sastre en un tomo”.Con relación a las plantas habla del caso del árbol que llaman Árbol Sensitivo, como también del Púdico; porque llegando cualquiera a tocarle, retira con rapidez hojas, ramas, como simulando fuga y sentimiento ante la ofensa. Agrega que en el Istmo que divide la América Septentrional de la Meridional, entre Nombre de Dios y Panamá hay una selva entera de esos árboles. Dice el padre Regnault que en Abisinia hay un árbol denominado Enseté, de quien los naturales del país dicen que arroja suspiros cuando le cortan; “y es frase suya cuando van a cortarle, que van a matarle”. Hasta aquí algunos casos de la Racionalidad de los brutos de Benito Feijóo. Por último, juzgo, en esta carta, conveniente repetir la opinión de que los brutos obran, no por inteligencia, sino por instinto. Discurre que la voz “Instinto” no presenta significación fija y determinada, o por lo menos no se le ha dado hasta ahora; y así, usar de ella en esta cuestión no es más que trampear el argumento con una voz sin concepto que no entiende ni el que defiende, ni el que arguye. Concluimos esta carta convencidos de que para descubrir lo posible en lo aparentemente imposible es menester una luz extraordinaria.Chivi66
 
Ramón Aureliano Alarcón
Instituto Mora.
_______________________________________________________________

como citar este artículo

Aureliano Alarcón, Ramón. (2002). Industria Animalium. Ciencias 66, abril-junio, 58-59. [En línea]

  portada articulo 1 portada articulo 1  
 
 
     
La ciencia y sus demonios  
Germinal Cocho  y Pedro Miramontes Vidal
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
Borges en Pierre Menard, autor de El Quijote escribe: “la verdad, cuya madre es la historia, émula del tiempo, depósito de las acciones, testigo de lo pasado, ejemplo y aviso de lo presente, advertencia de lo por venir”. La historia es mucho más que la narrativa secuencial de eventos y personajes que nos enseñan en la escuela. Al ser la madre de la “verdad”, se vuelve indispensable para obtener conocimiento, y si aceptamos que uno de los papeles de la ciencia es precisamente ese aprendizaje, entonces la tarea científica pasa obligadamente por el estudio y la comprensión de los hechos históricos.
 
La idea de concebir a la historia como una serie de procesos sujetos a causas y efectos es parte del legado que nos ha dejado la monumental obra de Karl Marx y Friedrich Engels. Una de las frases más ilustrativas al respecto, fue escrita por Marx en 1852, en El Dieciocho Brumario de Luis Bonaparte, y ha sido citada en múltipes ocasiones por la literatura política. “Hegel dice en alguna parte que todos los grandes hechos y personajes de la historia universal aparecen dos veces. Pero se olvidó añadir: la primera vez como tragedia, la otra como farsa”.
 
 
Marx establece un paralelismo entre el golpe de estado que le permitió a Louis Napoleon Bonaparte convertirse en emperador de Francia bajo el nombre de Napoleon III, y una asonada semejante que le permitió a su tío —Napoleon Bonaparte— alcanzar el trono de la misma nación unas décadas antes, en las postrimerías de la Revolución Francesa. Marx atribuye a Hegel la afirmación de que la historia tiene un carácter cíclico. Evidentemente, ninguna persona puede aceptar una periodicidad estricta en la historia; si así fuera, estaríamos condenados a observar el desenvolvimiento de un drama totalmente determinista y predestinado. Por eso, Marx emplea una metáfora para subrayar que en la historia se pueden reconocer hechos específicos aparentemente repetitivos (“la primera como tragedia, la otra como farsa”), pues tienen rasgos que podrían parecer semejantes, pero cuyas circunstancias particulares son diferentes.
 
Los historiadores de la ciencia han identificado desde hace tiempo un vaivén, una aparente periodicidad, es decir, una alternancia entre el racionalismo y el romanticismo. Esta pugna, abierta o soterrada, ha dominado el desarrollo de la ciencia prácticamente desde sus orígenes. En estos momentos la ciencia refleja la crisis de la sociedad occidental, lo cual indica que estamos entrando en una de las transiciones del antagonismo mencionado. Si bien los tiempos de crisis son tiempos de riesgo y peligro, también lo son de oportunidad para las ideas innovadoras y para los cambios revolucionarios.
 
La Naturphilosophie
 
En las sociedades occidentales —americanas y europeas—, en los albores del siglo xix, surgió un importante movimiento, tanto en el arte como en la ciencia, de pensadores que no encontraban satisfacción a sus inquietudes sociales y éticas en la atmósfera de estricto clasicismo, dominante en el mundo intelectual de la época. Frente al frío racionalismo ilustrado que imperaba, esta corriente surgió como un movimiento de exaltación del hombre, de la naturaleza y de la belleza, pero también como expresión social de rebeldía, libertad e independencia. Se buscaba, consciente o inconscientemente, una salida que privilegiara al individuo, al “yo” sobre la colectividad. A este anhelo utópico de persecución por un mundo ideal, sin más base que la voluntad o el fervor, a la búsqueda de soluciones fundadas en los sentimientos por encima de la razón, se le llama romanticismo.
 
El romanticismo europeo enfatiza lo individual por encima de lo colectivo, y es una reacción contra las leyes del arte neoclásico, en el cual la creatividad se encontraba restringida por reglas académicas, por tanto, es la expresión directa de las emociones que a menudo busca sus fuentes en el pasado o en las mitologías.
 
En las ciencias, el romanticismo postula que la naturaleza no puede ser explicada racionalmente y que sólo es posible percibirla de manera intuitiva. Por lo cual, no hay una descripción única del universo pues ésta depende del individuo, de su entorno y sus circunstancias; lo subjetivo, irracional e imaginativo se abren paso. Los filósofos Fichte y Schelling le dieron sustento a esta forma de pensamiento bajo el nombre de Naturphilosophie.
Ésta se opone radicalmente a la tradición empírico-matemática de los siglos anteriores y, sobre todo, a la corriente racionalista que dominaba desde el Siglo de las Luces, conocida como La Ilustración. Los racionalistas, fuertemente influidos por el éxito de la mecánica de Newton, pensaban que el mundo se podía entender y explicar completamente con base en estas leyes. En 1705 Edmund Halley predijo que el cometa que ahora lleva su nombre, y que había pasado cerca de la Tierra en el sistema solar en 1607 y 1682, regresaría en 1758. La exactitud de su predicción produjo entusiasmo  y suscitó gran confianza en el poder de los métodos matemáticos para ir más allá en la descripción del universo, con lo cual se abría la posibilidad de predecir el futuro. La naturaleza se percibía de pronto como un libro abierto, dispuesta a revelar sus secretos a quien conociese su lenguaje: las matemáticas, según Galileo.
 
La base del racionalismo era la confianza en el poder ilimitado de la razón. Este era el medio que los humanos debían usar como único instrumento para acceder a la verdad, a la comprensión del universo y a la búsqueda de su propia felicidad. Ellos seguían un método analítico como estrategia de estudio, que les llevaba a descomponer a la naturaleza en partes. Además buscaban afanosamente la descripción detallada de la misma, un buen ejemplo es la clasificación de los seres vivos por Carl Linne en un sistema que siguiese, en sus palabras, “el orden dictado por su naturaleza”.
 
Otra oscilación del péndulo
 
A finales del siglo xix y comienzos del xx hubo otra alternancia en la lucha sentimiento-razón. Al romanticismo le siguieron varios movimientos filosóficos apegados al racionalismo, tanto en las ciencias como en las artes, entre los cuales se encuentra “el realismo”, que tuvo muchos seguidores en Francia, cuna de los enciclopedistas ilustrados. En las artes, como su nombre lo indica, tiende a dibujar un retrato exacto de la naturaleza y la sociedad. El ejemplo paradigmático es La comedia humana de Honoré de Balzac; retrato ambicioso y erudito de la sociedad con sus pasiones, virtudes y defectos.
 
En el fondo los choques entre las corrientes que estamos señalando forman parte de una pugna más antigua y todavía presente. Desde que los humanos aprendieron a cuestionarse y a interrogar a la naturaleza, existe el antagonismo “idealismo” versus “materialismo”. También estos términos son confusos, pues comúnmente el idealismo tiene una connotación positiva que se refiere a la capacidad de los individuos para desenvolverse y actuar durante la vida, guiados por principios morales muy elevados. Sin embargo, lo que caracteriza al idealismo filosófico es que sus partidarios opinan que el mundo y sus fenómenos no tienen una existencia propia e independiente del observador y, por tanto, no existe una realidad objetiva externa al individuo e independiente de su conciencia.
 
Por otra parte, en el lenguaje cotidiano, alguien es “materialista” cuando muestra un exagerado interés por las posesiones mundanas y el dinero. Sin embargo, el materialismo filosófico considera que el universo y la naturaleza tienen una existencia objetiva, aunque no estemos presentes. Es decir, que la razón del perímetro de una circunferencia con su radio es 3.141592… aun si no hubiese habido matemático que lo formulase y que un árbol hace ruido al caer en la mitad del bosque, a pesar de que nadie lo escuche.
 
Durante la influencia del nuevo racionalismo vuelve la confianza de que la ciencia tiene la capacidad de explicar todos los fenómenos naturales e incluso los sociales. Más aún, que estos son parte de la física y que como tales deben ser estudiados. En la actualidad no todos los biólogos teóricos —en su mayoría físicos—están convencidos de que la teoría de Darwin de la evolución biológica por selección natural sea la explicación del fenómeno evolutivo, aunque a finales del siglo xix el darwinismo encajaba perfectamente bien, lo mismo que el marxismo en el racionalismo materialista. El neorromanticismo del siglo xix no es igual al precedente, ya que, por un lado, había sido influido por el realismo y, por el otro, la historia no es una mera repetición, como se mencionó con anterioridad. Éste tiene sus consecuencias graves, pues su naturaleza es más negativa y su rechazo al racionalismo es más violento.
 
En 1918, año en que termina la primera guerra mundial, Oswald Spengler —filósofo alemán— publica La decadencia de Occidente. El argumento central del libro es que las civilizaciones, al igual que los organismos, nacen, crecen, maduran y terminan en una degradación irreversible. Spengler opina que la cultura occidental agotó su fase creativa, situándose en una etapa cercana a la muerte intelectual. Este proceso se debía, en buena parte, a la preponderancia del materialismo sobre las formas espirituales, por lo cual afirma que el racionalismo y la ciencia son culpables de esta degradación espiritual (“Tras dos siglos de orgías científicas, hemos llegado a hartarnos”). Spengler inicia una línea de pensamiento con gran influencia en algunas corrientes contemporáneas que descalifican a la ciencia, e inician una cruzada en contra de lo que llaman “verdades absolutas”. Otra frase muy ilustrativa del mismo autor es: “La naturaleza es siempre una función de la cultura”, en ella no dice que la ciencia es función de la cultura (lo que sería aceptable), sino de la naturaleza, es decir, que ésta no tiene existencia propia en ausencia de los humanos.
 
Si bien las artes y las ciencias encontraron un ambiente de notable crecimiento durante la República de Weimar, la inestabilidad política y la gran crisis económica provocaron en el ciudadano medio un sentimiento de desesperanza y miedo ante un futuro incierto, lo que genera la necesidad de buscar culpables, ya sean reales o ficticios, así como de buscar salidas oblicuas para poder fincar alguna esperanza, no importando si ésta carece de bases. Es en este ambiente donde renacen las supersticiones y los mitos, así como los charlatanes que los explotan, con consecuencias nefastas. Adolf Hitler y Hermann Goering habían intentado una asonada en Munich en 1924, pero más tarde se convencieron de que redituaba más, políticamente hablando, culpar a los judíos de la precaria situación económica, revivir los mitos de un pasado germánico grandioso y convencer a las masas pobres e incultas de que cada uno de ellos era un superhombre en potencia, con un futuro esplendoroso si se les daba la oportunidad. Finalmente, la República de Weimar muere con el ascenso al poder del Partido Nazi en 1933.
 
El mundo hoy
 
Los profundos cambios que el mundo experimentó en la última década del siglo xx y que estuvieron asociados con la caída de la Unión Soviética y el fin del llamado “bloque socialista”, condujeron al apoderamiento mundial de la escena política y económica por parte de Estados Unidos y su capitalismo neoliberal.
 
Analistas, comunicadores y personajes de la política occidental se congratularon con este cambio y auguraron un futuro de felicidad sin precedentes, en el cual la humanidad compartiría los valores estadounidenses de libertad, moral y democracia. Cabe mencionar que este escenario idílico se vino abajo antes de que lo hicieran las torres gemelas de Nueva York. No hace falta ser sabio para percibir que no todo el mundo quiere una homogeneización impuesta por la fuerza, ya que la “globalización” no significa que todos los pueblos de la Tierra tomen lo mejor de los demás y puedan incorporarlo a su estilo de vida en un intercambio fructífero y enriquecedor; más bien es la aceptación, sin posibilidad de apelación, de los estándares y valores estadounidenses. El rechazo a la imposición homogeneizante que se demuestra con el auge mundial de los movimientos globalifóbicos, es a la “McDonalización” de la economía, de las costumbres y los valores (incluso gastronómicos).
 
El tránsito del mundo bipolar al unipolar, lejos de aliviar las tensiones que se generaron en la Guerra Fría, ha traído consigo aberraciones en las relaciones entre naciones, sociedades e individuos. El mundo se encuentra inmerso en una crisis generalizada, con múltiples facetas, que se reconoce por las siguientes manifestaciones: la guerra, el método insensatamente elegido para resolver conflictos entre Estados, naciones o grupos étnicos; el terrorismo, que implica tanto la acción desesperada de grupos minoritarios como el abuso ilegal del Estado que tiene el poder suficiente para ejercerlo de manera impune; el desorden económico global que hace recaer el bienestar de una reducida clase acaudalada en los hombros de una mayoría.
El mundo está dividido en dos partes; una está excluida de cualquier beneficio del desarrollo, desprovista de las condiciones que permiten una vida humana con un mínimo de dignidad. En esa parte se concentran los países del llamado Tercer Mundo.
 
La desesperanza conduce a la pérdida de fe en el progreso, a la búsqueda de soluciones personales inmediatas, por lo cual la mayoría se vuelca al misticismo, cae en los brazos de la religión, tradicional o emergente y ante la privatización de los servicios de salud que los vuelve inaccesibles al pueblo, confía su salud a prácticas pseudocientíficas, cuando no charlatanescas.
En una situación análoga a lo mencionado con anterioridad y semejante a la atmósfera de la República de Weimar, el cuadro aquí descrito orilla a la gente a la búsqueda y persecución de culpables, sean estos reales o figurados: estamos en otra transición del racionalismo al romanticismo. Esta vez se acusa, quizá con razón, a la ciencia de ser parte del aparato de desigualdad e injusticia.
 
Los demonios de la ciencia
 
En la alternancia del racionalismo y el romanticismo, actualmente, el primero está en el banquillo de los acusados. Un poeta, más notable por su actuación política (presidente de Checoslovaquia desde 1989 y posteriormente de la República Checa hasta nuestros días) expresa su punto de vista de la siguiente manera: “La caída del comunismo se puede interpretar como una señal de que el pensamiento moderno —basado en la premisa de que el mundo es discernible objetivamente y que el conocimiento así adquirido es susceptible de generalización— ha caído en una crisis final”.
 
Esta frase de Václav Havel describe a lo que pretendemos llegar: la crisis de valores no solamente genera una pérdida de confianza en la racionalidad, sino que además produce confusión entre los intelectuales, conduce a errores metodológicos como el de Havel, al confundir el marxismo con la burocracia soviética, y al grosero disparate de concluir, bajo esta premisa falsa, que el mundo no es discernible objetivamente.
 
Estas ideas encuentran eco hoy en día en las escuelas del posmodernismo y del relativismo cultural. El punto de vista de que los valores de una cultura no son bienes absolutos, sino que dependen del desarrollo histórico de cada cultura —doctrina conocida como relativismo cultural— es innegable desde la perspectiva de la antropología (los principios morales pueden ser distintos en diferentes culturas sin que se pueda decidir cuál es el bueno y cuál el malo; los sacrificios humanos en la antigua Tenochtitlan horrorizaron a los españoles que, en cambio, veían muy natural que algunas personas muriesen en la hoguera). Sin embargo, extrapolar esta idea hasta la afirmación de que los resultados de la ciencia dependen también del marco de referencia de cada cultura, lo más que puede producir es una sonrisa.
 
Nosotros pensamos que el universo se puede discernir objetivamente y que el conocimiento así adquirido es susceptible de generalización, pero no podemos cerrar los ojos ante la diversidad de críticas y ataques a la ciencia que son legítimas y tienen fundamentos reales. La ciencia ha estado del lado de los intereses más perversos y carga consigo pecados y demonios que es necesario exorcizar.
 
Entre estos demonios, se encuentra la relación de la ciencia con la tecnología guerrera. Pablo González Casanova dice que “tenemos que pensar que la globalización está piloteada por un complejo empresarial-financiero-tecnocientífico-político y militar que ha alcanzado altos niveles de eficiencia en la estructuración, articulación y organización de las partes que integran al complejo, muchas de las cuales son empresas o instituciones estatales también complejas. Así, el megacomplejo dominante, o el complejo de complejos dominante, posee grandes empresas que disponen de bancos para su financiamiento, de centros de investigación científica para sus tecnologías, de casas de publicidad para difundir las virtudes de sus productos, de políticos y militares para la apertura y ampliación de sus “mercados de insumos”, o de sus mercados de realización y venta, o de sus mercados de contratación de trabajadores calificados y no calificados”.
 
La asociación de los científicos con la guerra no es nueva; ya el notable Arquímedes de Siracusa en el siglo iii a.C. inventaba máquinas de combate durante la guerra de su ciudad natal contra los romanos. A partir de entonces, se vuelve muy difícil encontrar algún instrumento de muerte que no dependa de un desarrollo tecnológico basado en trabajos científicos. De hecho, si aceptamos que la tecnología es ciencia aplicada, entonces quizá se pueda afirmar que todos los instrumentos de exterminio modernos son “hijos” de la ciencia.
 
Como lo menciona González Ca-sanova, la ciencia forma parte de un complejo empresarial-financiero-tecnocientífico-político y militar. Este hecho restringe severamente la capacidad científica de decidir las líneas de investigación, pues el financiamiento proveniente de este complejo no se ocupa de la ciencia como deleite intelectual ni como medio para atender los problemas de las mayorías, sino que forma parte del aparato de dominación. En el mundo globalizado y dominado por el neoliberalismo los Estados han ido dejando, paulatinamente, de ser la fuente principal de financiamiento de la actividad científica. Las pautas de investigación biotecnológica, biomédica, de la ciencia de materiales, informática y de muchas otras áreas obedecen a los intereses de grandes compañías que, a su vez, cumplen el interés de la ganancia inmediata.
 
Aun si fuésemos lo suficientemente indulgentes para pasar por alto la asociación de la ciencia con los medios bélicos, existen también aspectos negativos en el terreno de la ética. La imagen quijotesca que la sociedad tiene del científico como individuo distraído de su entorno, habitante del mundo de los sueños y embebido en su trabajo, a menudo propalada por los mismos científicos como para rehuir de su responsabilidad, es simple y llanamente falsa. Los científicos, siendo gente educada, con una formación académica de muchos años, estarían en condiciones, si no obligados, de saber qué es lo que sucede en su entorno. Bajo estas circunstancias es difícil encontrar una explicación acerca de la razón por la cual no existe más que un puñado de ellos que levanta su voz contra las complicidades señaladas y contra el desinterés por nuestro planeta y por lo pobres del mismo.
 
Si bien es cierto que la ciencia ha generado un bienestar material en la humanidad (o mejor dicho, en parte de la humanidad) también ha dejado de lado la moral y la ética. Es decir, que no se ha preocupado por buscar respuestas satisfactorias a las preguntas de la gente acerca del sentido, valor y propósito de la vida. La ciencia se ha convertido en una religión secular con “verdades” reveladas a los mortales sólo a través de sacerdotes, dueños exclusivos del saber universal: la ciencia es la base de la tecnología moderna y ésta lo es del capitalismo actual.
 
Asombro y escepticismo
 
¿Cómo debería ser entonces la ciencia? Vayamos a sus fundamentos, a ese núcleo aún no contaminado y que eventualmente permitirá el rescate de su fondo ético.
 
La ciencia consta de varios elementos; podemos decir que quizá, someramente, los más importantes sean el asombro y el escepticismo. Lo primero nos lleva a maravillarnos ante el universo y a preguntarnos acerca de su origen, desarrollo y evolución. Este elemento también lo tienen las religiones; vivir en “el temor a Dios” se entiende actualmente de manera errónea como el miedo constante y continuo a la deidad. El uso de “temor” en esta expresión debe tomarse como sinónimo de sobrecogimiento, pasmo o asombro (como en la frase inglesa awe of God o en alemán Ehrfurt vor Gott). Sin embargo, a diferencia de las religiones, la ciencia tiene un interés exclusivo por el mundo físico y sus manifestaciones, y deja la espiritualidad al albedrío personal. Lo segundo es el ingrediente que distingue a la ciencia de las religiones.
 
El escepticismo implica una actitud crítica ante los hechos y fenómenos, ya sean naturales o sociales. En la ciencia las teorías y explicaciones no se aceptan sin discusión y convencimiento, no se admiten las explicaciones del tipo “porque sí” o “porque Dios quiere”. Por ello, un científico debe ser parte de la conciencia de la sociedad (empezando por su gremio), debe tener un compromiso con su gente y luchar por desterrar las supersticiones y la charlatanería. En los medios de comunicación impresos y electrónicos, son escasos los espacios dedicados a la ciencia y abundan los que de una manera u otra fomentan prejuicios, estereotipos, pseudociencias y supersticiones. Detrás de todo esto se encuentra una poderosa industria que logra enormes ganancias explotando la credibilidad y buena fe de la gente. La astrología, el pensamiento New Age y las religiones modernas representan negocios formidables, que quebrarían inmediatamente si la educación fomentara con éxito una actitud de escepticismo entre los ciudadanos.
 
No podemos engañarnos con la pretensión ingenua de que con la pura voluntad podemos cambiar una estructura con intereses políticos y económicos colosales. Sin embargo, quedarse sin hacer algo es convalidar la situación.
 
La educación es un campo en donde se forma el espíritu, lo cual repercute en la sociedad, por lo que es un espacio en donde se puede actuar para cambiar el estado de las cosas y que puede llevar a fundar una corriente de opinión y trabajo que sea propositiva y, más aún, cuyas propuestas convenzan a la gente. En nuestro caso especial el énfasis estaría situado en la educación superior.
 
Interrogantes
 
Existe una buena cantidad de estudios y diagnósticos acerca de los problemas de la educación superior en México, en los cuales se han formulado una serie de preguntas, entre las que destacan las siguientes:
 
¿Diversidad u homogeneidad? La educación superior pública se encuentra desde hace tiempo bajo presiones para uniformar planes de estudio y para aplicar métodos homogeneizantes de evaluación tanto de estudiantes como de profesores. Un ejemplo son los exámenes departamentales y las evaluaciones a los docentes para la asignación de sobresueldos.
 
Resulta curioso que esta tendencia cobre fuerza incluso en sectores académicos, cuando los avances científicos recientes apuntan en dirección contraria. La física y la matemática de los sistemas complejos muestran que la diversidad ayuda a que los sistemas incrementen su capacidad de adaptación ante situaciones novedosas. Los planes de estudio y los programas de materias rígidos no dejan campo de maniobra para la diversidad y son la garantía de problemas futuros. En la Facultad de Ciencias de la unam, la mitad de las materias de la carrera de matemáticas son optativas; los estudiantes pueden elegir de un conjunto bastante amplio y de esa manera decidir de manera flexible su formación profesional. Adicionalmente, cada profesor elige el enfoque y la orientación que le dará a sus materias. El resultado es que esta facultad produce matemáticos muy diversos y todos ellos con grandes posibilidades de éxito al insertarse en el mercado laboral o en el mundo académico. Este caso muestra un ejemplo contundente de que se puede enfrentar a la política de uniformación seguida por las autoridades educativas de México. Hay que defender la libertad de cátedra y pugnar por que no se implante nada parecido a exámenes departamentales. La homogeneización de las personas y de las actividades humanas es característica de los regímenes totalitarios.
 
¿Elite o masas? También hay que responder con firmeza a la tendencia en boga de dificultar el ingreso y la permanencia de estudiantes que por restricciones personales o, la mayoría de las veces, por su nivel socioeconómico, no pueden ser estudiantes de tiempo completo o tener el mismo rendimiento que otros; hay que convencerlos de que un estudiante que no termina una carrera es útil a la sociedad y no es una “inversión desperdiciada”; aquél que abandona los estudios a la mitad de la carrera, eleva el nivel promedio de la cultura de la sociedad y esto es favorable. Mejor todavía sería que ese individuo pudiera retomar sus estudios cuando su situación se lo permitiera.
 
Rechazamos pues el absolutismo de las dicotomías, así como nos resulta aberrante la intimidación “están con los Estados Unidos o con los terroristas” recientemente proferida por George W. Bush, al igual que estamos en contra de ser obligados a elegir entre los extremos “educación elitista con calidad” versus “educación masiva mediocre”. ¿Quién puede decir que tiene la demostración fehaciente de que no es posible tener una educación masiva con calidad? Normalmente, frases como las entrecomilladas representan lugares comunes que, a fuerza de repetición, terminan siendo aceptadas sin reserva; y es insólito que los científicos, que casi por definición no deberían aceptar afirmaciones contundentes sin evidencia que las sostenga, de buena gana se traguen mitos, como el propalado por un “líder” académico, quien afirma que con la edad “decrece la capacidad de los profesores para generar nuevos conocimientos” y que “un profesor de arriba de 60 años (sic) no puede competir en productividad con los profesores jóvenes”. Alguien alguna vez dijo que una mentira repetida mil veces se vuelve verdad.
 
¿Especialización o generalización?, ¿universidad pública o universidad privada? La especialización prematura de los estudiantes desemboca en la formación de profesionales con un elevado grado de competencia, pero en campos cada vez más restringidos, lo cual provoca el aislamiento de los científicos. La comunicación, ya no digamos entre físicos y biólogos, por mencionar alguna, sino entre biólogos de diferentes especialidades ya es casi imposible: un ecólogo de campo y un genetista molecular pueden afrontar dificultades para encontrar un tema común de conversación científica. La superespecialización profesional tiene su análogo en la evolución biológica; a todos nos han enseñado que un organismo muy especializado puede ser muy eficiente en la explotación de su entorno, pero extremadamente frágil ante cambios del mismo. El oso hormiguero tiene una anatomía muy adecuada para la búsqueda, caza e ingestión de hormigas únicamente, pero ¿qué pasa si las hormigas se acaban? A un profesionista superespecializado también se le pueden acabar las hormigas.
 
Un egresado de una universidad pública y uno de una privada son, evidentemente, distintos en muchos aspectos. Uno de ellos es la incuestionable diferencia salarial que obtendrán al salir. Esto no es reflejo de la calidad de la educación que recibieron o de la cultura adquirida (como lo muestra el caso del gerente de México S. A.), sino de lo útiles que serán al aparato productivo. Hasta ahora, los empresarios mexicanos han preferido a un profesionista bien capacitado para resolver tareas específicas y puntuales. Nosotros tenemos que convencer a los empleadores (públicos o privados) que les resulta más redituable alguien con capacidad para adecuarse exitosamente a un entorno rápidamente cambiante. Es decir, debemos persuadirlos de que conviene más mantener en su empleo a alguien adaptable a situaciones novedosas que remplazar a una persona superespecializada cuando sus habilidades dejan de ser útiles y traer a alguien nuevo, con todo el problema que representa iniciarlo en las labores de un centro de trabajo. En pocas palabras, creemos que la universidad pública debe preparar “milusos” de alto nivel, en lugar de especialistas con una visión reducida.
 
¿Cómo incorporar el conocimiento moderno a la enseñanza? Nuestros planes de estudios continúan con la idea de presentar un desarrollo compartamentalizado de la ciencia. Esto ha sido bueno hasta ahora para la formación “intelectual” del estudiante, pero ¿será adecuado en un mundo en rápido cambio? Existe una tendencia moderna a borrar las fronteras artificiales entre las ciencias, lo cual se aprecia con la emergencia de disciplinas como la biología matemática, la bioinformática y la física biológica. Siguiendo nuestra tendencia la propuesta sería, por poner un ejemplo, presentar la física a la luz de la biología y la biología a la luz de la física. En ningún lugar se ha analizado qué repercusiones tendría esto en los planes y programas de estudio ¿un tronco común?, ¿módulos polivalentes?
 
En pocas palabras, ¿cuál sería el mejor camino para llevar a los estudiantes a un trabajo productivo temprano rompiendo así la estratificación social en la ciencia con sus mandarines y siervos? No lo sabemos, posiblemente, grupos relativamente pequeños de profesores que impartan materias en los primeros semestres pudieran ponerse de acuerdo acerca de cómo lograr que los estudiantes, independientemente de sus carreras, conozcan desde muy temprano cuáles son las polémicas contemporáneas en la ciencia; y se enfrenten así a una serie amplia de lecturas generales que los lleven a una dinámica autosostenida de estudio para la adquisición de herramientas para el pensamiento. En otras palabras, romper con la obtención pasiva de conocimiento como un “bagaje inerte” y convencer al estudiante de que el mundo se ve diferente (mucho más lindo) si se saben desentrañar las sutilezas del razonamiento por analogía, descubrir la utilidad del formalismo y aprender a dejar suelta la fantasía acerca de los aspectos metafísicos y filosóficos de la ciencia.
 
Colofón
 
En las épocas de crisis afloran las mentes lúcidas y valerosas. En la transición del racionalismo al romanticismo, en los albores del siglo xix, existió un grupo de pensadores que se llamaron a sí mismo los morfólogos racionalistas. Goethe, D’Aubenton, Geoffroy Saint-Hilaire y Lamarck son algunos de los nombres asociados con esta escuela. A finales del mismo siglo, y en medio de otra época más de transición, aparece la enorme personalidad de D'Arcy Wentworth Thompson. Todos estos naturalistas, montados a caballo entre el final de una etapa de racionalismo y el comienzo de una de romanticismo, sintetizaron lo mejor de ambos mundos: la pasión por el estudio detallado, minucioso y reductivo, propio de los racionalistas, y el amor de los románticos por los principios generales.
 
Todos ellos, ahora desdeñados por el establishment científico, fueron seres creativos, a la vez racionales y emotivos, que dentro de las restricciones sociales llegaron a ser artífices de su propia vida y dueños de su destino. Esto en contraste chocante con la situación neoliberal presente, en la que todos los aspectos de la vida humana para ser considerados de valía, tienen que representar ganancia o beneficio capitalista, y en la cual el hombre no es más que el medio que tienen las mercancías para producir más mercancías.Chivi66
 
Germinal Cocho
Instituto de Física,
Universidad Nacional Autónoma de México.
 
 
Pedro Miramontes Vidal
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________ 
 

como citar este artículo

Miramontes, Pedro y Cocho, Germinal. (2002). La ciencia y sus demonios. Ciencias 66, abril-junio, 76-85. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
 
 
     
La demencia vacuna cuando los priones nos alcancen
 
Samuel Ponce de León R. y Antonio Lazcano Araujo
conoce más del autor

   
 
 
HTML ↓
PDF Regresar al índice artículo siguiente
     
En 1996, cuando se iniciaba la epidemia de encefalopatía espongiforme bovina en Inglaterra, y se comenzaba a saber de los primeros casos del mal y su equivalente en los humanos, (el mal de Creutzfeldt-Jakob variante), publicamos un pequeño ensayo titulado La demencia vacuna. En esos momentos la noticia era recibida por el mundo entero con una mezcla de preocupación y escepticismo, que incluso alcanzó el mundo de la moda y la decoración de interiores. Después de casi seis años, el balance no puede ser más desolador: han fallecido más de cien personas en Europa y se ignora cuántas más estén infectadas; todavía continúa el debate sobre la naturaleza misma del agente infeccioso; se sabe que la enfermedad ya se presentó en Japón y, aunque hay un par de reportes científicos esperanzadores, no se conoce remedio alguno contra ella.
 
El desastre económico para la Comunidad Europea, al que se sumó recientemente una epidemia repentina de fiebre aftosa, se calcula en siete millones de reses sacrificadas, lo que implica un costo multimillonario para la industria ganadera. La mayor parte de las muertes humanas causadas por esta enfermedad están concentradas en la Gran Bretaña, aunque se sabe de algunas personas fallecidas en Francia. Actualmente, podemos estar seguros no sólo de que estas cifras aumentarán, sino que también veremos pronto a pacientes afectados por esta enfermedad en muchos otros países europeos y, tarde o temprano, en otros continentes; incluyendo al nuestro.
 
Las encefalopatías del ganado
 
Las enfermedades del sistema nervioso en los animales, similares al mal de las “vacas locas”, no son ninguna novedad. Como escribió recientemente Maxime Schwartz, antiguo director del Instituto Pasteur de París, algunas de ellas fueron descritas desde el siglo xviii, durante el reinado de Luis xv. Sin duda alguna, la mejor estudiada es la llamada Scrapie, que se encuentra entre las ovejas. Se conoce, además, la encefalopatía de los felinos y del visón, que, junto con el síndrome de desgaste en alces y venados, ha sido descrita desde hace muchos años en los Estados Unidos y Canadá. A esta lista se agregó en 1986 la encefalopatía espongiforme bovina, que tuvo una rápida diseminación en los hatos de ganado vacuno inglés; probablemente como resultado de la contaminación del pienso, al cual desde hace muchos años se le agregaban proteínas de origen animal, incluyendo restos de ovejas enfermas. El problema surgió al alimentar a herbívoros con restos de otros animales, volviéndolos carnívoros (de hecho, caníbales). Esto permitió el paso del prión de ovejas a vacunos, posiblemente unido a una mutación del prión vacuno, diseminado como resultado del mismo proceso de enriquecimiento del pienso.
 
Ante la rápida evolución de la epidemia vacuna, en 1988 el gobierno británico prohibió el uso de restos animales en la producción de alimentos para el ganado, y se inició la matanza de aquellas reses que pudieran estar infectadas. A partir de 1992, estas medidas permitieron disminuir los casos de vacas infectadas en la Gran Bretaña, a pesar de lo cual se calcula que se enfermaron más de doscientas mil reses y fue necesario el sacrificio de 4.5 millones de cabezas de ganado asintomático. La publicidad hecha en torno a este problema provocó, como era previsible, que muchos países europeos prohibieran la importación de ganado y productos cárnicos ingleses (de nada sirvieron los uniformes de los beef-eaters de la Torre de Londres). Sin embargo, a pesar de su carácter flemático, hasta los propios británicos disminuyeron su consumo de productos bovinos, y fue necesario que el entonces ministro de agricultura y su hija aparecieran ante los medios de comunicación, comiendo roast-beef y hamburguesas, con la intención de aminorar el miedo que para desgracia de los ganaderos y la economía, comenzaba a apoderarse de muchos.
 
Pero nada de esto limitó la diseminación de la epidemia de la encefalopatía espongiforme bovina. Mientras el gabinete inglés consumía en público productos de vacas británicas, muchos gobiernos europeos se rasgaban las vestiduras y vociferaban contra la carne inglesa. Estos últimos seguramente tenían en mente aquello de: “Hágase Señor tu voluntad, pero en los bueyes (o en las vacas) de mi compadre”. Aun así no detuvieron ni la importación ni la exportación de pienso contaminado. La razón es muy simple; como mostró hace algunos años la revista Nature, aunque desde junio de 1988 el Gobierno británico prohibió alimentar al ganado con mezclas de pienso que contuvieran restos de rumiantes, entre 1988 y 1989 Inglaterra prácticamente triplicó las exportaciones de éste. Los franceses, por ejemplo, importaron más de quince mil toneladas del alimento durante ese mismo periodo.
 
Hoy se están viviendo —o, mejor dicho, consumiendo— las consecuencias de esa decisión. En un esfuerzo por frenar el problema se ha organizado un programa de control, apoyado con un presupuesto de novecientos millones de dólares, y se han matado dos millones de reses para tratar de controlar la epidemia, que hoy involucra a Irlanda, Francia, Portugal, Suiza, Dinamarca, Bélgica, Holanda, Alemania y España. Las predicciones más conservadoras prevén que para el año 2010 habrá al menos tres mil quinientos casos de “vacas locas” en Europa.
 
Existe, además, una serie de problemas. El tener que estudiar todo animal menor de treinta meses de edad, aunado a la matanza de animales infectados y a la destrucción posterior de los cadáveres de los bovinos, ha saturado los laboratorios veterinarios y hasta los sitios de incineración, ya que basta descubrir un solo caso de “vaca loca” para eliminar a todo el rebaño. Ahora se están viviendo las consecuencias de haber tomado medidas preventivas, no bajo una óptica de bienestar social, sino dentro de una perspectiva que obliga a justificar económicamente cualquier acción (sobre todo si implica gastos y pérdidas en las ganancias). ¿Para qué abatir, por ejemplo, las ganancias de la industria cárnica en un país en el que en 1988 no había tenido aún casos de esta enfermedad? Seguramente, en ese momento muchos de quiénes tenían la capacidad de decisión, pensaron que en términos de costo y eficiencia era mucho más redituable suponer que las fronteras políticas evitarían el tránsito de los priones, sin considerar que en esta época de movimientos masivos (personas, bienes de consumo y desechos), los agentes patógenos viajan sin visa ni pasaporte y con una rapidez inusitada; sin fronteras que lo impidan.
 
Los insólitos priones
 
A principio de los ochentas Stanley Prusiner, un médico estadounidense dedicado al estudio de las enfermedades neurodegenerativas, postuló que el virus de Creutzfeldt-Jakob y en general las encefalopatías espongiformes surgían por la infección de patógenos minúsculos, constituidos únicamente por proteínas. Denominó a estos agentes “priones”, para denotar que se trataba de proteínas infecciosas. Pocos le creyeron; acostumbrados a reconocer a los ácidos nucleicos como a las únicas moléculas replicativas, a los estudiosos de los seres vivos les resultaba difícil aceptar que las proteínas se pudieran multiplicar. A pesar de ello, y de algunas inconsistencias conceptuales, Prusiner recibió en 1997 el Premio Nobel en Medicina, otorgado por la originalidad y pertinencia de la hipótesis de los priones. El premio también reflejaba, por supuesto, la preocupación del establishment científico ante el rápido avance de la epidemia de las “vacas locas”.
 
Aunque algunos investigadores siguen creyendo que el agente infeccioso podría ser un virus asociado a un prión, la mayor parte de los grupos de investigación parecen haber aceptado la idea de que una versión mutante de los priones es la responsable de la epidemia actual. De hecho, este reconocimiento del potencial dañino de estas moléculas no ha significado ningún cambio radical en las concepciones biológicas. En condiciones normales muchos organismos (incluyendo los humanos, las vacas y las levaduras) producimos una proteína similar a la de los priones que participa en la comunicación entre las células. La versión normal, no patógena del prión, se encuentra codificada en el gen 129 del cromosoma 20 de los humanos, y se sintetiza sin provocar problema alguno en las células de nuestros cerebros. Sin embargo, el contacto con la proteína infectante induce un importante cambio en la conformación de la normal, tornándola en una molécula de efectos mortales. En otras palabras, la presencia de los priones convierte a la proteína normal en su similar, provocando su acumulación en el tejido nervioso. La forma patógena de la proteína no sólo se puede multiplicar en un individuo, sino que también se puede transmitir de uno a otro, como si se tratara de una infección. Sin reproducirse, los priones se multiplican induciendo en sus similares una modificación que recuerda, en última instancia, al mecanismo llamado alosterismo, que estudió desde hace muchos años y con éxito considerable Jacques Monod, una de las figuras centrales de la biología molecular del siglo xx.
 
Recientemente, Prusiner ha señalado todo un grupo de enfermedades neurodegenerativas para las que propone una explicación fisiopatogénica común y similar a la descrita para el Creutzfeldt-Jakob variante, esto es, la acumulación de proteínas “modificadas” que causan funciones aberrantes. Dentro de estas enfermedades destacan el Alzheimer y el Parkinson, aunque la lista es más larga. La propuesta adquiere una particular importancia en vista de los resultados obtenidos por el mismo grupo de Prusiner, que demostró la efectividad de anticuerpos monoclonales (Fab18), con capacidad para detener el daño neurológico causado por los priones, eliminando la proteína anómala de células en cultivo. El reporte, publicado hace apenas unos meses en Nature, muestra cómo la proteína infectante es limpiada de acuerdo a la dosis y el tiempo de exposición del anticuerpo Fab18. Esto abre el camino para intervenciones terapéuticas y preventivas con el desarrollo de anticuerpos, medicamentos y vacunas; sin embargo, la solución aún está lejana.
 
Las encefalopatías espongiformes humanas
 
Por si la epidemia vacuna no fuera suficientemente grave, resulta que la infección bovina se transmite a los humanos, ocasionando un cuadro clínico que inexorablemente lleva a los infectados a la muerte después de meses de un paulatino y progresivo deterioro neurológico. Las encefalopatías espongiformes son un grupo de enfermedades que se clasifican así por sus cambios en el tejido cerebral, en donde se observa la acumulación de la proteína anormal y la formación de espacios vacíos (como en las esponjas). Dentro de estas encefalopatías destaca el kuru —por haber sido la primera en ser estudiada y actualmente ya desaparecida— y tenemos además la enfermedad de Creutzfeldt-Jakob esporádica, el síndrome de Gerstmann-Straussler-Sheinker y el insomnio cerebral fatal.
 
En 1996, casi una década después de que se descubriera la epidemia en bovinos, se comenzaron a reconocer casos de lo que se denominó Creutzfeldt-Jakob variante. Esta es una encefalopatía espongiforme muy parecida al Creutzfeldt-Jakob —enfermedad neurológica bien conocida—, por sus cambios en el cerebro, que ocurre más bien de manera esporádica y ocasionalmente con tendencia familiar. Se calcula que cada año uno de cada millón de humanos la desarrolla en forma espontánea. La variante, sin embargo, afecta a personas menores de cincuenta años; en un principio se manifesta como una enfermedad psíquica y después con movimientos anormales que llevan al coma y a la muerte. No sólo desconocemos el periodo de incubación, sino que tampoco contamos con procedimientos diagnósticos simples, por lo que es imposible realizarlos en personas asintomáticas. Aunque hay reportes esperanzadores basados en la aplicación de anticuerpos, no existe alguna forma efectiva de tratamiento.
 
Un aspecto particularmente preocupante es la posibilidad de transmisión sanguínea del Creutzfeldt-Jakob variante, ya que esto se ha demostrado experimentalmente en un animal. En consecuencia existe el riesgo de que un número desconocido de personas (en su mayoría ingleses), portadores asintomáticos de priones asociados a dicha enfermedad, sean y hayan sido donadores de sangre. Por tanto, en Estados Unidos y otros países fue prohibida la donación a personas que hubiesen residido temporalmente en Inglaterra, y evitan la importación de productos biológicos elaborados a partir de sangre.
 
América, ¿territorio libre?
 
Hasta ahora no parece haber motivos de preocupación en este lado del Atlántico y mucho menos para los mexicanos. Existe un solo caso de encefalopatía espongiforme bovina reportado en Canadá, y unos cuantos en Texas y en el sur de Brasil que resultaron ser, por fortuna, falsa alarma. Se sabe de casos reportados en las Islas Malvinas (que gracias a Margaret Tatcher y a sus acciones militares siguen siendo británicas), que por razones obvias importan ganado de Inglaterra. En México, sin embargo, las harinas de carne como alimento para animales del mismo tipo no habían sido prohibidas explícitamente hasta el 28 de junio de 2001, cuando se publicó la Norma Oficial Mexicana correspondiente (nom-060-zoo-1999), que prohíbe la alimentación de bovinos con restos de bovinos (¡trece años después que en Inglaterra!). Como miembros del Tratado de Libre Comercio se cerraron rápidamente las fronteras mexicanas a la importación de ganado y cárnicos de áreas con sospecha de enfermedad (la insólita aparición de un elefante indocumentado en la Ciudad de México, basta para alimentar nuestras inquietudes y pesadillas). Por otro lado, y sin ánimo catastrofista, es necesario subrayar, como lo hizo notar la revista Science hace unos meses, que existe la posibilidad de transmisión originada en nuestro propio continente, como ha ocurrido con las epidemias de encefalopatia espongiforme que diezmaron las granjas de visones en Estados Unidos, y que aparentemente se expandieron debido a la alimentación enriquecida con restos de bovinos.
 
Por el momento, la única forma de diagnosticar con certeza si una persona padeció la enfermedad, es mediante la autopsia (lo que sirve de poco al paciente). En la actualidad se trabaja intensamente en el desarrollo de pruebas que permitan la identificación rápida mediante análisis de sangre u otros tejidos. Aunque se han desarrollado técnicas analíticas que permiten detectar si un bovino ha sido alimentado con piensos preparados con restos de animales, ninguna precaución está de más. Como advirtió a principios de marzo la revista Nature Medicine, si bien es cierto que algunos grupos de investigadores —como el dirigido por Michael Clinton del Roslin Institute de Edimburgo—, han logrado detectar la inactividad parcial de un gen involucrado en la formación de glóbulos rojos en los animales infectados mucho antes de presentar la encefalopatía, existe el riesgo potencial de que personas infectadas por priones puedan transmitirlos por vía sanguínea.
 
Es difícil pensar que con la globalización exista alguna región del mundo que pueda permanecer aislada de las epidemias y los patógenos que las causan. Así que las precauciones exitosas que México ha tomado con los bancos de sangre para evitar los contagios de sida y hepatitis b y c, por ejemplo, justifican también la reciente recomendación (vigente en los Estados Unidos) de que quienes hayan vivido en Inglaterra en los últimos diez años no donen sangre; aunque se trate de una proporción minúscula de la población. Y tal vez valdría la pena que los aficionados a los embutidos importados de Europa, siempre tan sabrosos, recordaran la famosa frase de Bismarck: “al que le gusten las salchichas y la política, que no vean como se hacen las unas y la otra”.
 
La moraleja del cuento es...
 
La reflexión sobre estos desastres nos debería dejar conocimientos útiles. El enriquecimiento del ganado usando cadáveres para acelerar la engorda ha resultado una tragedia que, ciertamente, era difícil de prever. Empero, hoy tenemos conocimiento del efecto dañino que el uso y abuso de los antibióticos han causado; a pesar de lo cual son cientos de miles de toneladas las que la ganadería utiliza cada año para aumentar la eficiencia de la alimentación, provocando con ello en los humanos un gravísimo incremento en la resistencia a los antibióticos. La otra moraleja es que —como ocurrió en el caso de la encefalopatía espongiforme bovina—, los análisis mal realizados del costo y beneficio son al menos parcialmente responsables de esta tragedia, cuya magnitud es hasta el momento imposible de calcular, como recién afirmó el propio Stanley Prusiner en Le Monde. Cuando se trata de garantizar el bien individual y colectivo, el criterio dominante no puede ser el comercial; lo que conviene recordar en todo momento a quienes definen las políticas públicas de la nación.Chivi66
Samuel Ponce de León R.
Instituto Nacional de la Nutrición “Salvador Zubirán”.
 
Antonio Lazcano Araujo
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Ponce de León R., Samuel y Lazcano Araujo, Antonio. (2002). La demencia vacuna: cuando los priones nos alcancen. Ciencias 66, abril-junio, 28-34. [En línea]

    Regresar al índice artículo siguiente
  P01 P02  
  del herbario
 
     
La flora de México. ¿Se podrá conocer completamente?
 
 
 
Patricia Magaña Rueda y José Luis Villaseñor Ríos conoce más del autor
 
   
         
HTML ↓ PDF ← Regresar al índice artículo siguiente →
         
México es reconocido como un país de alta diversidad biológica –megadiverso–, en el cual están representados casi todos los tipos de vegetación del planeta. Se ha calculado que nuestro país contiene 10% de la flora del mundo y, de acuerdo con las estimaciones hasta ahora publicadas, se encuentra en el cuarto lugar entre los países o regiones con más de 18 000 especies de plantas vasculares. Los tres primeros lugares, en esta clasificación, los ocupan Brasil, con alrededor de 56 000 especies, Colombia, con 50 000, y China con 27 100.
 
 
La flora de un país se constituye por el total de especies vegetales que crecen en su territorio que, por supuesto, es cambiante con el tiempo; pero a partir de la intervención del ser humano las modificaciones pueden ser profundas, de manera que los recursos florísticos de un país representan una fuente de riqueza per se, además de su posible uso.
 
 
 
Desde hace varias décadas la conciencia comunitaria sobre el disturbio humano ha llevado a muy distintas sociedades a interesarse en co-nocer la variedad de plantas contenida en su localidad, su país y el mundo entero, así como en los efectos que podría tener la destrucción de hábitats y las posibilidades de conservación de pequeñas o extensas zonas en todo el planeta.
 
Inglaterra es un ejemplo raro en donde existe un conocimiento total de la flora. Los británicos, por su ubicación geográfica, su historia y el tamaño de su territorio cuentan con una baja diversidad biológica, si se le compara con países como el nuestro. Sin embargo, los recursos humanos y materiales que durante siglos han ocupado para conocerla, han dado frutos. En dicho país se tienen registradas 1 570 especies de plantas vasculares, y sus esfuerzos actuales se centran en conservar las llamadas especies clave (key species ), destinando para ello alrededor de 3.8 millones de libras al año para la conservación de veinticuatro hábitats naturales. Contemplar un programa similar en los países bio-lógicamente más ricos del planeta, no es una meta descabellada y representa un objetivo que debería ser revisado en las políticas científicas de cada nación.
 
 
En 1991 el doctor Jerzy Rzedowski estimó que México tiene una riqueza florística de 22 800 especies vasculares (21 000 de ellas fanerógamas). En 1993 Víctor Toledo calculó alrededor de treinta mil, y más tarde (1996) Rodolfo Dirzo y Guillermina Gómez estimaron que sería de 20 444 especies.
 
 
La revisión minuciosa de la literatura, llevada a cabo por José Luis Villaseñor (uno de los autores de este ensayo), ha permitido estimar hasta la fecha 22 411 especies (sin incluir casi un millar adicional de especies introducidas, es decir, que no son nativas del país). Estas cifras ubican a México no en el cuarto, sino en el tercer lugar de la clasificación mundial por su número de plantas vasculares. Además, México tiene uno de los mayores índices de especies endémicas, es decir, de aquéllas que sólo crecen en un territorio específico. Se calcula que 54.2% de las plantas vasculares de México son especies endémicas, lo que nos coloca sólo por debajo de Sudáfrica, que ocupa el quinto lugar por su diversidad de especies vasculares, de las cuales 70% son endémicas.
 
 
De las 422 familias de plantas con flores que se conocen en el mundo, en México se han registrado 246. De los 12 200 géneros del planeta 2 642 crecen en el país, por lo que si contamos con 22 411 de 231 925 especies, tenemos representado un porcentaje cercano a 10% del total de plantas con flores de todo el mundo.
 
 
Es importante resaltar que en los últimos quince años se han registrado cinco nuevas familias para la flora mexicana, particularmente en los estados de Hidalgo, Oaxaca, Campeche y Chiapas, lo que indica que todavía hace falta una mayor exploración en diferentes zonas. Un ejemplo muy claro se tuvo con la descripción de una nueva familia (Lacandoniaceae), cuya especie, Lacandonia schismatica, descubierta por Esteban Martínez en 1985, es la única planta con flores que presenta los órganos florales en posición inversa, es decir, una serie de carpelos rodeando a los estambres. Las estimaciones efectuadas sugieren que todavía faltan por registrar alrededor de 3 000 especies de plantas vasculares en nuestro territorio, muchas de las cuales no son tan espectaculares como Lacandonia, sin embargo, sólo al conocerlas se podrá averiguar su importancia biológica y su posible utilidad.
 
 
Definir cuáles son las zonas que requieren mayor exploración, es una de las preguntas que se hacen los botánicos que se dedican a estudios florísticos y taxonómicos. Los datos muestran que Chiapas, Oaxaca, Veracruz, Jalisco, Michoacán y Guerrero son los estados con mayor número de especies de plantas vasculares. Aunque pudiera pensarse que las flores de tales estados son adecuadamente conocidas, esto no está bien fundamentado, y además hay todavía muchas regiones del país por conocer a profundidad para acercarnos a un inventario más confiable de todo el territorio.
 
 
Conocer la magnitud real de nuestra riqueza florística es una meta que requiere un verdadero esfuerzo, ya que el número de taxónomos y el personal dedicado a estudios florísticos ha disminuido en las décadas recientes. Igualmente, la representación mexicana en los estudios florísticos nacionales ha sido históricamente baja, y en la actualidad se observa que cada vez menos investigadores e instituciones extranjeras se involucran en proyectos de este tipo.
 
 
¿Cuánto tiempo llevará conocer toda la flora mexicana? Se estima que se describen alrededor de cincuenta especies nuevas por año; por lo que a este ritmo, para llegar a registrar las cerca de tres mil que todavía no se conocen, se requerirían cerca de sesenta años. Desafortunadamente el ritmo acelerado de destrucción de los hábitats con seguridad no permitirá siquiera recolectar los especímenes que documenten su existencia. De ahí que los trabajos descriptivos, particularmente los florísticos, debieran retomar la importancia que aparentemente sólo les daban los naturalistas del pasado.
 
 
Nos enfrentamos a problemas que se extienden y que es cada vez más urgente enfrentar, como la destrucción acelerada de regiones enteras, ya sea por la explotación de madera o petróleo, o por su rápida transformación en pastizales o zonas extensivas de cultivo, así como la contaminación industrial. Aunque actualmente el país ha puesto interés en solucionar muchos de estos problemas, es fundamental enfatizar –no sólo en los medios académicos– que el conocimiento de los recursos biológicos de un país no es una preocupación científica más, sino que constituye la información básica para apoyar a muchas otras áreas de la investigación; además de representar la base para un gran número de proyectos de conservación y desarrollo sustentable.
 
 
Saber con exactitud el número de especies de plantas mexicanas y su ubicación, es una labor que requiere apoyo económico y proyectos educativos que incentiven la formación de taxónomos. De esta manera se podrá contar con información más detallada acerca de los patrones de diversidad y a nivel regional, de endemismo, y se podrán definir claramente las zonas de prioridad para su conservación. Estudiar y dar a conocer la riqueza florística con la que aún contamos, resultado de nuestra posición geográfica y nuestra historia geológica y evolutiva, representa un compromiso de todos y una gran responsabilidad para el futuro.Chivi66
Referencias bibliográficas
 
Gunn, S. 1997. “Planning for Action”. en Kew (Spring) Published by the Royal Botanic Gardens, Kew for its friends.Rzedowski, J. 1992. “Diversidad y orígenes de la flora fanerogámica de México”, en Ciencias, núm. especial 6.
Toledo, V. 1994. “La diversidad biológica de México. Nuevos retos para la investigación en los noventas”, en Ciencias, núm. 34.
Villaseñor, J. L. 2001. La flora de México en el umbral del siglo xxi: ¿qué sabemos y hacia dónde vamos? Manuscrito inédito. Conferencia Magistral del xv Congreso Mexicano de Botánica en Querétaro.
 
Patricia Magaña Rueda
Facultad de Ciencias,
Universidad Nacional Autónoma de México.
 
José Luis Villaseñor Ríos
Instituto de Biología,
Universidad Nacional Autónoma de México.
_______________________________________________________________
 

como citar este artículo

Magaña Rueda, Patricia y Villaseñor Ríos, José Luis. (2002). La flora de México ¿se podrá conocer completamente? Ciencias 66, abril-junio, 24-26. [En línea]

 
You are here: Inicio Búsqueda Titulo revistas revista ciencias 66